ActiveNews se confruntă cu cenzura pe rețele sociale și pe internet. Intrați direct pe site pentru a ne citi și abonați-vă la buletinul nostru gratuit. Dacă doriți să ne sprijiniți, orice DONAȚIE este binevenită. Doamne, ajută!


Oamenii de știință au dezvoltat un sistem de inteligență artificială capabil să citească gândurile oamenilor măsurând activitatea creierului și transformându-l în text, o dezvoltare care trezește îngrijorări cu privire la protejarea confidențialității și libertății.

Studiul, publicat în revista Nature Neuroscience pe 1 mai, a folosit un model de transformator, similar celui care alimentează chatbot-ul de inteligență artificială ChatGPT al OpenAI, pentru a decoda gândurile oamenilor, relatează Epoch Times

Un model de transformator este o rețea neuronală care învață contextul și, astfel, sensul. Subiecții din test au ascultat inițial ore întregi de podcasturi, iar activitatea creierului lor a fost înregistrată. Cercetătorii au instruit apoi decodorul cu privire la aceste înregistrări. Mai târziu, subiecții au ascultat o nouă poveste sau și-au imaginat spunând o poveste, ceea ce a permis decodorului să genereze textul corespunzător analizând activitatea creierului.

Cercetătorii au instruit decodoarele cu privire la trei subiecte. „Deoarece decodorul nostru reprezintă limbajul folosind trăsături semantice mai degrabă decât trăsăturile motorii și auditive, predicțiile decodorului trebuie să surprindă semnificația stimulilor”, a menționat studiul. „Rezultatele arată că secvențele de cuvinte decodificate au capturat nu numai sensul stimulilor, ci deseori chiar și cuvinte și fraze exacte.”

Astfel de tehnologii ridică îngrijorări cu privire la confidențialitate și la pierderea libertății.

Într-un interviu din 17 martie pentru MIT Technology Review, Nita Farahany, specialist în etică juridică la Universitatea Duke din Durham, Carolina de Nord, a avertizat că colectarea de date despre creier poate fi folosită de guverne și de alte puteri în scopuri malefice.

„Un guvern autoritar care are acces [la această tehnologie] ar putea să-l folosească pentru a încerca să identifice oameni care nu manifestă obediență politică, de exemplu. Aceasta este o utilizare destul de rapidă și gravă a datelor în scopuri rău intenționate”, a spus Farahany.

La locul de muncă, tehnologia poate fi folosită pentru „dezumanizarea” angajaților, care pot fi forțați să se supună supravegherii neurologice.

„Problema apare dacă este folosit ca instrument obligatoriu, iar angajatorii adună, prin el, date pentru a lua decizii cu privire la angajare, concediere și promovare. Îl transformă într-un fel de scor de productivitate. Subminează încrederea... și poate dezumaniza locul de muncă.”

Spre deosebire de alte sisteme de decodare a limbajului care sunt în dezvoltare în prezent, tehnologia dezvoltată de cercetători în studiul de 1 mai este non-invazivă și nu impune ca subiecții să facă transplanturi chirurgicale.

Alex Huth, profesor asistent de neuroștiințe și informatică la UT Austin, care a condus studiul, a descris rezultatele un „adevărat salt înainte” privind citirile non-invazive ale creierului.

„Noi obținem modelul pentru a decoda limbajul continuu pentru perioade lungi de timp, cu idei complicate”, a spus Huth, potrivit unui comunicat de presă. Rezultatele decodificate nu sunt transcrieri cuvânt cu cuvânt. În schimb, ele surprind esența a ceea ce gândește un subiect.

În același timp, Jerry Tang, un coautor al studiului, consideră că, în timp ce tehnologia este în stadii incipiente, guvernele ar trebui să adopte politici care să protejeze oamenii și confidențialitatea acestora. „Este, de asemenea, foarte important să fie supusă reglementării modalitatea în care pot fi folosite aceste dispozitive.”