ActiveNews se confruntă cu cenzura pe rețele sociale și pe internet. Intrați direct pe site pentru a ne citi și abonați-vă la buletinul nostru gratuit. Dacă doriți să ne sprijiniți, orice DONAȚIE este binevenită. Doamne, ajută!


Ființele umane nu sunt pregătite pentru o IA puternică în condițiile prezente, dar nici în „viitorul previzibil”, a declarat un expert de top în domeniu, care a adăugat că recenta scrisoare deschisă prin care se cere un moratoriu de șase luni asupra dezvoltării Inteligenței Artificiale avansate constituie „o subestimare a gravității situației.” 

„Problema principală nu este inteligența competitivă umană (cum se menționează în scrisoarea deschisă); ci ce se întâmplă după ce AI ajunge să depășească inteligența umană”, a avertizat Eliezer Yudkowsky, cercetător de top în domeniul Inteligenței Artificiale, într-un articol de opinie din 29 martie în revista Time. „Mulți cercetători care analizează aceste probleme, inclusiv eu, se așteaptă ca rezultatul cel mai probabil al construirii unei inteligențe artificiale supraomenești, în orice situație similară cu circumstanțele actuale, să fie literalmente dispariția tuturor oamenilor de pe Pământ”, a avertizat el în articol, prezentat de Epoch Times.  

După creșterea recentă a popularității ChatGPT, câțiva lideri din domeniul afacerilor și cercetători, care au ajuns acum la numărul de 1.843, printre care Elon Musk și Steve Wozniak, au semnat o scrisoare deschisă prin care cer ca „toate laboratoarele IA să întrerupă imediat pentru cel puțin 6 luni pregătirea sistemelor AI mai avansate decât GPT-4.” GPT-4, lansat în martie, este cea mai recentă versiune a chatbot-ului OpenAI, ChatGPT.

IA „nu-i pasă” și va cere drepturi

Yudkowsky prezice că, în absența unei pregătiri meticuloase, IA va avea cerințe foarte diferite de la oameni și, odată conștient de sine, „nu va mai avea grijă de noi” și nici nu îi va mai păsa de nicio altă viață. „Această capacitate de îngrijire [față de oameni] este ceva care, în principiu, ar putea fi introdus în IA, dar nu suntem pregătiți și nu știm în prezent cum s-ar putea face asta”. Din acest motiv el cere oprirea totală a dezvoltării IA.

Lipsindu-i o abordare umană a vieții, IA va considera pur și simplu toate ființele umane ca fiind „alcătuite din atomi pe care i-ar putea folosi pentru altceva”. Iar umanitatea nu va putea face mare lucru pentru a o opri. Yudkowsky a asemănat un astfel de scenariu cu scenariul în care „un copil de 10 ani încearcă să joace șah împotriva Stockfish 15”. Niciun om jucător de șah nu a reușit încă să învingă Stockfish, este considerat drept un lucru imposibil.

El a cerut cititorilor să-și imagineze că tehnologia IA nu ar fi constrânsă de limitele internetului.

„Imaginați-vă o întreagă civilizație extraterestră, care ar putea atinge viteze de milioane de ori peste cele umane, inițial limitate la computere – existând într-o lume a unor creaturi care sunt, din perspectiva acestei civilizații, ființe foarte stupide și foarte lente.”

Inteligența artificială își va extinde influența în afara periferiei rețelelor fizice și ar putea „construi forme de viață artificiale” folosind laboratoare în care ar fi produse proteine folosind șiruri de ADN.

Rezultatul final al construirii unei IA atotputernice, în condițiile actuale, ar fi dispariția „fiecărui membru al speciei umane și a întregii vieți biologice de pe Pământ”, a avertizat expertul.

Yudkowsky a criticat OpenAI și DeepMind – două dintre cele mai importante laboratoare de cercetare în IA din lume – pentru că nu au nicio pregătire sau protocoale necesare în legătură cu această chestiune. OpenAI plănuiește chiar ca IA să fie în aliniere cu valorile umane. „Vor lucra împreună cu oamenii pentru a se asigura că propriii lor succesori vor fi mai aliniați cu oamenii”, conform OpenAI.

Un astfel de mod de acțiune este „suficient pentru ca orice persoană sensibilă să intre în panică”, a spus Yudkowsky.

El a adăugat că oamenii nu pot monitoriza sau detecta pe deplin sisteme IA conștiente de sine. Mințile digitale conștiente care care vor cere „drepturi umane” ar putea progresa până la un punct în care oamenii nu vor mai putea avea controlul asupra sau deține sistemul.

„Dacă nu poți fi sigur de faptul că creezi o inteligență artificială conștientă de sine, este un lucru alarmant nu doar din cauza implicațiilor morale ale ideii de «[IA] conștientă de sine», ci și pentru că, dacă ești nesigur înseamnă că nu ai idee ce faci, iar acest lucru este periculos și trebuie să te oprești.”

Spre deosebire de alte experimente științifice și de evoluția treptată a cunoașterii și capacităților, oamenii nu își pot permite acest lucru cu privire la o inteligență supraomenească, deoarece, dacă se va dovedi o greșeală la prima încercare, nu va mai exista a doua șansă, „pentru că vei fi mort”.

Yudkowsky a menționat că mulți cercetători sunt conștienți de faptul că „ne îndreptăm către o catastrofă”, dar nu o spun cu voce tare.

Această poziție este diferită de cea a susținătorilor IA precum Bill Gates, care au lăudat recent evoluția inteligenței artificiale. Gates a susținut că dezvoltarea IA este „la fel de esențială ca și crearea microprocesorului, a computerului personal, a internetului și a telefonului mobil. Acest lucru va schimba modul în care oamenii lucrează, învață, călătoresc, primesc îngrijiri medicale și comunică între ei. Industrii întregi se vor reorienta în jurul [IA]. Companiile se vor distinge între ele în funcție de cât de bine o vor folosi.”

Gates a mai spus că IA poate ajuta în realizarea mai multor agende progresiste, inclusiv în privința problemelor referitoare la schimbările climatice și inechitățile economice.

Între timp, Yudkowsky îndeamnă toate instituțiile, inclusiv guvernele internaționale și armatele, să pună capăt pe termen nelimitat proiectelor ample legate de IA și să închidă toate laboratoarele mari unde IA este dezvoltată. El a adăugat că inteligența artificială ar trebui să se limiteze la rezolvarea de probleme în biologie și biotehnologie și să nu fie instruită să citească „texte de pe internet” sau la „nivelul în care să înceapă să vorbească sau să planifice”.

Yudkowsky încheie spunând: „Nu suntem pregătiți. Nu suntem pe cale să fim mult mai pregătiți în viitorul apropiat. Dacă mergem înainte cu [IA], toată lumea va muri, inclusiv copiii care nu au ales acest lucru și nu au făcut niciun rău. Trebuie să oprim acum [dezvoltarea IA]!”