CEO-ul OpenAI cere reglementări guvernamentale asupra noii tehnologii, care ar putea „provoca un rău semnificativ lumii”

CEO-ul unei mari companii din domeniul Inteligenței Artificiale (AI) a spus parlamentarilor, în timpul unei audieri marți în Senatul SUA, că este îngrijorat că domeniul său ar putea cauza „daune semnificative lumii” prin dezvoltarea nereglementată a sistemelor de inteligență artificială.
În timpul audierii, directorul executiv OpenAI, Sam Altman, a răspuns la întrebări referitoare la impactul acestei tehnologii care se dezvoltă rapid asupra locurilor de muncă și potențialul acesteia de a face ravagii în timpul unui ciclu electoral.
„Am încercat să fim foarte clari cu privire la amploarea riscurilor aici. Cele mai mari îngrijorări ale mele sunt legate de faptul că provocăm un prejudiciu semnificativ – noi, domeniul, industria tehnologiei –, provocăm un rău semnificativ lumii. Cred că asta s-ar putea întâmpla în mai multe moduri”, a spus Sam Altman, potrivit LifeSiteNews.
„Cred că, dacă această tehnologie va merge prost, poate provoca destul de mult rău și vrem să vorbim despre asta”, a spus el.
De asemenea, miliardarul în domeniul Big Tech Elon Musk, care a ajutat la înființarea Open AI în 2015 și a avertizat în mod repetat cu privire la pericolele unei IA nereglementate, a comentat avertismentele lui Altman scriind pe Twitter: „Corect!”.
În timpul audierii de marți, senatorul democrat american Richard Blumenthal din Connecticut, care a spus că un „coșmar” al său este ca inteligența artificială să aibă un impact distructiv asupra locurilor de muncă, a cerut lui Altman să ia în considerare și o postare pe blog din 2015 în care a susținut anterior că „dezvoltarea inteligenței mașinilor supraumane... constituie probabil cea mai mare amenințare la adresa continuității existenței umanității.”
„La fel ca în cazul tuturor revoluțiilor tehnologice, mă aștept să existe un impact semnificativ asupra locurilor de muncă”, a răspuns Altman. El a recunoscut că Chat GPT4, care a fost lansat pe 14 martie, „cred că va automatiza complet unele locuri de muncă”, deși a susținut că va „crea și altele noi despre care credem că vor fi mult mai bune”.
De asemenea, senatorul american republican Josh Hawley din Missouri a citat o lucrare MIT apărută în aprilie care a constatat că sistemele de inteligență artificială sunt capabile să prezică opinia publică și l-a întrebat pe Altman dacă, în opinia sa, o astfel de tehnologie ar putea avea un impact enorm asupra proceselor electorale în alegerile prezidențiale.
„Este unul dintre motivele care îmi provoacă cea mai mare îngrijorare”, a răspuns Altman, subliniind „capacitatea mai generală a acestor modele de a manipula, de a convinge, de a oferi un fel de dezinformare interactivă unu-la-unu”.
Altman a recomandat implementarea de reglementări guvernamentale pentru a se asigura că oamenii „știu dacă vorbesc cu o IA” sau dacă „conținutul la care se uită ar putea fi generat sau nu”.
Un alt participant la audierea de marți, profesorul emerit de psihologie și științe neuronale la Universitatea din New York, Gary Marcus, a menționat că exemplul lui Hawley despre capacitatea IA de a prezice comportamentul uman este doar vârful aisbergului.
Potrivit lui Marcus, posibilitatea mai îngrijorătoare este că IA ar putea de fapt „manipula” convingerile politice ale oamenilor, mai degrabă decât să le prezică pur și simplu.
„Unul dintre lucrurile care mă îngrijorează cel mai mult privind GPT4 este că nu știm cum anume este antrenat. Modul cum este antrenat are, în esență, consecințe pentru părtinirile sistemului”, a spus Marcus.
Îngrijorările exprimate de Altman și Marcus reflectă preocupări similare exprimate anterior și de Musk, care a avertizat că IA ar putea reprezenta o amenințare existențială pentru civilizație.
„Dacă ai o inteligență artificială superinteligentă care este capabilă să scrie incredibil de bine într-un mod foarte influențabil, convingător... și poate manipula opinia publică într-un mod foarte negativ, cum vom ști acest lucru?”, a spus Musk într-un dialog în aprilie cu gazda de atunci de la Fox News, Tucker Carlson.
Musk a adăugat că este „îngrijorat de faptul că” ChatGPT „este antrenat să fie corect politic, ceea ce înseamnă un alt mod de a spune lucruri neadevărate. Aceasta este cu siguranță o cale către distopia IA”, a spus el.
Susține ActiveNews

Participă prin sprijinirea noastră
la lupta pentru Adevăr!
la lupta pentru Adevăr!
căci mâine nu se știe ce ne mai așteaptă.
Pe același subiect

Ostracizarea disidenților: Să ne arătăm sprijinul față de Prof. Dr. Sucharit Bhakdi, care va fi judecat pe 23 mai 2023

NATO – bătut de un Bucătar și de o strânsură de Pușcăriași?

Cel mai bine păstrat Secret al lui Zelenski

Prof. Dr. Nicholas Dima: ANALIZĂ EXCLUSIVĂ - Războiul din Ucraina… Perspective sumbre. Zelensky își dă seama ca își distruge țara? Ce vor americanii, rușii și evreii. România, între Scila și Caribda

Șeful OMS: Lumea trebuie să se pregătească pentru o boală mai mortală decât Covid

Celine Dion și-a anulat 40 de concerte din motive de sănătate. Cum arată starul vaccinist și satanist în prezent: FOTO
Recomandările noastre

Larry Watts lansează ”bomba atomică românească” la ora 13 la Bookfest. EXCLUSIV: Excerpts from "Romania, Nuclear Energy & The Atomic Bomb". ENGLISH

Eveniment epocal: Apare legea "Ce este o Femeie"

ActiveNews își cere scuze pentru informațiile eronate prezentate de Cartepedia, Citești, Librărie și Polirom cu privire la soția lui Bănescu, Cristina Popa - Curticeanu. Care este situația cu șeful Cancelariei lui Ceaușescu și cea de la Colegiul Goethe

Astăzi este ultima zi în care vă puteți redirecționa 3,5% din Impozitul pe venit. Susțineți Familia Ortodoxă!
Secțiuni: Externe Prima pagină Știri
Persoane: Elon Musk Gary Marcus Sam Altman
Locații: SUA
Subiecte: ChatGPT eliminarea locurilor de muncă de către Inteligența Artificială inteligența artificială Inteligență artificială (A.I.) OpenAI ChatGPT pericolul dezvoltării Inteligenței Artificiale
Tip conținut: Știri
Autentifică-te sau înregistrează-te pentru a trimite comentarii.
Comentarii (0)