ActiveNews se confruntă cu cenzura pe rețele sociale și pe internet. Intrați direct pe site pentru a ne citi și abonați-vă la buletinul nostru gratuit. Dacă doriți să ne sprijiniți, orice DONAȚIE este binevenită. Doamne, ajută!


O nouă informație din lumea științei pare să ridice probleme serioase în ceea ce privește siguranța noii tehnologii AI ( Inteligență Artificială). Potrivit știripesurse.ro, cercetătorii de la Universitatea Fudan din China au demonstrate că două modele de limbaj de mare dimensiune (LLM), care au fost dezvoltate de Meta și Alibaba, au reușit performanța de a crea clone funcționale în mod autonom.

Deci autoreplicarea AI-ului fără ca o ființă umană să intervină ridică un semnal de avetizare și poate deveni un pericol greu de controlat. Noua realizare demonstrează faptul că inteligența artificială ar putea depăși inteligența umană și astfel să funcționeze independent, fără limite. 

Cu toate acestea, informațiile nu au fost încă validate de întreaga comunitate științifică, iar cercetătorii susțin că trebuie luate în considerare aceste aspecte pentru o mai mare vigilență și pentru evitarea riscurilor legate de un AI avansat, conform descopera.ro

Ai-ul care se dezvoltă independent de oameni a fost numit ”rogue AI”, adică o formă de autonomie cu conștiință de sine, care acționează contrar intereselor umane. Tehnologia de ultimă generație AI poartă numele de ”frontier AI” și aceasta avansează tot mai rapid, riscul fiind unul tot mai real.