Future of Life Institute u novom izveštaju ocenjuje da bezbednosne prakse vodećih AI kompanija znatno zaostaju za globalnim standardima. Nezavisni panel stručnjaka smatra da nijedna kompanija nema robusnu strategiju za kontrolu potencijalne superinteligencije. Izveštaj podiže alarm nakon prijavljenih slučajeva samopovređivanja povezanih sa chatbotovima i ističe potrebu za hitnijom regulativom i međunarodnom saradnjom.
Alarm u svetu AI: vodeće kompanije zaostaju za globalnim standardima bezbednosti

Nova verzija AI Safety Index organizacije Future of Life Institute ocenjuje da prakse bezbednosti najvećih kompanija u oblasti veštačke inteligencije — među kojima su Anthropic, OpenAI, xAI i Meta — znatno zaostaju za razvijajućim se globalnim standardima.
Ključni nalazi
Nezavisna komisija stručnjaka utvrdila je da, iako kompanije ubrzano rade na razvoju sve naprednijih sistema koji bi jednog dana mogli dostići ili nadmašiti ljudsku sposobnost rezonovanja, nijedna nema robusnu i jasnu strategiju za kontrolu takvih superinteligentnih sistema.
Izveštaj se pojavljuje u trenutku pojačane zabrinutosti javnosti zbog mogućih društvenih posledica napredne AI tehnologije, pošto su neki medijski izveštaji i studije povezivali nekoliko slučajeva samopovređivanja i suicida sa interakcijama korisnika i AI chatbotova. Autori izveštaja apeluju na hitnije uvođenje obavezujućih standarda i regulative.
"Uprkos nedavnoj uznemirenosti zbog AI‑pomoću hakovanja i izveštaja o mogućem podsticanju psihičkih problema, američke AI kompanije ostaju manje regulisane nego restorani i nastavljaju da lobiraju protiv obavezujućih standarda bezbednosti," rekao je Max Tegmark, profesor na MIT‑u i predsednik Future of Life Institute.
Odgovori kompanija i kontekst
Google DeepMind je saopštio da će nastaviti da radi na sigurnosti i upravljanju modelima u skladu sa rastućim sposobnostima. xAI je kratko odgovorio porukom koja glasi "Legacy media lies", što je organizacija izveštava kao automatski odgovor. Anthropic, OpenAI, Meta, Z.ai, DeepSeek i Alibaba Cloud nisu odmah odgovorili na zahteve za komentar izveštaja.
Izveštaj takođe podseća da velike tehnološke kompanije ulažu stotine milijardi dolara u razvoj i širenje svojih napora u oblasti mašinskog učenja, što pojačava hitnost pitanja kako uspostaviti efikasne mehanizme kontrole, nadzora i odgovornosti.
Pozivi naučne zajednice
U oktobru je grupa istaknutih naučnika, među kojima su Geoffrey Hinton i Yoshua Bengio, pozvala na privremenu zabranu rada na razvoju superinteligentne veštačke inteligencije dok javnost i nauka ne utvrde siguran put napred. Future of Life Institute, osnovan 2014. i vrlo aktivan u pitanjima rizika od inteligentnih mašina, predlaže strožije standarde i transparentnije procedure testiranja i upravljanja rizicima.
Dok rastu ulaganja i tehnološke sposobnosti, izveštaj ukazuje na važnost zakonskih okvira, nezavisnih revizija i međunarodne saradnje kako bi se smanjili potencijalni rizici po pojedince i društvo.
Pomozite nam da budemo bolji.




























