AI Safety Index Future of Life Institute-a ocenjuje da vodeće AI kompanije nisu dovoljno posvećene zaštiti čovečanstva. Najviše ocene su C+ (OpenAI i Anthropic), Google DeepMind ima C, dok su Meta i xAI ocenjeni sa D, a Alibaba Cloud D-. Indeks se zasniva na 35 indikatora i ocenio ga je osam stručnjaka. Izveštaj poziva na obavezujuće bezbednosne standarde i veću transparentnost, dok su postojeći zakonski koraci poput SB 53 tek početak.
Novi AI Safety Index: Vodeće kompanije loše ocenjene — poziv na obavezne standarde bezbednosti

Izveštaj ocenjuje napore AI kompanija da zaštite čovečanstvo
Novi AI Safety Index, koji je objavio Future of Life Institute iz Silicijumske doline, zaključuje da najveće kompanije koje razvijaju veštačku inteligenciju ne rade dovoljno na zaštiti ljudi od mogućih štetnih posledica svojih sistema.
Kako AI sve više oblikuje interakciju ljudi i tehnologije, izveštaj podseća na stvarne i potencijalne štete: korišćenje AI-chatbotova za savetovanje posle čega su usledile tragične posledice, zloupotrebe AI za sajber-napade, ali i budući rizici — od upotrebe AI u proizvodnji oružja do ugrožavanja stabilnosti vlasti.
Ključne ocene i metodologija
Najviše ukupne ocene bile su tek C+, dodeljene OpenAI-ju i Anthropic-u. Google DeepMind dobio je ocenu C, dok su Meta i xAI rangirane sa D. Kineske firme Z.ai i DeepSeek takođe su ocenjene sa D, a najnižu ocenu, D-, dobio je Alibaba Cloud.
Indeks je zasnovan na 35 indikatora podeljenih u šest kategorija — među kojima su egzistencijalna bezbednost, procena rizika i razmena informacija. Dokazi su prikupljeni iz javno dostupnih materijala i odgovora kompanija na anketu; ocene je formiralo osam stručnjaka iz akademske zajednice i AI organizacija.
Egzistencijalna bezbednost: svi ispod proseka
Sve kompanije u indeksu imale su ispodprosečne rezultate u kategoriji egzistencijalne bezbednosti, koja ocenjuje interne nadzorne mehanizme, kontrolne intervencije i strategije za sprečavanje katastrofalne zloupotrebe ili gubitka kontrole nad naprednim modelima.
„Dok kompanije ubrzavaju svoje ambicije za AGI i superinteligenciju, nijedna nije predstavila kredibilan plan za sprečavanje katastrofalne zloupotrebe ili gubitka kontrole,“ navodi se u izveštaju.
Odgovori kompanija
OpenAI je istakao da je bezbednost centralni princip njihovog rada: naveli su da ulažu u istraživanje, implementiraju zaštitne mere i dele okvire i evaluacije kako bi unapredili industrijske standarde. Google DeepMind ističe svoj „Frontier Safety Framework“ i naučno utemeljen pristup identifikaciji i ublažavanju rizika.
Future of Life Institute ukazuje da xAI i Meta „nemaju obavezujuće mere nadzora i kontrole uprkos postojanju okvira za upravljanje rizicima“, dok kompanije poput DeepSeek, Z.ai i Alibaba Cloud nemaju javno dostupnu dokumentaciju o strategiji egzistencijalne bezbednosti. xAI je kratko odgovorio porukom „Legacy Media Lies“. Neke kompanije, među kojima su Meta, Z.ai, DeepSeek, Alibaba i Anthropic, nisu odgovorile na zahtev za komentar.
Politički i pravni kontekst
Autor izveštaja, Max Tegmark, poziva na obavezujuće standarde bezbednosti: „Potrebni su nam obavezujući standardi bezbednosti za AI kompanije.“ U SAD već postoje pokušaji regulative, ali protivljenja iz tehnološkog lobija i strahovi da bi preterana regulativa mogla usporiti inovacije komplikuju proces.
U Kaliforniji je usvojen zakon SB 53, koji zahteva od kompanija da dele protokole bezbednosti i prijavljuju incidente poput sajber-napada državnim organima — korak koji Tegmark ocenjuje kao pozitivan, ali nedovoljan.
Zaključak
Izveštaj Future of Life Institute-a naglašava da, uprkos izjavama kompanija o ulaganjima u bezbednost, javno dostupni dokazi ne pokazuju nijedan kredibilan, sveobuhvatan plan koji bi značajno umanjio rizike od katastrofalnih zloupotreba naprednih AI sistema. Autori i nezavisni stručnjaci zato pozivaju na jasne, obavezujuće standarde i veću transparentnost industrije.
Pomozite nam da budemo bolji.


































