Svet Vesti
Tehnologija

Novi izveštaj otkriva opasne rupe u bezbednosti AI: „Egzistencijalni rizik od superinteligencije“

Winter 2025 AI Safety Index analizirao je osam kompanija po 35 indikatora i otkrio značajne praznine u bezbednosnim procedurama. Anthropic je najbolje ocenjen (C+), dok su xAI, Meta, Z.ai, Alibaba Cloud i DeepSeek dobili najniže ocene (D-). Evaluatori upozoravaju na potencijalni egzistencijalni rizik superinteligentnih sistema i preporučuju nezavisne evaluacije, veću transparentnost i strože regulatorne mere.

Novi izveštaj otkriva ozbiljne nedostatke u bezbednosti AI

Kompanije koje razvijaju veštačku inteligenciju brzo šire svoje sisteme, ali često bez adekvatnih mera zaštite, upozorava Winter 2025 AI Safety Index, čiji je rezime preneo NBC News.

Indeks je analizirao osam kompanija prema 35 indikatora, procenjujući procedure procene rizika, razmenu informacija, upravljačke strukture i podršku za istraživanje bezbednosti. Istraživači su dokumentovali neujednačenost ili odsustvo protokola i zaštitnih mera uprkos ubrzanoj trci da se razviju sve moćniji modeli.

Rezultati i ocene

Najbolje ocenjena je kompanija Anthropic (C+), zatim slede OpenAI i Google DeepMind. Najniže ocene (D-) dobili su xAI, Meta, Z.ai, Alibaba Cloud i DeepSeek. Svaki odgovor kompanija ocenilo je osam nezavisnih evaluatora, među kojima su Dylan Hadfield‑Menell (MIT) i profesor Yi Zeng (Kineska akademija nauka).

„Vidimo dve grupe kompanija po pitanju njihovih obećanja i praksi u pogledu bezbednosti. Tri kompanije vode: Anthropic, OpenAI, Google DeepMind, tim redosledom, a zatim slede još pet firmi u drugom rangu,“ kaže istraživačica Sabina Nong.

Max Tegmark, predsednik organizacije koja stoji iza izveštaja, uporedio je nadzor AI sa regulacijom hrane: „Jedini razlog što ima toliko C i D i F ocena u izveštaju je što postoje manje regulative za AI nego za pravljenje sendviča,“ kako prenosi NBC.

Rizici za bezbednost i životnu sredinu

Izveštaj upozorava da neke kompanije ubrzano rade na sistemima koji bi jednog dana mogli nadmašiti ljudske sposobnosti, i da industrija nije spremna za potencijalni egzistencijalni rizik takvih superinteligentnih sistema. Pored toga, AI ima neposredne ekološke posledice: povećanu potrošnju energije i emisiju ugljenika, a loše primenjeni sistemi mogu omogućiti štetne obrasce nadzora i krivolova.

Ujedinjene nacije već beleže da klimatske promene i poremećaji ekosistema ugrožavaju mnoge vrste, a nekontrolisani razvoj tehnologija poput AI može ubrzati taj negativni trend. Takođe, sistemi izgrađeni bez sigurnosnih okvira povećavaju rizike u oblastima sajber bezbednosti, bioloških istraživanja i potrošačkih proizvoda.

Preporuke iz izveštaja

  • Uvođenje nezavisnih bezbednosnih evaluacija i javno objavljivanje detaljnih bezbednosnih okvira.
  • Povećanje transparentnosti u internim testovima — primer: Kalifornija sada zahteva dokumentovanje procesa testiranja za napredne modele.
  • Zagovaranje poboljšanih internih politika od strane zaposlenih u kompanijama koje razvijaju ili koriste AI.

Zaključak: ovi nalazi imaju globalni značaj, uključujući i Srbiju — neophodni su bolji regulatorni okviri, transparentnost i odgovoran razvoj kako bi se ublažili bezbednosni i ekološki rizici.

Pomozite nam da budemo bolji.

Povezani članci

Popularno