Svet Vesti
Technology

Najopasnija AI: Studija otkriva da vodeće kompanije nemaju planove za katastrofalne rizike

Najopasnija AI: Studija otkriva da vodeće kompanije nemaju planove za katastrofalne rizike

Nova studija Future of Life Institute‑a utvrdila je da osam vodećih AI kompanija nema adekvatne mere za upravljanje katastrofalnim i egzistencijalnim rizicima. Američke firme su ocenjene bolje od kineskih, ali nijedna nije dobila ocenu višu od D za egzistencijalni rizik. Autori pozivaju na veću transparentnost, nezavisni nadzor i hitne planove za sprečavanje gubitka kontrole nad AI sistemima.

Većina kompanija koje razvijaju veštačku inteligenciju ne uspeva da odgovorno upravlja potencijalno katastrofalnim rizicima, pokazuje nova studija stručnjaka iz nevladine organizacije Future of Life Institute.

Ključni nalazi

Procenu je obuhvatila osam vodećih firmi, a autori zaključuju da nijedna nema konkretne zaštitne mere, nezavisni nadzor niti verodostojne dugoročne strategije za upravljanje rizicima koje zahtevaju moćni AI sistemi. Prema AI Safety Indexu, američke kompanije su dobile najbolje ocene: Anthropic je plasiran ispred tvorca ChatGPT‑a OpenAI i Google DeepMind. Kineske firme su zabeležile najniže ocene — Alibaba Cloud je rangiran neposredno iza DeepSeek.

Nijedna kompanija nije dobila ocenu veću od D u delu procene koji se tiče egzistencijalnog rizika. Pet firmi — Alibaba Cloud, DeepSeek, Meta, xAI i Z.ai — dobile su ocenu F.

Posledice i preporuke

Autori upozoravaju da „egzistencijalna bezbednost ostaje osnovni strukturni problem sektora“, jer ambicije za razvoj AGI‑ja i superinteligencije rastu dok istovremeno nedostaju verodostojni planovi kontrole. Studija poziva na veću transparentnost u bezbednosnim procenama i hitne mere za zaštitu korisnika od neposrednih šteta, poput halucinacija modela, širenja dezinformacija i drugih oblika zloupotrebe.

„Direktori AI kompanija tvrde da znaju kako da izgrade natčovečansku AI, a ipak niko ne može pokazati kako će sprečiti gubitak kontrole — nakon čega opstanak čovečanstva više ne zavisi od nas“, izjavio je Stuart Russell, profesor računarstva na UC Berkeley.
„Tražim dokaz da mogu smanjiti godišnji rizik od gubitka kontrole na jedan na sto miliona, u skladu sa zahtevima za nuklearne reaktore. Umesto toga, priznaju da rizik može biti jedan na 10, jedan na 5, čak i jedan na 3, i ne mogu ni da opravdaju ni da poboljšaju te brojke.“

Predstavnik OpenAI‑ja je naveo da kompanija „sarađuje sa nezavisnim stručnjacima kako bi ugradila jake zaštitne mere u naše sisteme i rigorozno testirala modele“. Google je istakao da Frontier Safety Framework definiše protokole za identifikaciju i ublažavanje ozbiljnih rizika pre nego što se manifestuju, i da nastavljaju da unapređuju bezbednost i upravljanje u skladu sa rastućim sposobnostima modela.

Independent je, piše izveštaj, pokušao da dobije izjave od Alibaba Cloud‑a, Anthropic‑a, DeepSeek‑a, xAI‑ja i Z.ai.

Pomozite nam da budemo bolji.

Povezani članci

Popularno