Istraživanje 30 vodećih AI chatbota (svaki sa tržišnom kapitalizacijom ≥ $1 mlrd) otkriva ozbiljan manjak javno dostupnih procena bezbednosti. Samo 7 objavljuje nezavisne testove, 4 imaju kompletne bezbednosne dokumente, a 5 je prijavilo poznate incidente. Autori upozoravaju na "značan jaz u transparentnosti" i pozivaju na detaljnije javne evaluacije rizika.
Većina Vodećih AI Chatbota Nema Jasne Bezbednosne Mere — Istraživanje Otkriva "Značan Jaz" u Transparentnosti

AI chatboti sve češće pomažu ljudima u svakodnevnim zadacima — od odgovaranja i sumiranja mejlova koje primalac često i ne pročita, do planiranja putovanja, izbora proizvoda i predloga obroka. Međutim, novo istraživanje pokazuje da im nedostaju ključne, javno dostupne procene bezbednosti.
Glavni nalazi
Istraživački tim koji je ažurirao AI Agent Index analizirao je 30 javno dostupnih botova (svaki sa tržišnom kapitalizacijom od najmanje 1 milijardu USD). Ključni rezultati su:
- Samo 7 od 30 objavljuje podatke iz testiranja koje je sprovela nezavisna treća strana.
- Samo 4 imaju kompletne formalne dokumente o bezbednosti i evaluaciji (pokrivaju autonomiju, ponašanje i analize rizika u stvarnom svetu).
- Samo 5 javno je objavilo detalje o poznatim bezbednosnim incidentima.
"Mnogi programeri zaokruže polje 'bezbednost AI' fokusirajući se na veliki jezički model ispod sistema, a pritom daju malo ili nimalo informacija o bezbednosti agenata koji su izgrađeni na vrhu tog modela," rekao je Leon Staufer sa University of Cambridge, koji je vodio najnovije ažuriranje.
Šta to znači za korisnike i sektor
Autori upozoravaju na "značan jaz u transparentnosti": bez javnih, nezavisnih evaluacija teško je proceniti stvarne rizike koje predstavljaju ovi sistemi. To uključuje rizike od dezinformacija, podsticanja štetnog ponašanja (poput samopovređivanja ili kršenja zakona) i bezbednosne incidente poput hakovanja, o kojima su mnogi operateri ili ne izveštavali ili nisu dali detalje.
Širi kontekst
Ovi nalazi dolaze posle sličnih upozorenja, uključujući AI Safety Index organizacije Future of Life Institute, koji je prošle godine istakao nedostatak odgovarajućih mera bezbednosti uprkos dokumentovanim incidentima. Indeks obuhvata većinom proizvode iz SAD i Evrope, kao i pet iz Kine, i fokusira se na agente koji su dostupni javnosti i programerima.
Zaključak: Potrebna je veća transparentnost i javno dostupne, rigorozne evaluacije rizika kako bi korisnici, regulatori i razvojni timovi mogli bolje procenjivati bezbednost i pouzdanost AI agenata. Bez toga, rast oslanjanja na chatbote nosi značajne rizike za pojedince i društvo.
Pomozite nam da budemo bolji.




























