Svet Vesti
Technology

AI „rojevi“ Mogu Pojačati Dezinformacije i Manipulaciju Na Mreži, Upozoravaju Istraživači

AI „rojevi“ Mogu Pojačati Dezinformacije i Manipulaciju Na Mreži, Upozoravaju Istraživači

Novo istraživanje u Science upozorava da autonomni AI „rojevi“ mogu imitirati ljudsko ponašanje i raditi uz minimalan nadzor, što otežava otkrivanje koordinisanih kampanja dezinformisanja. Takvi sistemi mogu održavati narative duže vreme, dok algoritmi društvenih mreža često pojačavaju polarizaciju. Istraživači preporučuju strože KYC procedure, bolju detekciju koordinacije i transparentne, demokratski odgovorne regulatorne okvire.

Novo istraživanje objavljeno u časopisu Science upozorava da se kampanje dezinformisanja okreću ka sofisticiranim, autonomnim AI „rojevima“ koji mogu imitirati ljudsko ponašanje, prilagođavati se u realnom vremenu i raditi uz minimalan ljudski nadzor. To značajno otežava njihovo otkrivanje i suzbijanje.

Šta su AI rojevi?

Rojevi predstavljaju grupe autonomnih AI agenata koji koordinirano deluju kako bi ostvarili ciljeve efikasnije nego pojedinačni sistemi. Prema autorima rada — istraživačima sa Oxforda, Cambridgea, UC Berkeley, NYU i Max Planck Institute — takvi sustavi mogu održavati i usmeravati narative tokom dugih perioda, umesto kratkih talasa vezanih za izbore ili krizne događaje.

„U rukama vlade, takvi alati mogli bi da uguše neslaganje ili pojačaju položaj onih na vlasti,“ pišu autori. „Upotreba odbrambene veštačke inteligencije treba biti moguća samo u okviru strogih, transparentnih i demokratski odgovornih okvira.“

Zašto je to opasno?

Istraživači ukazuju da društvene mreže već imaju mehanizme koji podstiču polarizaciju: algoritmi često nagrađuju sadržaj koji izaziva veću uključenost, a lažne vesti se, prema nalazima, šire brže i šire od istinitih informacija. U takvom okruženju, AI rojevi mogu ciljano širiti dezinformacije i „graditi“ uverljive, dugotrajne narative.

Sean Ren, profesor računarskih nauka na University of Southern California i izvršni direktor Sahara AI, ističe da su računi koje pokreće veštačka inteligencija sve teže razlikovati od stvarnih korisnika i da sama moderacija sadržaja verovatno neće biti dovoljna.

„Mislim da bi strožiji KYC, odnosno validacija identiteta naloga, mnogo pomogla — ako je teže kreirati nove naloge i lakše je nadzirati spam, agenteskim rojevima je teže koristiti veliki broj naloga za koordinisanu manipulaciju,“ rekao je Ren za Decrypt.

Mere i preporuke

Istraživači navode da ne postoji jednoznačno tehničko rešenje. Preporučene mere uključuju unapređenu detekciju statistički anomalne koordincije između naloga, veću transparentnost oko automatizovanih aktivnosti, strožije KYC procedure i ograničenja pri masovnom kreiranju naloga. Autori upozoravaju da su tehnička rešenja potrebna, ali nedovoljna — potrebna je i regulacija koja je transparentna i demokratski odgovorna.

Osim toga, finansijski motivi i dalje podstiču koordinisane napade: takve usluge često pružaju timovi ili vendor-i koji dobijaju plaćanje od eksternih aktera za manipulaciju javnim mnjenjem. Platforme bi trebalo da kombinuju tehničke mere s politikama koje smanjuju ekonomske podsticaje za zloupotrebu.

Zaključak: AI rojevi predstavljaju novu, ozbiljnu pretnju informativnom prostoru. Borba protiv njih zahteva kombinaciju naprednih tehničkih mera, snažnijeg upravljanja identitetima, poslovnih sankcija i demokratski nadziranih pravnih okvira.

Pomozite nam da budemo bolji.

Povezani članci

Popularno