Istraživači upozoravaju da sofisticirani AI "rojеvi" pokretani velikim jezičkim modelima mogu uskoro masovno da se pojave na društvenim mrežama i manipulišu javnim mnjenjem. Primer sa Redditom pokazuje da su AI odgovori bili 3–6 puta ubedljiviji od ljudskih u kontrolisanom eksperimentu. Kao odbranu predlažu pooštrenu autentifikaciju, automatsko skeniranje anomalija i osnivanje "Observatorije AI Uticaja", uz napomenu da te mere imaju i etičke i praktične izazove.
AI „rojеvi“ Preplaviće Društvene Mreže: Kako Novi Oblik Dezinformisanja I Uznemiravanja Može Ugroziti Javnu Raspravu

Istraživači upozoravaju da bi rojеvi agenata veštačke inteligencije (AI), koordinisani velikim jezičkim modelima (LLM), uskoro mogli masovno da se pojave na društvenim mrežama kako bi širili dezinformacije, uznemiravali korisnike i manipulisali javnim mišljenjem. Ovaj koncept, opisan u komentaru objavljenom 22. januara u časopisu Science, predstavlja novu frontu informacionog rata: sistemi koji imitiraju ljudsko ponašanje i stvaraju iluziju autentičnog online pokreta.
Šta su AI rojеvi?
AI rojеvi su mreže autonomnih agenata — softverskih naloga pokretanih LLM-ovima — koji deluju koherentno, prilagođavaju se okruženju i zadržavaju kolektivnu "memoriju" i identitete. Umesto jednodimenzionalnih botova koji ponavljaju iste poruke, moderni agenti mogu da vode razgovore, kreiraju različite ličnosti i menjaju pristup u zavisnosti od zajednice koju ciljaju.
Kako funkcionišu i zašto su opasni
Rojеvi manipulišu mehanizmima socijalne konformnosti: kada ljudi vide da veliki broj naloga podržava određeni stav, često ga doživljavaju kao vredan ili istinit. Jonas Kunst, koautor komentara i profesor komunikacija na BI Norwegian Business School, naglašava da se ta ljudska sklonost može relativno lako iskoristiti. Ako korisnik ne prihvati dominantni narativ, roj može postati sredstvo za organizovano uznemiravanje — „digitalna rulja“ koja obeshrabruje protivnike i tera ih sa platforme.
"Mi o tome govorimo kao o nekoj vrsti organizma koji je samoodrživ, koji može da se koordinira, uči i adaptira se tokom vremena, i koji se time specijalizuje za eksploataciju ljudskih ranjivosti," rekao je Jonas Kunst.
Primer iz prakse
Eksperiment na platformi Reddit pokazuje da ovakvi sistemi nisu samo teorija. Prošle godine, Reddit je zapretio pravnim postupkom protiv istraživača koji su koristili AI čatbotove u eksperimentu u forumu r/changemyview. Preliminarni nalazi su pokazali da su odgovori čatbotova bili tri do šest puta ubedljiviji od ljudskih, što ilustruje potencijalnu snagu ovakvih alata u oblikovanju stavova miliona korisnika.
Moguć obim i taktike
Roj može da broji od nekoliko agenata do stotina hiljada ili više — zavisno od dostupne računarske snage i ograničenja koje uvedu platforme. Važno je da broj nije jedini faktor: sofisticirani agenti mogu ciljati male lokalne zajednice gde bi nagli priliv novih naloga izazvao sumnju, pa je dovoljan i manji broj da ostavi veliki uticaj.
Predložene mere odbrane
Istraživači predlažu kombinaciju tehničkih i društvenih mera:
- Pooštrena autentifikacija naloga — veća verifikacija može otežati masovnu proizvodnju lažnih naloga, ali nosi rizik da ograniči anonimnost koja je važna za politički disidentni govor u represivnim režimima.
- Automatsko skeniranje anomalija — detekcija statističkih obrazaca u realnom vremenu koji ukazuju na koordinisane aktivnosti agenata.
- Observatorija AI Uticaja — saradnja akademskih institucija, nevladinih organizacija i industrije za praćenje, istraživanje i brzo reagovanje na pretnje.
- Transparentnost i edukacija — informisanje javnosti o taktikama manipulacije i jačanje medijske pismenosti.
Etika i ograničenja
Pitanje balansiranja bezbednosti i slobode govora je centralno: strožija pravila autentifikacije mogu smanjiti širenje rojева, ali i ugroziti zaštitu žrtava represije. Takođe, legitimni nalozi mogu biti ukradeni ili kupljeni, što komplikuje mehanizme verifikacije.
Zaključak
Istraživači pozivaju na proaktivne mere pre nego što AI rojеvi počnu da utiču na izbore, javne debate i ključne događaje. Prepoznavanje rizika, razvoj alata za detekciju i međunarodna saradnja smatraju se ključnim koracima u zaštiti demokratije i otvorenog javnog prostora.
Pomozite nam da budemo bolji.




























