Svet Vesti
Tehnologija

Nakon Pucnjave U Minneapolisu, AI-Deepfakeovi Preplavili Mreže — Lažne „Odmaske“ I Dehumanizacija

Nakon Pucnjave U Minneapolisu, AI-Deepfakeovi Preplavili Mreže — Lažne „Odmaske“ I Dehumanizacija
A 37-year-old US woman was shot by an immigration agent, fueling tensions in Minneapolis and spawning AI-generated misinformation (Kerem YUCEL)(Kerem YUCEL/AFP/AFP)

Nekoliko sati nakon fatalne pucnjave u Minneapolisu, AI-generisane slike lažno su predstavljane kao dokazi i "odmaskavanja" navodnog napadača. Mnogi manipulativni sadržaji nastali su pomoću Grok alata kompanije xAI i brzo su se širili pretežno na X-u i drugim mrežama, akumulirajući milione pregleda. Stručnjaci upozoravaju da takve AI "halucinacije" dezinformišu javnost i dehumanizuju žrtve, te pozivaju na bolju moderaciju i proveru činjenica.

Nekoliko sati nakon fatalne pucnjave u Minneapolisu u kojoj je, kako je izvešteno, agent za imigraciju ubio 37-godišnju Renee Nicole Good, internet su preplavile AI-generisane slike koje su lažno predstavljane kao dokazi i "odmaske" napadača. Incident i talas manipulacija podvlače rastući problem takozvanih AI "halucinacija" u trenucima kada javnost najviše traži verodostojne informacije.

Šta se tačno dogodilo

Prema izveštajima, Good je pogođena iz neposredne blizine dok je, kako izgleda na videu, pokušavala da odveze svoj Honda SUV dok su maskirani agenti bili okupljeni oko vozila. Autentični snimci incidenta, koje su preneli brojni mediji, ne pokazuju agente sa otklonjenim maskama.

Širenje lažnih slika i uloga Grok alata

AFP je identifikovao desetine objava na društvenim mrežama — naročito na platformi X — u kojima su korisnici delili AI-generisane slike koje su tvrdile da "odmaskuju" agenta iz Uprave za imigraciju i carina (ICE). Mnogi od tih lažnih prikaza nastali su pomoću Grok, alata koji je razvio startap xAI povezan sa Elonom Muskom.

Jedna od viralnih objava pripisivala je lične podatke napadaču i prikupila je preko 1,3 miliona pregleda pre nego što ju je autor, Claude Taylor, tvrdio da je obrisao. Ipak, kopije i dalje kruže mrežom. NewsGuard je identifikovao najmanje četiri AI-generisane neistine u vezi s pucnjavom koje su zajedno imale oko 4,24 miliona pregleda na X-u, Instagramu, Threadsu i TikToku.

Ekstremne manipulacije i dehumanizacija

Osim „odmaskavanja“, neki korisnici su upotrebili AI da izvrše seksualne manipulacije slika žrtve ili drugih pogrešno identificiranih osoba. Neke slike su bili izrazito uvredljive i dehumanizujuće: jedna je prikazivala pogrešno identifikovanu ženu kao fontanu iz koje teče voda, druga je prizivala scenu koja asocira na ubistvo Georgea Floyda 2020. — što dodatno pojačava emotivnu i političku dinamiku.

Walter Scheirer (Univerzitet Notre Dame): „AI se sve češće koristi da 'popuni praznine' u priči — na primer, da 'otkrije' lice službenika — što su u suštini halucinirane informacije.“
Hany Farid (UC Berkeley): "Ovakve AI-fabrikacije su problematične i doprinose zagađenju informacionog prostora. To je verovatno naša nova realnost ako se ne uvedu bolji mehanizmi kontrole i verifikacije."

Reakcije platformi i posledice

Platforma X i xAI nisu dali detaljniji javni odgovor na optužbe; xAI je u automatizovanom odgovoru poručio: "Legacy Media Lies." Ovaj slučaj ponovo otvara pitanja o odgovornosti proizvođača AI-alata i platformi za moderaciju sadržaja, naročito u trenucima kada lažne vizuale lako stvaraju i šire politički motivisani akteri.

Zaključak

Talas AI-deepfakeova nakon pucnjave u Minneapolisu podcrtava koliko je važno proveravati izvor i autentičnost medijskih sadržaja u kriznim situacijama. Stručnjaci pozivaju na jaču verifikaciju, transparentnije politike platformi i obrazovanje javnosti kako bi se smanjila šteta koju širenje takvih laži može izazvati.

Pomozite nam da budemo bolji.

Povezani članci

Popularno