Svet Vesti
Technology

Alarm Stručnjaka: Kako AI Deepfakeovi I Pritisak Na Mrežu Prete Konsenzusnoj Realnosti

Alarm Stručnjaka: Kako AI Deepfakeovi I Pritisak Na Mrežu Prete Konsenzusnoj Realnosti
Photo Credit: iStock

Stručnjaci upozoravaju da moderni AI alati omogućavaju masovnu proizvodnju uverljivih deepfakeova, čime se ugrožava zajednička, proverljiva realnost. Istovremeno, velika potražnja za AI računarstvom opterećuje elektroenergetske mreže i podiže račune za struju. Istraživači, među kojima su Jeff Hancock i Renee Hobbs, upozoravaju na kognitivno iscrpljivanje publike i pozivaju na medijsku pismenost, tehnička rešenja platformi i zakonodavne mere.

Dezinformacije i lažne informacije na internetu nisu novina, ali dostupni alati veštačke inteligencije drastično su promenili igru. Stručnjaci upozoravaju da se, uz rast sposobnosti generativnog AI, gubi zajednička, proverljiva stvarnost i raste rizik od masovne dezinformacije.

Šta se promenilo od 2016.?

Posle talasa lažnih vesti tokom predsedničkih izbora 2016. u SAD, usledile su saslušanja, studije i napori platformi da uvedu mere bezbednosti. Međutim, razvoj AI alata — uključujući jednostavne aplikacije za stvaranje vrlo uverljivih video-snimaka — brzo je otežao detekciju lažnog sadržaja. Neki nezavisni alati mogu ukloniti oznake da je sadržaj generisan veštačkom inteligencijom, a drugi mogu dodati takve oznake na autentične snimke, dodatno zbunjujući publiku.

Vizuelna detekcija postaje nepouzdana

„Ako gledate samo sliku ili video, praktično će postati nemoguće otkriti da li je lažan. Mislim da se približavamo toj tački, ako već nismo tamo“, rekao je Jeff Hancock, osnivač Stanford Social Media Lab.

Dosadašnji "tels" za otkrivanje deepfakeova — greške u broju prstiju, neprirodno treptanje i slično — brzo postaju nepouzdani kako modeli napreduju.

Uticaj na društvene mreže i medije

Nakon 2016. neke platforme su pooštrile politike poverenja i bezbednosti, ali su se kasnije povukle sa određenih mera. Promene vlasništva i poslovne politike, poput onih na platformi poznatoj kao X, uticale su na nastavak i doslednost protivdezinformacijskih aktivnosti. Već su zabeleženi slučajevi kada su AI-generisani snimci — poput viralnog klipa tokom uragana Melissa — šireni bez konteksta i dovodili u zabludu korisnike i medije.

Energetski izazovi

Paralelno s problemom dezinformacija, velika potražnja za računarstvom koju generišu modeli veštačke inteligencije opterećuje elektroenergetske mreže. Podizanje računa za struju i upozorenja, uključujući ona od Ministarstva energetike SAD, ukazuju na to da neadekvatno planirana ekspanzija data centara predstavlja stvaran rizik za stabilnost mreže.

Kognitivno iscrpljivanje i društveni efekti

Profesorica Renee Hobbs sa Univerziteta Rhode Island opisuje efekat kao kognitivno iscrpljivanje: „Ako su stalna sumnja i anksioznost oko toga čemu verovati norma, onda je povlačenje i prestanak angažovanja logična reakcija… kada ljudima prestane da bude stalo da li je nešto istinito, tada je opasnost ne samo obmana, već potpuni kolaps motivacije da se traži istina.“

Takvo povlačenje iz javnog dijaloga erodira društveni konsenzus i otežava zajedničko rešavanje problema.

Šta se može i treba uraditi

Istraživači pozivaju na višeslojni pristup: uvođenje generativnog AI u obrazovanje za medijsku pismenost, doslednije politike platformi, tehnička rešenja za verifikaciju izvora i zakonodavne mere koje ciljaju zloupotrebu tehnologije. Građani mogu zahtevati od predstavnika da preduzmu korake protiv širenja AI-generisanih dezinformacija, dok organizacije i mediji moraju pojačati proveru činjenica i transparentnost.

Zaključak: Tehnologija nosi korisne mogućnosti, ali i ozbiljne rizike. Bez koordinisane reakcije društva, medija i zakonodavaca, realnost zasnovana na proverljivim činjenicama može postati ozbiljno ugrožena.

Pomozite nam da budemo bolji.

Povezani članci

Popularno