Svet Vesti
Tehnologija

Talasi AI-Deepfakeova Plene X: Lažni Snimci Zarobljenih Vojnicá i Razoreni Gradovi Uprkos Novim Merama

Talasi AI-Deepfakeova Plene X: Lažni Snimci Zarobljenih Vojnicá i Razoreni Gradovi Uprkos Novim Merama
The Middle East war has unleashed a deluge of AI-generated visuals on X (Kirill KUDRYAVTSEV)(Kirill KUDRYAVTSEV/AFP/AFP)

X se suočava sa talasom AI-dezinformacija: Ubedljivi deepfake video-snimci koji prikazuju zarobljene američke vojnike i razorene gradove brzo se šire platformom X. Kompanija je uvela 90-dnevnu demonetizaciju za neoznačene AI-ratne snimke, uz pretnju trajne suspenzije, ali istraživači kažu da lažni sadržaji i dalje dominiraju feedovima. Dodatne poteškoće su monetizacija premium naloga, greške AI-čatbota Grok i ograničenja sistema Community Notes.

AI-generisani video-snimci koji kruže platformom X, u vlasništvu Elona Muska, prikazuju navodno zarobljene američke vojnike, razrušene gradove i zapaljene ambasade — izuzetno ubedljive falsifikate koji se šire uprkos novim pravilima kompanije za suzbijanje ratne dezinformacije.

Šta je X najavio

Kako bi zaštitio "autentične informacije" u uslovima konflikta, X je prošle nedelje objavio meru po kojoj će kreatori koji postave AI-generisane ratne video-snimke bez jasno vidljive oznake biti suspendovani iz programa deljenja prihoda na 90 dana. Po ponovljenom kršenju predviđena je trajna suspenzija, navela je Nikita Bier, šefica proizvoda na X-u.

Zašto su istraživači skeptični

Istraživači i fact-checkeri upozoravaju da se lažni sadržaji i dalje brzo šire. Joe Bodnar iz Institute for Strategic Dialogue rekao je za AFP da su feedovi koje prati i dalje preplavljeni AI-vizualima o ratu, a primeri uključuju lažne snimke američkih vojnika u ruševinama i dramatične prikaze uništenih brodova i gradova.

"Ne izgleda da su kreatori odustali od objavljivanja obmanjujućih AI-snimaka i slika vezanih za sukob," rekao je Bodnar.

Mehanizmi širenja i finansijski podsticaji

AFP-ova mreža fact-checkera i drugi istraživači identifikovali su brojne deepfake objave, uključujući sadržaje sa premium naloga koji nose "plavu kvačicu" i koji često ostvaruju veliki doseg. Kritičari tvrde da model monetizacije X-a — gde premium nalozi zarađuju u zavisnosti od angažmana — stvara jak finansijski podsticaj za širenje senzacionalnog ili lažnog materijala.

Grok, X-ov AI-čatbot, takođe je u nekim slučajevima pogrešno potvrdio autentičnost određenih vizuala, što dodatno otežava proveru činjenica.

Ograničenja samoregulacije

Mehanizmi poput Community Notes, crowd-sourcovanog sistema provere, dobijaju pohvale ali i kritike: studija Digital Democracy Institute of the Americas pokazala je da više od 90% Community Notes nikada nije objavljeno, što ukazuje na ograničenja efikasnosti. Izveštaj Tech Transparency Projecta naveo je i da su neki premium nalozi povezani sa iranskim državnim akterima, zbog čega su neki od tih naloga kasnije izgubili plavu kvačicu.

Procena eksperata

Alexios Mantzarlis iz Cornell Techa ocenio je da je politika X-a razumna protumera jer smanjuje motivaciju za monetizaciju dezinformacija, ali je dodao da će sve zavisiti od primene: "Metapodaci o AI-sadržaju mogu biti uklonjeni, a Community Notes su relativno retki. Malo je verovatno da će X moći da garantuje i visoku preciznost i visok obuhvat za ovu politiku."

U međuvremenu, profesionalni fact-checkeri i dalje pokušavaju da razdvoje autentičan izveštaj iz regiona od veštački generisanih vizuala koji brzo osvajaju mreže.

Pomozite nam da budemo bolji.

Povezani članci

Popularno