AI-poboljšane verzije autentičnih fotografija iz rata na Bliskom Istoku šire se društvenim mrežama i mogu suptilno menjati percepciju događaja. AFP je otkrio slučajeve u kojima visokorezolutne slike nose SynthID, dok su izvori bili zamućene, autentične fotografije koje su verovatno korišćene kao osnova za obrađene verzije. Stručnjaci upozoravaju da čak i male izmene ili AI "halucinacije" mogu promeniti narativ i dodatno erodirati poverenje javnosti.
AI-Poboljšane Fotografije: Kako „Poboljšanja“ Iskrivljuju Sliku Rata Na Bliskom Istoku

Rat na Bliskom Istoku doveo je do talasa dezinformacija pokrenutih veštačkom inteligencijom. Pored potpuno lažnih vizuala, sve češće kruže autentične fotografije koje su naknadno "poboljšane" AI alatima — promene koje stručnjaci kažu da mogu suptilno, ali značajno, izmeniti doživljaj događaja.
Primeri iz prakse
Jedna upečatljiva fotografija prikazuje američkog pilota koji kleči neposredno nakon iskočenja iz aviona, suočen s lokalnim stanovnikom u Kuvajtu. Slika visoke rezolucije brzo je podeljena i objavljena u medijima, ali pažljivija analiza otkrila je neobičan detalj: pilot izgleda kao da ima po četiri prsta na svakoj ruci.
AFP-ovi fact-checkeri koristili su AI alate i ustanovili da visokorezolutna verzija sadrži SynthID — nevidljivi "vodeni žig" koji ukazuje na obradu pomoću Googleove AI. Međutim, sama scena deluje autentično: video koji prikazuje isti događaj pojavio se 2. marta, satelitski snimci potvrdili su lokaciju, a izveštaji tog dana govorili su o promašenom obaranju nekoliko američkih aviona u Kuvajtu.
AFP je takođe pronašao stariju, zamućenu verziju iste fotografije na Telegramu koja se geometrijski poklapa sa visokorezolutnom slikom, ali bez istih detalja u licu pilota. Alati za verifikaciju ocenili su tu zamućenu sliku kao autentičnu — što sugeriše da je ona mogla poslužiti kao osnova za AI-poboljšanje koje je potom dodalo detalje i SynthID oznaku.
Erbil: Požar koji je "porastao"
U drugom primeru, dramatična fotografija velikog požara pored aerodroma u Erbilu kružila je društvenim mrežama nakon iranskih udara 1. marta. Iako je i ta slika nosila tragove Googleove AI obrade, originalni kadrovi pokazivali su znatno manji plamen i slabiji stub dima. AI-obrada je pojačala boje i vokabular scene, stvarajući dojmove veće štete nego što su originalni snimci pokazivali.
"AI-poboljšanje može suptilno promeniti teksture, lica, osvetljenje ili pozadinske detalje, stvarajući sliku koja izgleda 'realnije' od originala," kaže Evangelos Kanoulas, profesor AI na Univerzitetu u Amsterdamu.
Kad AI "halucinira"
Generativna AI još uvek pravi greške i ponekad "halucinira" elemente koji nisu bili prisutni u originalu. Takav slučaj desio se nakon snimka ubistva Alexa Prettija u Minnesoti: viralan AI-obrađen kadar učinio je da predmet koji je u zrnatom videu bio mobilni telefon izgleda kao oružje, što je dovelo do pogrešnih zaključaka među korisnicima društvenih mreža.
Posledice za poverenje javnosti
Stručnjaci upozoravaju da bez jasnih oznaka i transparentnih izvora, AI-poboljšane slike dodatno narušavaju poverenje javnosti u medijske prikaze sukoba. Čak i male izmene mogu promeniti narativ događaja — od ugođaja protesta do procene obima štete — i naterati ljude da posumnjaju i u autentične snimke.
"Ovakav sadržaj već ima ogroman uticaj na ljude i njihovu sposobnost da veruju istini," upozorava James O'Brien, profesor računarstva na Univerzitetu Kalifornija, Berkeley.
Zaključak stručnjaka je jasan: potreban je bolji sistem obeležavanja AI-obrađenih snimaka, šira upotreba alata za verifikaciju i oprezno izveštavanje medija kako bi se očuvalo poverenje javnosti i sprečilo namerno ili nenamerno širenje iskrivljenih informacija.
Šta možete uraditi kao čitalac? Proveravajte izvore, tražite originalne snimke ili video zapise, i obratite pažnju na analize fact-checking organizacija pre nego što delite dramatične fotografije.
Pomozite nam da budemo bolji.


























