Članak prikazuje kako napredni AI alati i deepfake tehnologije zamućuju granicu između pravih i falsifikovanih snimaka u ratu na Bliskom istoku. Viralni primeri, poput Netanjahuovog snimka sa "šestim prstom", i stotine AFP-ovih demantija pokazuju da hiperrealistični lažni sadržaji podrivaju poverenje javnosti. Autori objašnjavaju mehanizme širenja dezinformacija, njihove posledice i daju praktične savete za proveru autentičnosti materijala.
Gde Je Granica Stvarnosti? Kako AI Uništava Poverenje u Vesti o Ratu na Bliskom Istoku

Naslov koji je kružio internetom — "Da li je Netanjahu stvaran ili AI?" — ponovo je otvorio pitanje koje sve više zabrinjava javnost: kako razlikovati prave snimke od veštački generisanih kada su granice sve mutnije?
Snimak izraelskog premijera koji je navodno prikazivao "šesti prst" izazvao je talas teorija zavere. Neki su tvrdili da je Netanjahu poginuo ili ranjen i da je zamena generisana AI-jem prikazana javnosti. Digitalni forenzičari su objasnili da je "višak" prsta najverovatnije optička iluzija — deo dlana osvetljen tako da podseća na dodatni prst — ali ta objašnjenja su brzo potonula u moru sumnji.
AFP-ova globalna mreža je od početka sukoba objavila više od 500 demantija lažnih tvrdnji na više jezika, a između četvrtine i petine njih uključivalo je upotrebu AI. U isto vreme, jeftini i napredni alati za generisanje vizuala proizvode hiperrealistične deepfake snimke, memeove i lažne satelitske slike koje lako prelaze granicu verodostojnosti.
Zašto je problem dublji nego ranije?
Tri su ključna faktora koji pogoršavaju krizu poverenja:
- Skalabilnost i realizam: Alati danas mogu brzo proizvesti snimke koji nemaju stari "prst" ili druge očigledne greške.
- Algoritamska pojačanja: Platforme nagrađuju sadržaj koji izaziva angažman — često senzacionalan ili lažan — pa dezinformacije brže dopiru do velikog broja ljudi.
- Lažljivčev dividend: Kada sve može biti laž, stvarne neprijatne informacije se lako odbacuju kao "fejk".
Primeri i posledice
Viralni slučajevi uključuju i lažne snimke urušavanja Burdž Kalife, kao i fabricirane fotografije koje su se koristile da ilustruju poginulu decu nakon napada u Minabu — AFP je ocenio da su neke od tih slika najverovatnije generisane ili uređene pomoću AI. ISD je izračunao da su X nalozi sa AI sadržajem prikupili više od milijardu pregleda od početka sukoba.
"Mislim da u ovom trenutku svi moramo početi da tretiramo fotografije, video i audio na istoj osnovi kao trač," rekao je Thomas Nowotny sa Univerziteta u Sussexu za AFP.
Problem nije samo u lažima: radi se i o erodiranju poverenja u legitimne vesti i dokazni materijal, što može povećati rizik od eskalacije nasilja i manipulacije javnim mnjenjem.
Kako proveravati i kome verovati
Stručnjaci preporučuju sledeće korake za bolje razumevanje autentičnosti sadržaja:
- Proverite izvor i raniju istoriju naloga/medija.
- Koristite više nezavisnih alata i verifikacionih servisa; ne oslanjajte se na jedan rezultat detektora AI.
- Obratite pažnju na kontekst: metapodaci, vremenski okvir i drugi izvori potvrde su često ključni.
- Budite skeptični prema sadržajima koji ciljano izazivaju snažne emocije ili pokušavaju da ubrzaju širenje bez provere.
Dok platforme, istraživači i organizacije za proveru činjenica rade na novim metodama detekcije i označavanja, jedan od glavnih izazova ostaje promena javnog ponašanja: bez kolektivnog standarda poverenja, lažne i prave informacije će se i dalje sudarati i međusobno zamagljivati.
Autor/izvor: Sastavljeno na osnovu izveštaja AFP-a i analize istraživanja o uticaju AI na dezinformacije.
Pomozite nam da budemo bolji.




























