Sažetak: Dok borbe za Pokrovsk traju, na društvenim mrežama cirkulišu stotine AI-generisanih videa koji prikazuju navodno povlačenje i demoralizaciju ukrajinskih snaga. Analize otkrivaju vizuelne nepravilnosti i upotrebu tuđih lica, a istraživači upozoravaju da takav sadržaj postiže cilj – potkopavanje morala i širenje sumnje. Platforme povremeno uklanjaju naloge, ali stručnjaci smatraju da mere često kasne u odnosu na razmere kampanje.
AI-rat za Pokrovsk: lažni videi s milionskim pregledima pokušavaju potkopati moral Ukrajinaca

Borbe za Pokrovsk, logističko čvorište u donjeckoj oblasti, i dalje traju dok ruske snage pokušavaju da prodru u grad. Iako se situacija na terenu menja iz dana u dan, na društvenim mrežama u proruskim krugovima kruži sasvim drugačija slika — stotine viralnih, AI-generisanih videa prikazuju navodne ukrajinske vojnike koji plaču, predaju se ili govore da napuštaju položaje, a neki snimci su prikupili i milionske preglede.
Kako videi varaju
Analize pokazuju jasne znake generativne veštačke inteligencije: nelogične pokrete, vizuelne artefakte i nelogične detalje — u jednom klipu vojnik sa gipsom hoda bez problema, nosač se "levitira", a u pozadini se naizmenično pojavljuju delovi nogu. Neki snimci nose logo alata za kreiranje videa Sora, dok su drugi očigledno sastavljeni od tuđih lica, među kojima su se našle i prepoznatljive facije ruskih internet-stremera. Jedan od njih, Aleksej Gubanov, javno je demantovao da je na snimku i upozorio da mnogi poveruju lažnom materijalu.
Cilj kampanje i stručne procene
Stručnjaci iz Instituta za strateški dijalog upozoravaju da ove montaže spadaju u širi narativ koji nastoji da predstavi Ukrajince kao demoralizovane i nespremne za odbranu. Istraživači ukazuju da su takvi snimci dizajnirani da "čipkaju" moral — da deluju kao da je na udaru neko iz vaše porodice, i da tako podstaknu sumnju i strah.
Evropska posmatračka mreža za digitalne medije beleži porast upotrebe AI u dezinformacijama, dok studija Instituta za strateški dijalog pokazuje da među testiranim chatbotovima značajan deo odgovora citira izvore naklonjene ruskoj strani. Platforme su povremeno uklanjale naloge koji šire takav sadržaj, a neki tehnološki provajderi sprovode interne istrage, ali stručnjaci upozoravaju da brzina i obim informativnog rata često nadmašuju odgovore kompanija.
Gde se pojavljuju lažni snimci
Lažni videi su pronađeni na brojnim platformama i mrežama — među njima Instagram, Telegram, Facebook i X — i deljeni su na raznim jezicima u istočnoevropskom prostoru. Pojavili su se i u regionalnim medijima. Zbog ponavljanja i visoke vidljivosti, efekat na percepciju javnosti može biti značajan, čak i ako je pojedinačni snimak lako raskrinkan.
Kako prepoznati i zaštititi se od lažnih AI-snimaka
- Proverite izvor: KO je objavio snimak i ima li istoriju deljenja verodostojnih sadržaja?
- Tražite nekonzistentnosti: neprirodni pokreti, čudni prelazi, odsečci tela ili neusklađeno osvetljenje.
- Potražite potvrdu: da li istu informaciju izveštavaju nezavisni i kredibilni izvori?
- Koristite alate: obrnuta pretraga slika, provera metapodataka i fakt-čeking mreže.
- Budite skeptični prema emotivnom sadržaju koji je dizajniran da budi šok ili sažaljenje — često je baš to cilj manipulacije.
Informacioni rat sa AI-komponentom je realan i raste — razumevanje metodologije i kritičko sagledavanje izvora najbolji su način da se smanji njegov uticaj.
Pomozite nam da budemo bolji.

























