Svet Vesti
Tehnologija

AI-falsifikati varaju medije i čak stručnjake — Fox News i Yann LeCun pod senkom lažnih snimaka

AI-falsifikati varaju medije i čak stručnjake — Fox News i Yann LeCun pod senkom lažnih snimaka

AI-generisani video-snimci sve češće obmanjuju i velike medijske kuće: Fox News je morao da ispravi priču o korisnicima SNAP-a nakon što su otkriveni AI-klipovi. Sličan problem primećen je i kod Yann LeCuna, koji je podelio sumnjiv video koji podseća na generisane sadržaje. Autori upozoravaju na manjak efikasnih zaštita od strane kompanija i regulatornih tela, dok političke figure mogu zloupotrebiti okrivljavanje „AI“-ja.

AI-falsifikati sve više obmanjuju medije i javnost

U poslednje vreme sve se češće beleže slučajevi u kojima veštački generisani video-snimci uspevaju da prevare velike redakcije i samu javnost. Jedan od najozbiljnijih primera dogodio se kada je Fox News objavio tekst u kome se tvrdilo da korisnici američkog programa pomoći za hranu — SNAP (Supplemental Nutrition Assistance Program) — navodno prete pljačkom prodavnica zbog mogućeg zastoja isplata. Nakon što su online komentatori ukazali da su neki od priloženih klipova verovatno generisani pomoću AI-alata, članak je izmenjen, a naslov i napomena urednika su ažurirani.

Newsmax je takođe preneo sličan materijal, što pokazuje da problem nije izolovan samo na jednu medijsku platformu.

Da li čak i stručnjaci podležu zabludi?

Na društvenim mrežama posebno je odjeknuo slučaj Yann LeCuna, glavnog AI-naučnika u Meti, koji je podelio video koji izgleda kao snimak sukoba između policajca i agenata ICE-a u Njujorku. Mnogi su ukazali da klip ima karakteristike tipične za AI-generisane sadržaje — kratko trajanje, ukočen govor i neprirodni prelazi. Neki su ocenili da bi takav snimak mogao biti napravljen u aplikacijama za generisanje videa, poput Sora.

Autori izveštaja su pokušali da kontaktiraju LeCuna; Meta je navodno odbila komentar, a LeCun nije odgovorio na upite. Nakon sugestija u komentarima da je u pitanju lažan klip, LeCun je objavio nejasan odgovor koji nije rasvetlio dvojbe.

Nedostatak efikasnih zaštita i političke implikacije

Do sada nijedna velika kompanija u AI sektoru nije uvela univerzalne i pouzdane mehanizme za automatsko označavanje ili blokiranje lažnih sadržaja, a vlasti u SAD nisu pokazale spremnost da brzo nametnu strože regulative. Sve to povećava rizik da će manipulativni snimci uticati na javno mnjenje i biti zloupotrebljeni u političke svrhe.

Primer zloupotrebe: Na jednoj konferenciji za novinare, bivši predsednik Donald Trump je rekao: „Ako se desi nešto zaista loše, samo okrivite AI.“ Ova izjava oslikava kako se mogućnost negiranja autentičnosti snimaka može koristiti kao odbrambeni ili manipulativni manevr.

Zaključak: Slučajevi Fox Newsa i Yann LeCuna pokazuju koliko je danas važno proveravati izvore, primenjivati osnovna pravila medijske pismenosti i zahtevati veću transparentnost od platformi. Potrebne su tehničke mere, jasnija pravila i kritičniji pristup urednika i publike kako bi se smanjio uticaj lažnih AI-sadržaja.

Pomozite nam da budemo bolji.

Povezani članci

Popularno

AI-falsifikati varaju medije i čak stručnjake — Fox News i Yann LeCun pod senkom lažnih snimaka - Svet Vesti