Veliki jezički modeli sve češće kreiraju naslove i sažetke vesti, što im omogućava da oblikuju javno mnjenje pre nego što moderator ili proverilac činjenica može da interveniše. Iako modeli često daju faktografski tačne informacije, oni pokazuju komunikacionu pristrasnost: naglašavaju jedne perspektive i umanjuju druge, često prilagođavajući ton prema navodnoj „personi“ korisnika. Rešenje zahteva više od regulative koja kažnjava štetne izlaze — potrebna je konkurencija, veća transparentnost i stvarno učešće korisnika u dizajnu i nadzoru modela.
Kako AI Menja Način na Koji Dobijamo Vesti — i Zašto To Treba da Nas Zabrine

Metaova odluka da ukine profesionalne programe za proveru činjenica izazvala je talas kritika u tehnološkim i medijskim krugovima. Kritičari su upozoravali da povlačenje stručnog nadzora može narušiti poverenje i pouzdanost u digitalnom informativnom prostoru, naročito kada platforme vođene profitom same regulišu sadržaj.
Međutim, jedna važna dimenzija te debate često izostaje: danas veliki jezički modeli (VJM) sve češće generišu naslove, sažetke i druge formate vesti — i to mnogo pre nego što tradicionalni mehanizmi moderacije mogu da intervenišu. Problem nije samo u očiglednim dezinformacijama koje ostanu neoznačene, već i u načinu na koji naizgled tačne informacije bivaju odabrane, oblikovane i naglašene, što može suptilno oblikovati javno mnjenje.
Kako komunikaciona pristrasnost funkcioniše
Veliki jezički modeli ne prenose samo činjenice. Njihovi odgovori često naglašavaju određene perspektive i umanjuju druge — ponekad zato što su tako promptovani, a ponekad zbog svojstava podataka i dizajna sistema. U radu koji će biti objavljen u Communications of the ACM, moj kolega Stefan Schmid i ja pokazujemo da VJM pokazuju komunikacionu pristrasnost: oni mogu favorizovati određene tonove, izvore i naglaske, čak i kada su činjenični navodi tačni.
Empirijska istraživanja i benchmark skupovi podataka ukazuju na varijacije u ponašanju modela pre i tokom izborne kampanje. U zavisnosti od „persone“ ili konteksta koji korisnik navede u promptu, model može da nagne svoj odgovor u jedan ili drugi smer — primerice, istaknuti ekološke koristi novog zakona za korisnika koji se predstavlja kao zaštitnik životne sredine, a naglasiti regulatorne troškove za korisnika koji se predstavi kao preduzetnik.
Fenomeni: laskanje i persona‑upravljivost
Ovaj trend se ponekad opisuje kao laskanje (sycophancy) — sklonost modela da korisniku odgovori onako kako misli da će mu se svideti. Ipak, komunikaciona pristrasnost ide dublje: ona odražava ko dizajnira sisteme, kakve podatke koriste i koje komercijalne i regulatorne podsticaje deluju u pozadini. Kada mali broj kompanija dominira tržištem modela, male razlike u postavkama i ponašanju modela mogu se brzo skalirati i dovesti do značajnih iskrivljenja javne komunikacije.
Zašto regulative nisu dovoljne
Vlade širom sveta pokušavaju da reaguju: primeri su Evropski AI Act i Digital Services Act, koji nastoje da uvedu veću transparentnost i odgovornost. Međutim, nijedna od ovih mera nije fokusirana posebno na suptilnu komunikacionu pristrasnost — odnosno na to kako se informacije oblikuju i ton koji se koristi pri njihovoj isporuci.
Regulative često ciljaju štetne ili nezakonite izlaze i nalažu revizije pre lansiranja, ali takve mere mogu promašiti suptilne obrasce koji nastaju kroz svakodnevnu interakciju korisnika sa modelima. Pokušaji da se postigne „neutralnost“ često rezultiraju zamenom jedne vrste pristrasnosti drugom, jer sistemi odražavaju pristrasnosti svojih podataka, arhitekture i ciljeva onih koji ih razvijaju.
Šta treba uraditi
Naše analize ukazuju da dugoročno rešenje zahteva više od inspekcija i kazni: potrebno je podstaći konkurenciju, povećati transparentnost izbora podataka i dizajnerskih opcija, i omogućiti stvarno učešće korisnika u proceni i testiranju modela. To uključuje:
- zaštitu konkurencije kako bi više pristupačnih i različitih modela bilo dostupno javnosti;
- obaveštavanje korisnika o izvorima i mogućim naglascima u odgovorima modela;
- mehanizme povratne informacije koji stvarno utiču na dizajn i politiku kompanija;
- otvorenost u pogledu podataka i postupaka treniranja, koliko je razumno i bezbedno.
Ukratko, AI neće samo uticati na to koje informacije tražimo — on će oblikovati način na koji te informacije stižu do nas i kako razmišljamo o javnim pitanjima. Zato su mera, politika i tržišni mehanizmi koji štite pluralitet i transparentnost od ključnog značaja.
Autor: Adrian Kuenzler, University of Denver; University of Hong Kong. Tekst je adaptiran iz izvorne verzije objavljene u The Conversation.
Pomozite nam da budemo bolji.




























