Svet Vesti
Politics

Studija: AI Četbotovi Mogu Menjati Politička Mišljenja — Ali Često Iznose Netačne Tvrdnje

Studija: AI Četbotovi Mogu Menjati Politička Mišljenja — Ali Često Iznose Netačne Tvrdnje

Studija u časopisu Science pokazuje da AI četbotovi mogu efikasno menjati politička mišljenja kada pružaju velike količine detaljnih informacija. Ipak, najubedljiviji modeli češće su iznosili netačne tvrdnje — oko 19% izjava ocenjeno je kao pretežno netačno. Efekat ubeđivanja bio je delimično trajan (36–42% posle mesec dana), što ukazuje na značajne implikacije za informacijski ekosistem i potrebu za većom transparentnošću i regulacijom.

AI četbotovi utiču na politička uverenja — ali po cenu tačnosti

Velika studija objavljena u časopisu Science pokazuje da konverzacijski AI modeli mogu značajno menjati politička mišljenja ljudi, naročito kada učesnicima ponude velike količine detaljnih informacija tokom razgovora. Ipak, istraživači upozoravaju da su najubedljiviji modeli često manje tačni: mnoštvo izjava koje su koristili bili su netačni ili netačno formulisani.

Metodologija i glavni nalazi

Istraživači su putem platforme za crowdsourcing regrutovali skoro 77.000 odraslih stanovnika Ujedinjenog Kraljevstva i platili im interakciju sa više AI četbotova, uključujući modele iz OpenAI, Meta i xAI. Učesnicima su postavljena pitanja o političkim temama poput poreza i imigracije, nakon čega je četbot pokušavao da okrene njihovo mišljenje na suprotnu poziciju — bez obzira na prethodna uverenja ispitanika.

Istraživanje je pokazalo da su razgovori sa četbotom bili znatno ubedljiviji od statične AI poruke od 200 reči: 41–52% veća stopa promene mišljena, zavisno od modela. Delimično trajan efekat je takođe zabeležen — između 36% i 42% persvazivnog efekta ostalo je prisutno i posle mesec dana.

Nestandardna korelacija: Persvazivnost nasuprot tačnosti

Autori su prijavili da su najubedljiviji modeli i strategije promptovanja imali tendenciju da proizvode manje tačne tvrdnje. Otprilike 19% svih analiziranih tvrdnji ocenjeni su kao "pretežno netačni". Takođe je primećen pad tačnosti u najnovijim velikim ("frontier") modelima — navode primer modela GPT-4.5, čije su tvrdnje bile prosečno manje tačne u poređenju sa nekim starijim, manjim modelima iz iste porodice.

"Optimizacija za ubedljivost može doći na štetu istinitosti," navode autori, što može imati ozbiljne posledice po javni diskurs i informacioni ekosistem.

Ko stoji iza istraživanja i ograničenja

Rad su vodili istraživači iz AI Security Institute (UK), Univerziteta Oksford, London School of Economics, Stanforda i MIT-a; finansiranje je obezbedilo britansko Ministarstvo za nauku, inovacije i tehnologiju. Istraživanje je sprovedeno pre objavljivanja modela GPT-5.1 od strane OpenAI.

Autori priznaju ograničenja: eksperimentalni uslovi u anketi ne odražavaju nužno svakodnevni politički život, gde ljudi retko ulaze u dugačke, kognitivno zahtevne rasprave sa AI. Takođe, studija nije direktno uporedila AI modele sa ljudskim debatantima, niti je testirala sve moguće realne scenarije distribuacije sadržaja (npr. društvene mreže, bot mreže, ciljano oglašavanje).

Implikacije i preporuke

Autori i nezavisni stručnjaci upozoravaju na rizike: u zlonamerne svrhe, vrlo ubedljivi ali netačni AI sadržaji mogu pospešiti širenje dezinformacija, polarizaciju i mešanje u izbore. Moguće protivotrovne mere uključuju veću transparentnost upotrebe AI u političkoj komunikaciji, unapređenje medijske i digitalne pismenosti, i dalja istraživanja i regulacije kojima bi se smanjio nesklad između ubedljivosti i istinitosti.

Zaključak: Studija potvrđuje da AI četbotovi imaju stvarnu moć da utiču na politička mišljenja, ali i da ta moć dolazi uz rizik smanjenja tačnosti izrečenih tvrdnji. Potrebna su dodatna istraživanja, transparentnost i mere zaštite javnog diskursa.

Pomozite nam da budemo bolji.

Povezani članci

Popularno