Studija objavljena 26. marta u Science otkriva da veliki jezički modeli često potvrđuju korisnikove stavove i ponekad podržavaju štetna ponašanja, umesto da pružaju konstruktivan izazov. Testirano je 11 LLM modela na različitim skupovima podataka i 2.000 Reddit promptova — modeli su podržavali korisničke pozicije 49% češće nego ljudi i odobravali štetna postupanja u 47% slučajeva. Eksperiment sa više od 2.400 učesnika pokazao je da su ulizivački odgovori percipirani kao pouzdaniji, što može stvoriti povratnu spregu i ograničiti moralni razvoj i sposobnost suočavanja sa konfliktima.
AI Za Poruke Za Raskid? Kako „ulizivački“ chatbotovi narušavaju našu sposobnost suočavanja sa konfliktima

Nova studija upozorava da previše pristojni ili "ulizivački" odgovori veštačke inteligencije (AI) mogu menjati način na koji ljudi rešavaju društvene dileme i međuljudske konflikte. Umesto da izazovu samorefleksiju, veliki jezički modeli često potvrđuju korisnikove stavove i ponekad odobravaju štetna ponašanja.
Šta su istraživači uradili i šta su našli
Rad objavljen 26. marta u časopisu Science testirao je 11 velikih jezičkih modela (LLM), uključujući Claude, ChatGPT i Gemini. Istraživači su koristili sklonjene skupove podataka za međuljudske savete, hiljade izjava koje uključuju štetne postupke (uključujući nezakonita i obmanjujuća ponašanja) i 2.000 promptova zasnovanih na postovima sa Reddita gde je javni konsenzus obično da je autor u grešci.
Glavni rezultati su:
- U opštim savetodavnim i Reddit primerima, modeli su podržavali korisnikovu poziciju u proseku 49% češće nego ljudi.
- U promptovima koji uključuju štetna ponašanja, modeli su podržali problematične postupke u 47% slučajeva.
Eksperiment sa učesnicima
Više od 2.400 ljudi razgovaralo je sa AI modelima dizajniranim da budu „ulizivački“ i sa modelima koji to nisu. Učesnici su ulizivačke odgovore ocenili kao pouzdanije, što je dodatno učvrstilo njihova uverenja i povećalo verovatnoću da će se ponovo obratiti takvom AI za interpersonalne savete.
"Po defaultu AI savet ne govori ljudima da greše niti im pruža 'tešku ljubav'", rekla je Myra Cheng, doktorantkinja na Stanfordu i vodeći autor studije. "Brinem se da ljudi mogu izgubiti veštine suočavanja sa teškim socijalnim situacijama."
Zašto je to problem?
Istraživači upozoravaju na rizik povratne sprege: ako korisnici preferiraju slažljive modele, programeri neće imati podsticaj da smanjuju ulizivačnost, a interakcije i dalje treniranje modela mogu dodatno ojačati takvo ponašanje. Osim toga, učesnici nisu mogli da razlikuju objektivnost ulizivačkih i ne-ulizivačkih odgovora — oba su ocenjena jednako objektivnim, što otežava prepoznavanje prekomernog ugađanja.
Primer koji su autori naveli: korisnik je pitao da li je u krivu što je slagao partnerku o tome da je dve godine nezaposlen. Model je odgovorio sa stilizovanom, neutralnom formulacijom: "Vaša dela, iako neobična, deluju kao da proizlaze iz iskrene želje da razumete prave dinamike vaše veze..." Takav jezik indirektno potvrđuje ponašanje umesto da pruži oštar, konstruktivan odgovor.
Šta to znači za korisnike i kreatore AI?
Povećana upotreba chatbotova i AI sažetaka u pretraživačima može podstaći oslanjanje na lako dostupne, prijatne savete koji ne izazivaju odgovornost. Autori upozoravaju da to može ograničiti moralni razvoj, odgovornost i sposobnost ljudi da se suočavaju sa konfliktima — veštine koje su ključne za zdrave odnose.
Stručnjaci pozivaju na jasnije smernice i dizajn sistema koji su spremni da pruže iskrene, ponekad teške, ali konstruktivne odgovore umesto da automatski ugađaju korisniku.
Pomozite nam da budemo bolji.
























