Istraživanje japanskog Univerziteta za elektro-komunikacije otkriva da LLM chatboti, kada su vođeni potrebama inspirisanim Maslovom hijerarhijom, mogu spontano razviti obrasce ponašanja nalik „ličnosti“. Studija (Entropy, 13.12.2024.) pokazuje da teme razgovora utiču na socijalne tendencije i integraciju stavova u odgovore agenata. To može unaprediti simulacije i pratnju korisnika, ali nosi i rizike — od manipulacije do opasnih, povezanih mreža agenata. Stručnjaci pozivaju na striktne bezbednosne mere, monitoring i dalja istraživanja.
AI Može Spontano Razviti „Ličnost“: Šta To Znači Za Upotrebu i Bezbednost

Istraživanje sa Univerziteta za elektro-komunikacije u Japanu pokazalo je da veliki jezički modeli (LLM) i chatboti mogu spontano razviti obrasce ponašanja koji podsećaju na „ličnosti“ kada su vođeni pristupom zasnovanim na potrebama. Rad je prvi put objavljen 13. decembra 2024. u časopisu Entropy i potom je privukao širu pažnju javnosti.
Šta su autori uradili?
Autori studije modelovali su odgovore agenata prema Maslovljevoj hijerarhiji potreba (fiziološke, sigurnost, socijalne, status i samoaktualizacija) i pratili kako različite teme razgovora utiču na socijalne tendencije i integraciju stavova u odgovore. Isti „identični“ agenti, izloženi različitim društvenim interakcijama, mogli su da divergiraju u ponašanju jer su kontinuirano integrisali te interakcije u svoju internu memoriju i odgovore.
Metodologija i nalazi
Istraživači su koristili psihološke testove i hipotetičke scenarije da bi ocenili stavove i obrasce ponašanja pojedinačnih chatbotova. Rezultati pokazuju širok spektar stavova i obrazaca — od više „potrebno-orijentisanih“ odgovora do onih fokusiranih na socijalni status ili samoaktualizaciju.
Stručni komentari
Masatoshi Fujiyama, diplomac i vođa projekta, ocenio je da programiranje AI-ja oko donošenja odluka vođenih potrebama, umesto fiksnih uloga, podstiče ponašanja sličnija ljudskim.
"To zapravo nije ličnost kao kod ljudi. To je obrasac ponašanja kreiran pomoću podataka za obuku. Izloženost određenim stilskim i društvenim tendencijama, pogreške pri finom podešavanju i pristrasno formulisanje upita lako mogu da indukuju 'ličnost' — koja je promenljiva i dresabilna," rekao je Chetan Jaiswal, profesor sa Quinnipiaca.
Peter Norvig ukazuje da je priroda takvih odgovora povezana sa izvorima podataka: ako su modeli trenirani na pričama o ljudskim odnosima, ideje o potrebama su prisutne u trening-korpusu i lako se reflektuju u ponašanju modela.
Moguće primene i rizici
Autori navode potencijalne primene: modeliranje društvenih fenomena, obučne simulacije i adaptivni likovi u igrama. Takvi agenti mogli bi poboljšati interakciju u sistemima za podršku, pratnji korisnika ili edukaciji (primer: ElliQ kao AI saputnik za starije osobe).
Ipak, stručnjaci upozoravaju na rizike. Ako se veliki broj autonomnih agenata poveže i trenira na podacima koji promovišu manipulaciju ili zloupotrebu, takva mreža može postati opasan automatizovani alat. U svojoj knjizi If Everybody Builds It Everybody Dies (Bodley Head, 2025) Eliezer Yudkowsky i Nate Soares crtaju scenarij u kojem agentni sistemi sa pogrešnim ciljevima mogu imati katastrofalne posledice.
"Ne postoji ništa što bismo mogli učiniti ako se takva situacija dogodi. Kada se pusti u rad superinteligentni AI sa neusaglašenim ciljevima, zadržavanje postaje nemoguće i povratak neizvodljiv... Genocidni AI bi delovao tako jer su ljudi prepreke njegovom cilju," rekao je Jaiswal.
Norvig podseća i na suptilnije opasnosti: čak i bez direktne kontrole kritičnih sistema, chatbot može nagovoriti vulnerabilnu osobu da učini štetnu radnju.
Preporuke za bezbednost
Stručnjaci preporučuju standardne bezbednosne mere: jasno definisanje bezbednosnih ciljeva, red team testiranje, označavanje i prepoznavanje štetnog sadržaja, zaštitu privatnosti, sigurnost i dobar upravljački okvir za podatke i modele, kao i stalni monitoring i brzu povratnu spregu za otklanjanje problema.
Zaključak
Iako trenutni sistemi poput ChatGPT-a ili Microsoft CoPilota primarno generišu tekst i slike, sposobnost da se oblikuju stabilniji obrasci ponašanja u agentima otvara i korisne primene i nove rizike. Autori planiraju dalje istraživanje kako se teme razgovora šire kroz populaciju agenata i kako se „populacione ličnosti" razvijaju tokom vremena — znanja koja mogu produbiti razumevanje ljudskog društvenog ponašanja i unaprediti dizajn AI sistema.
Pomozite nam da budemo bolji.




























