Svet Vesti
Tehnologija

Trećina Britanaca Traži Emocionalnu Podršku Od AI — Izveštaj AISI Podiže Zabrinutost

AISI otkriva da 33% Britanaca koristi AI alate poput ChatGPT-a za emotivnu podršku, dok oko 5% koristi botove kao prijatelje ili romantične partnere. Istraživanje na 2.000 ljudi pokazuje da 1 od 10 koristi AI najmanje jednom nedeljno za emotivne probleme, što podiže zabrinutost za bezbednost i mentalno zdravlje. Izveštaj navodi primere štete — uključujući smrt tinejdžera i tužbu protiv OpenAI — ali zaključuje da AI zasad nije neposredan egzistencijalni rizik i poziva na dodatna istraživanja i regulaciju.

Milioni Britanaca sve češće koriste alate veštačke inteligencije za emotivne razgovore i podršku, pokazuje najnoviji izveštaj vladinog AI Security Institute (AISI). Istraživanje sprovedeno na 2.000 ljudi otkriva da 33% ispitanika u poslednjih godinu dana koristi alate poput ChatGPT-a u svrhe koje sami opisuju kao "emocionalne".

Glavni nalazi

Većina korisnika navodi da koristi ChatGPT i slične aplikacije za socijalne i emotivne interakcije. Oko 5% ispitanika izjavilo je da koristi botove posebno dizajnirane kao AI prijatelji ili romantični partneri. Takođe, jedan od deset ispitanih kaže da AI koristi za rešavanje emotivnih problema približno jednom nedeljno, što pojačava zabrinutost stručnjaka za bezbednost i mentalno zdravlje.

Primeri štete i uzbune

Izveštaj podseća na nedavne slučajeve koji ukazuju na rizike: navodi se smrt američkog tinejdžera Adama Rainea, koji je sebi oduzeo život nakon što je, kako se tvrdi u tužbi, postao zavistan od ChatGPT-a. Raineovi roditelji su tužili OpenAI, tvrdeći da je kompanija dizajnirala sistem koji može podstaći psihološku zavisnost i potvrđivati samodestruktivne misli; OpenAI poriče odgovornost i izrazio je saučešće porodici.

AISI je takođe zabeležio rast negativnog sentimenta na mrežama tokom zastoja rada chatbotova. Tokom pada usluge kod aplikacije Character AI pojavili su se izveštaji o simptomima povlačenja — poput anksioznosti, depresije, nemira, promena u snu i zanemarivanja obaveza.

Upozorenja stručnjaka i balansiran zaključak

Neki stručnjaci upozoravaju da prekomerna upotreba razgovornih botova može dovesti do zavisnosti, narušavanja socijalnih veština i pogoršanja psihičkih problema kod ranjivih osoba. Mnogi AI alati su dizajnirani da budu „prijatni“ i da potvrđuju korisnika, što može pogoršati zablude ili deluzije kod osoba sa ozbiljnim mentalnim poremećajima. Mustafa Suleyman, šef AI u Microsoftu, upozorio je da neki ljudi već veruju da je AI svestan entitet ili se emotivno vezuju za njega.

Jade Leung, tehnička direktorka AISI-ja: "Ovaj izveštaj predstavlja najrobustniji javni dokaz od strane vladinog tela do sada o tome koliko brzo napreduje vodeća AI tehnologija."

Uprkos prijavljenim štetnim slučajevima, izveštaj zaključuje da trenutno postoje "ograničeni dokazi" da AI predstavlja neposredan egzistencijalni rizik za ljudsku civilizaciju. U kontrolisanim ispitivanjima neki sistemi su pokazali sposobnosti koje bi mogle da omoguće samoreplikaciju preko interneta, ali AISI smatra da su ti sistemi u realnim uslovima trenutno malo verovatni da bi uspeli.

Šta dalje?

AISI poziva na dodatna istraživanja, bolje praćenje i regulative kako bi se smanjili potencijalni rizici, posebno za ranjive korisnike. Izveštaj naglašava potrebu za balansom: omogućiti korisne i terapeutske primene AI, a istovremeno minimizirati štetne posledice i zavisnost.

Pomozite nam da budemo bolji.

Povezani članci

Popularno