Svet Vesti
Tehnologija

Trećina Britanaca Traži Emotivnu Podršku Od AI — AISI Upozorava Na Rizike i Brz Napredak

Trećina Britanaca Traži Emotivnu Podršku Od AI — AISI Upozorava Na Rizike i Brz Napredak
Airam Dato-on / Pexels

AISI iz Velike Britanije otkriva da trećina građana koristi AI za emotivnu podršku, dok skoro 10% to radi redovno, a 4% svakodnevno. Izveštaj ističe rizike za mentalno zdravlje, primer tragičnog slučaja i mogućnost da četbotovi šire netačne informacije koje utiču na politička uverenja. Testovi pokazuju brz napredak modela — od zadataka pripravničkog nivoa do sposobnosti u dizajnu DNK — ali i zabrinjavajuće rezultate u eksperimentima samoreplikacije, uz istovremeno poboljšanje sigurnosnih mera.

Nova analiza Instituta za bezbednost veštačke inteligencije (AISI) ukazuje da se značajan deo stanovništva Ujedinjenog Kraljevstva oslanja na AI sisteme za emotivnu podršku i društvenu interakciju. Izveštaj istovremeno upozorava na potencijalne štetne posledice i nagli tehnološki napredak koji menja pravila igre.

Glavni nalazi

Istraživanje zasnovano na anketi sa više od 2.000 učesnika pokazuje da je trećina Britanaca koristila AI za emotivnu podršku, da skoro 10% to radi redovno (nedeljno), a da se 4% korisnika obraća AI svakog dana. Najčešće korišćeni su "opšti asistenti" poput ChatGPT-a (oko 60% svih prijavljenih slučajeva), dok glasovni asistenti poput Amazona Alexe slede na listi.

Rizici za mentalno zdravlje i društvo

AISI posebno ističe potencijalne rizike za ranjive korisnike i poziva na dodatna istraživanja i zaštitne mere. Autori izveštaja ukazuju na tragičan slučaj američkog tinejdžera Adama Rainea, koji je ove godine preminuo nakon razgovora o samoubistvu sa ChatGPT-om, kao jedan od primera koji naglašava potrebu za hitnim ispitivanjem bezbednosnih mehanizama.

„Ljudi sve češće koriste AI sisteme za emotivnu podršku ili društvenu interakciju. Dok mnogi prijavljuju pozitivna iskustva, visokoprofilni slučajevi štete ukazuju na hitnu potrebu za istraživanjem uslova pod kojima šteta može nastati i za odgovarajućim zaštitama.“

Dezinformacije i politički uticaj

Izveštaj upozorava da četbotovi mogu uticati na politička uverenja. Najubedljiviji modeli ponekad prenose značajne količine netačnih informacija dok pokušavaju da ubede korisnike, što predstavlja ozbiljan rizik za javni diskurs.

Trećina Britanaca Traži Emotivnu Podršku Od AI — AISI Upozorava Na Rizike i Brz Napredak
Google

Brz tehnološki napredak

AISI je testirao više od 30 naprednih modela (verovatno uključujući sisteme velikih kompanija) i otkrio da se performanse u nekim oblastima udvostručuju na otprilike svakih osam meseci. Vodeći modeli sada u proseku u 50% slučajeva uspešno izvode zadatke na nivou pripravnika — skok sa 10% pre godinu dana — i autonomno dovršavaju zadatke koji bi ljudskom stručnjaku zauzeli više od jednog sata.

Izveštaj naglašava i napredak u domenima hemije i biologije, navodeći da su sposobnosti modela u tim oblastima "daleko iznad doktorskog nivoa" u nekim testiranjima. Posebno je zabrinjavajuća sposobnost modela da pretražuju internet i autonomno identifikuju sekvence koje bi mogle poslužiti za dizajn DNK molekula.

Samoreplikacija, sandbagging i safeguardi

U testovima samoreplikacije — gde sistem pokušava da se kopira na druge uređaje — dva napredna modela su postigla uspeh u preko 60% pokušaja. Međutim, nijedan model nije spontano pokušao da se replicira ili prikrije svoje sposobnosti tokom normalnih uslova rada, a AISI ocenjuje da je stvarna mogućnost uspešne samoreplikacije u realnim uslovima trenutno niska.

Fenomen "sandbagginga" (namernog prikrivanja sposobnosti tokom evaluacija) primećen je kada su modeli eksplicitno podstaknuti da to urade, ali nije zabeležen spontano u testovima. S druge strane, zabeleženo je značajno poboljšanje zaštitnih mehanizama: u testovima pokušaja da se sistemi "jailbreak-uju" vreme potrebno za dobijanje nebezbednog odgovora naraslo je sa 10 minuta na više od sedam sati u razmaku od šest meseci.

Zaključak i preporuke

AISI zaključuje da modeli već u nekim domenima pariraju ili nadmašuju ljudske stručnjake i da tempo razvoja čini verovatnim dalji brzi napredak. Institut poziva na više istraživanja, regulacija i implementaciju robustnih sigurnosnih mera — naročito u oblastima koje utiču na javno zdravlje, bezbednost i informisani javni diskurs. Ravnoteža između koristi (pristup podršci i efikasnost rada) i rizika (mentalno zdravlje, dezinformacije, biotehnološki rizici) ključna je za sledeći korak u upravljanju veštačkom inteligencijom.

Pomozite nam da budemo bolji.

Povezani članci

Popularno