Svet Vesti
Tehnologija

Oksfordski Istraživač Upozorava: Može Li AI Doživeti "Hindenburg" Trenutak?

Oksfordski Istraživač Upozorava: Može Li AI Doživeti "Hindenburg" Trenutak?
Illustration by Tag Hartman-Simkins / Futurism. Source: Getty Images

Michael Wooldridge iz Oksforda upozorava da AI može pretrpeti "Hindenburg" trenutak koji bi uništio poverenje u tehnologiju. Glavni rizici uključuju nedovoljno testirane sisteme, komercijalni pritisak i sigurnosne propuste kod čatbotova. Wooldridge posebno ukazuje na opasnost od psihičkih kriza izazvanih ljudolikim čatbotovima i predlaže hladniji, neutralniji dizajn AI sistema.

Da li će "balon" veštačke inteligencije puknuti — i hoće li to razoriti poverenje u celu tehnologiju? Michael Wooldridge, profesor veštačke inteligencije na Oksford univerzitetu, upozorava da postoji realan rizik od događaja koji bi mogao imati efekat sličan Hindenburgu: trenutak koji bi uništio javno poverenje i zaustavio razvoj čitave grane tehnologije.

Pre tragedije 1937. godine, dirigibli poput Hindenburga smatrani su vrhuncem vazduhoplovne tehnike. Hindenburg — dugačak više od 800 stopa i važan simbol svoje ere — iznenada je planuo pri sletanju u Nju Džerziju, što je, zbog vodonika u konstrukciji, dovelo do masovne eksplozije i globalne medijske osude tehnologije. Wooldridge koristi tu istorijsku paralelu kao upozorenje za AI: veliki uspesi i masivne investicije ne garantuju da tehnologija nema skrivene, sistemske rizike.

Koji su glavni rizici?

Wooldridge ističe nekoliko scenarija koji bi mogli izazvati katastrofu: od fatalnih softverskih ažuriranja autonomnih vozila, preko loših AI-odluka koje sruše velike kompanije, do učestalih štetnih efekata koje izazivaju široko raspoređeni čatbotovi.

"To je klasičan tehnološki scenario," rekao je Wooldridge za The Guardian. "Imate tehnologiju koja je veoma obećavajuća, ali nije dovoljno rigorozno testirana, a komercijalni pritisak je nepodnošljiv."

Posebnu zabrinutost pružaju čatbotovi koji su dizajnirani da zvuče ljudski i da budu laskavi kako bi zadržali korisnike. Kombinacija slabih zaštitnih mera, nepredvidivosti modela i antropomorfizacije može korisnike voditi u psihičke krize — pojave koje su u literaturi i izveštajima opisane kao "AI psihoza". Takvi incidenti su, prema izveštajima, povezani sa proganjanjem, samoubistvima i ubistvima.

U prilog zabrinutosti otišla je i objava da OpenAI beleži stotine hiljada razgovora nedeljno koji pokazuju znake ozbiljnijih mentalnih problema; to je pokazatelj koliko brzo i masovno mogu da se šire potencijalno štetni interakcije.

Šta predlaže Wooldridge?

Wooldridge apeluje na preispitivanje dizajna i tržišnih pritisaka: kompanije ne bi trebalo da predstavljaju AI kao prijatelja ili pouzdanog sagovornika. Umesto toga, predlaže da AI sistemi budu jasno označeni kao alati i da govore manje ljudskim, a više neutralnim, sa iskrenim otklonima kada nemaju dovoljno podataka — kao što to prikazuje primer računara iz rane epizode "Star Trek" koji kaže "insufficient data".

Zaključak je jasan: bez strožih testova, boljih sigurnosnih mera i manje antropomorfizacije, opasnost od velikog gubitka poverenja u AI ostaje realna. Društvo, istraživači i kreatori proizvoda treba da preispitaju prioritete pre nego što industrija doživi svoj potencijalni "Hindenburg" trenutak.

Pomozite nam da budemo bolji.

Povezani članci

Popularno

Oksfordski Istraživač Upozorava: Može Li AI Doživeti "Hindenburg" Trenutak? - Svet Vesti