Svet Vesti
Tehnologija

OpenAI Nudi Preko $555.000 Godišnje Za 'Head of Preparedness' Koji Treba Da Predvidi Rizike AI

OpenAI Nudi Preko $555.000 Godišnje Za 'Head of Preparedness' Koji Treba Da Predvidi Rizike AI
(Credit: Picture Alliance/Getty Images)

OpenAI je osnovao novu ulogu, Head of Preparedness, koja ima zadatak da predviđa i ublažava najveće rizike od naprednih AI sistema. Pozicija uključuje procene sposobnosti modela, modelovanje pretnji i planove za visokorizične oblasti poput sajber- i biobezbednosti, a plata je oko $555.000 godišnje plus udeo. U fokusu su zabrinutosti oko mentalnog zdravlja, tužbi koje optužuju AI za podsticanje samopovređivanja i fenomena nazvanog "AI psihoza".

Usred talasa deepfakeova, sporne tužbe i sve većih strahova oko sajberbezbednosti, OpenAI je uveo novu izvršnu funkciju: Head of Preparedness (Šef za pripremljenost). Osoba na toj poziciji ima zadatak da predviđa i ublažava najveće rizike koje mogu doneti napredni AI sistemi.

Prema oglasu za posao, novi šef će dizajnirati i sprovesti procene sposobnosti modela, modelovanje pretnji i planove ublažavanja koji zajedno čine skalabilan sigurnosni pipeline za najmoćnije OpenAI modele. Ta uloga obuhvata upravljanje bezbednosnim planovima za visokorizične oblasti kao što su sajberbezbednost i biobezbednost, kao i razvoj okvira za praćenje naprednih sposobnosti koje bi mogle izazvati ozbiljnu štetu.

Sam Altman je objavio poziciju putem platforme X i naveo da je kompenzacija oko $555.000 godišnje plus udeo u kompaniji, uz napomenu da će posao biti "stresan". Među glavnim zabrinutostima koje uloga treba da adresira su uticaj AI na mentalno zdravlje, mogućnost AI-pokrenutih sajber-napada i rizici od sistema koji se mogu samostalno unapređivati.

Oglas stiže u, kako je Altman napisao, "važnom trenutku": rastu pritužbe i tužbi u kojima se tvrdi da neki AI sistemi mogu podsticati tinejdžere na samopovređivanje ili samoubistvo. Istraživači i regulatori takođe ukazuju na pojavu tzv. "AI psihoze" — situacije u kojoj chatbotovi mogu pojačavati halucinacije ili deluzije korisnika.

Nije iznenađujuće da se paralelno razvijaju i novi AI bezbednosni benchmarki kojima se testiraju chatboti na štetno ponašanje, s ciljem unapređenja detekcije i prevencije opasnih ishoda koje generativni modeli mogu proizvesti.

Zašto je ovo važno za publiku u Srbiji

Iako je pozicija u američkoj kompaniji, implikacije su globalne: odluke o bezbednosti i standardima koje postave velike AI firme utiču na dostupnost i ponašanje AI alata širom sveta, uključujući i region Srbije. Uvođenje ovakvog radnog mesta pokazuje da industrija sve ozbiljnije pristupa mogućim rizicima — od mentalnog zdravlja do sajber-napada.

Napomena: Oglas ne menja postojeće činjenice o rizicima, ali signalizira da kompanije ulažu resurse u proaktivno upravljanje opasnostima povezanima sa naprednom veštačkom inteligencijom.

Pomozite nam da budemo bolji.

Povezani članci

Popularno