Ključ: Pouka iz Frankenštajna nije da se ne stvaraju moćne tehnologije, već da tvorci ne smeju da ih napuste. Slučajevi lažnih AI-referenci i "halucinacija" pokazuju da greške postaju trajne ako se ne regulišu. Autori predlažu farmaceutski model: jasni standardi za podatke, rigorozno testiranje pre puštanja i kontinuirani post-market nadzor, uz skaliranu regulaciju koja štiti bez sputavanja inovacija.
Frankenštajn i AI: Kako tvorci mogu da izbegnu sudbonosnu grešku napuštanja tvorevine
Publika već zna priču o Frankenštajnu. Gotički roman Meri Šeli — adaptiran bezbroj puta, poslednje u dirljivoj verziji reditelja Giljerma del Tora na Netflixu — utkan je u kulturni imaginarijum kao upozorenje o nauci koja je izmakla kontroli. Ali njegova prava poruka često se pogrešno tumači. Pouka nije samo „ne stvarajte opasne stvari“; pouka je „ne napuštajte ono što ste stvorili“.
Gde nastaje greška: nakon stvaranja
Razlika je ključna: raskrsnica se nalazi posle čina stvaranja. Sve moćne tehnologije mogu imati destruktivne ishode — razlika između njih leži u tome hoće li tvorci preuzeti brigu ili će se odreći odgovornosti. Viktor Frankenštajn nije samo stvorio grotesknog stvora; on ga je odbacio i prepustio posledice drugima. Svako doba stvara svoje "Viktore" — danas su to inženjeri i kompanije koje razvijaju veštačku inteligenciju.
Stvarni primeri koji upozoravaju
Nedavno je apelacioni sud u Kaliforniji kaznio advokata sa 10.000 dolara jer je 21 od 23 citata u njegovom podnesku bila izmišljena — presedani koji ne postoje. Slični slučajevi beleže se širom Sjedinjenih Država, od nekoliko mesečno do nekoliko dnevno. Ovog leta apelacioni sud u Džordžiji poništio je presudu o razvodu nakon što je otkriveno da je 11 od 15 citata lažno. Koliko takvih grešaka prolazi neprimećeno i trajno zagađuje pravni zapis?
Zašto moderne AI "halucinira"
Decenijama su računarski sistemi mogli biti dokazivo ispravni — kalkulator uvek vraća tačan broj. Moderna AI menja ovaj obrazac. Nedavno istraživanje objavljeno u časopisu Science potvrđuje ono što stručnjaci dugo upozoravaju: verodostojne neistine, tzv. "halucinacije", su neizbežne. Ti sistemi su trenirani da predviđaju ono što zvuči uverljivo, a ne da potvrđuju istinitost tvrdnji. Kada odgovori izgledaju sigurni, a nemaju čvrsto utemeljenje, sistemi i dalje daju definitivan odgovor — njihov trening nagrađuje sigurnost nad nesigurnošću.
Meri Šeli: ‘‘Ne napuštajte ono što ste stvorili.’’
Ovakva nepredvidivost ima kaskadne posledice: pravne lažne reference ulaze u baze podataka kao presedani, izmišljeni medicinski saveti se šire po sajtovima, a AI-generisane "vesti" kruže društvenim mrežama i potom postaju deo podataka za obuku budućih modela. Današnje halucinacije lako mogu postati sutrašnje "činjenice".
Farmaceutski model kao putokaz
Kako sprečiti štetu, a ne ugušiti inovaciju? Postoji proveren model: farmaceutska industrija. Farmaceutske kompanije ne mogu uvek predvideti sve biološke efekte, pa primenjuju temeljna testiranja i post-market nadzor. Sličan okvir za AI zahteva tri međusobno povezana stuba:
1) Propisani standardi obuke
Poput kontrole sastojaka i dokumentacije u farmaciji, kompanije koje razvijaju AI treba da vode jasnu evidenciju o provenijenciji podataka za obuku, nadzoru kontaminacije (da se spreči vraćanje i ponovna upotreba problematičnog sintetičkog sadržaja), listama zabranjenog sadržaja i obavezama testiranja pristrasnosti kroz demografske grupe.
2) Testiranje pre puštanja u rad
Randomizovane, strukturisane studije i opsežni testovi otkrivaju suptilne rizike pre nego što sistem dopre do korisnika. AI sistemi za visoko-rizične primene — pravna istraživanja, medicinski saveti, finansijsko upravljanje — moraju imati dokumentovane stope grešaka i jasno definisane sigurnosne pragove.
3) Kontinuirani post-market nadzor
Kao što proizvođači lekova prate neželjene događaje i izveštavaju regulatore, AI proizvodi moraju imati obavezu praćenja štetnih ishoda, transparentnog izveštavanja i mehanizme za ograničavanje ili povlačenje proizvoda ako se pojave ozbiljni problemi.
Zašto regulacija, a ne samo dobrovoljna pravila
AI se razlikuje od tradicionalnog alata — čekić ne tvrdi da je stolarski majstor, dok AI često proyectuje autoritet kroz ubedljiv jezik, bilo da preuzima ili izmišlja činjenice. Bez obavezujućih zahteva, kompanije koje optimizuju za angažman brzo će žrtvovati tačnost radi tržišnog uspeha.
Međutim, regulacija mora biti razumna. EU zakon o AI pokazuje izazov: zahtevi za sisteme visokog rizika mogu biti administrativno i finansijski teški za male startape. Farmaceutska praksa nam pokazuje posledice — post-market nadzor spasio je hiljade života (npr. slučaj leka Vioxx), ali visoki troškovi regulatornih procedura otežavaju konkurenciju malim kompanijama i razvoj tretmana za retke bolesti.
Rešenje: skaliran i proporcionalan nadzor
Graduirani nadzor može da uravnoteži bezbednost i inovaciju: manje restriktivni režimi za sisteme sa niskim rizikom i pojačani zahtevi za one sa višim stopama grešaka. AI asistent sa niskom stopom grešaka dobija dodatni nadzor; viši rizici zahtevaju obavezne popravke ili povlačenje s tržišta dok se ne reše problemi. Time se podstiče odgovornost bez davljenja mladih timova koji inoviraju.
Zaključak
Odgovorna briga nije opcija — jednom kada stvorite moćan sistem, morate preuzeti odgovornost za njegove posledice. Pitanje više nije da li ćemo razvijati naprednu AI — već da li ćemo insistirati na strogom, prilagodljivom okviru koji štiti javno dobro. Farmaceutski pristup — jasni standardi podataka, strukturisano testiranje i kontinuirani nadzor — nudi realan model za tehnologije čije ponašanje ne možemo u potpunosti predvideti.
Autori: Dov Grinbaum, profesor prava i direktor Zvi Meitar Instituta za pravne implikacije novih tehnologija, Reichman University; Mark Gerstein, profesor biomedicinske informatike, Yale University.
Izvor: originalno objavljeno u Los Angeles Times.
Pomozite nam da budemo bolji.



























