Svet Vesti
Tehnologija

Problem Sa AI: 'Halucinacije' Koje Ugrađuju Lažne Citate U Sudske Presude

Problem Sa AI: 'Halucinacije' Koje Ugrađuju Lažne Citate U Sudske Presude
No oracle: artificial intelliegence is all too fallible

Članak upozorava na rizik od "halucinacija" kod velikih jezičkih modela: statističko predviđanje reči stvara tečan, ali često izmišljen sadržaj. U britanskom slučaju NHS Fife pronađeni su lažni citati u 300-stranoj presudi, što je pokrenulo sumnje u upotrebu AI pri pripremi sudskih beleški. Autor navodi lična iskustva sa transkripcijama i prevodima koja su pokazala kako modeli popunjavaju nečitljive delove teksta izmišljenim sadržajem. Zaključak: AI je koristan, ali zahteva strogu verifikaciju i transparentnost.

«Ne postoji hijerarhija prava; sva prava treba tretirati jednako.» To je rečenica koja zvuči neosporno — dovoljno razumna i uverljiva da oko lako preleti preko nje. Upravo to treba da izazove sumnju.

Pre samo nekoliko meseci Courts and Tribunals Judiciary izdao je novo uputstvo kako sprečiti ulazak AI-generisanih neopravdanih tvrdnji u pravne dokumente. U međuvremenu je u slučaju između NHS Fife i Sandie Peggie — medicinske sestre koja se žalila nakon što je morala da deli svlačionicu sa transrodnim lekarom — u sudskoj presudi od oko 300 strana otkriveno nekoliko "lažnih i nepostojećih citata". Dva pasusa koja su predstavljena kao citati iz ranijih odluka naknadno su utvrđena kao fabrikati.

Kako dolazi do toga

Najverovatnije objašnjenje jeste da su pri izradi sudskih beleški korišćeni veliki jezički modeli (LLM) ili slični alati. LLM modeli ne "izmišljaju" iz zle namere — oni funkcionišu tako što na osnovu statističke analize ogromnih količina teksta predviđaju koja reč sledeća ima najveću verovatnoću. Rezultat je često tečan, prirodan stil, ali i izvesna sklonost da se popune praznine – što u pravnoj ili istorijskoj dokumentaciji može značiti ubacivanje izmišljenih citata ili činjenica.

LLM modeli stvaraju koherentnu, ali ponekad lažnu prozu: lepo oblikovane rečenice koje mogu delovati kao činjenice, a nisu.

Zašto je to opasno

Problem je dvostruk: prvo, lažne tvrdnje mogu uticati na pravna rešenja i poverenje u sudski proces; drugo, takve neistine je teško uočiti jer su stilom i retorikom često neprepoznatljive kao greške. Matematika iza predviđanja reči daje "beztrenju" prozu bez očiglednih lingvističkih grešaka koje bi privukle pažnju čitaoca.

Autori, istraživači i nastavnici

U tekstu autor iznosi lična iskustva: deca su prestala da koriste ChatGPT za domaće zadatke jer je provera i ispravljanje generisanog teksta sporiji i rizičniji nego pisanje od nule. Autor je pokušao da iskoristi AI za prevod i transkripciju za knjigu o "oživljavanju mrtvih" i naišao na izmišljene srednjovekovne čudotvorne priče (nepostojeći velški svetac koji je "ponovo spojio" odsečenu glavu) i na loše transkripcije severnjačkih i škotskih naglasaka: tamo gde je snimak bio mutan, sistem je često popunjavao prazninu izmišljenim frazama.

Prilikom pokušaja transkripcije fotografije izgužvanog papira, AI je proizveo tečan tekst prepun izmišljenih citata—svaki tamniji ili oštećeni deo papira bio je mesta gdje je model "samo popunjavao" ono što nije mogao da pročita. Model je, pritom, i sam bio svestan svojih ograničenja i izvinjavao se: «Ne mogu, sa trenutnim sposobnostima, garantovati transkript bez halucinacija. Sklon sam da popunim prazninu umesto da je ostavim praznom.»

Zaključak

AI alati donose ogromnu korisnost — ubrzavaju posao i uklanjaju trenje — pa će tržište i potrošači biti skloni da ih prihvate. Ipak, primeri iz pravne prakse i lična iskustva pokazuju da bez sistematske kontrole i jasnih procedura za verifikaciju, ova tehnologija može narušiti tačnost i integritet informacija. Rešenje nije zabrana, već strožiji protokoli provere, transparentnost u korišćenju AI i veća digitalna pismenost korisnika i profesionalaca.

Pomozite nam da budemo bolji.

Povezani članci

Popularno