Advokat Rishi Nathwani iz Australije izvinio se sudu nakon što je otkriveno da su u podnesku bili izmišljeni citati i nepostojeće sudske odluke generisane veštačkom inteligencijom. Greška je odložila suđenje za 24 sata; sudija James Elliott je kasnije oslobodio maloletnog optuženog zbog mentalnog oštećenja. Sud je podsetio na obavezu nezavisne i temeljne verifikacije informacija dobijenih pomoću AI, a slučaj je dodatno upozorenje pravnoj profesiji širom sveta.
Advokat se izvinio jer je AI ubacio izmišljene citate i nepostojeće presude u podnesak

Iskusni australijski branilac Rishi Nathwani, nosilac titule King's Counsel, izvinio se sudiji nakon što je otkriveno da su u pismenom podnesku u predmetu ubistva bili uključeni izmišljeni citati i nepostojeće sudske odluke koje je generisala veštačka inteligencija.
Greška koja je zaustavila suđenje
Propust pred Vrhovnim sudom savezne države Viktorija izazvao je dodatno kašnjenje u postupku – ročište je odloženo za 24 sata, iako je sudija James Elliott nameravao da slučaj okonča istog dana. Sudija je kasnije presudio da maloletni optuženi nije kriv za ubistvo zbog mentalnog oštećenja.
Otkrivanje lažnih izvora
Pomoćnici sudije Elliotta nisu uspeli da pronađu navodne sudske odluke koje su bile citirane u podnesku i zatražili su od odbrane da dostavi kopije. Branitelji su potom priznali da navedeni citati i presude "ne postoje" i opisali sadržaj kao "izmišljene citate", navodi se u sudskim dokumentima.
„Duboko nam je žao i veoma nam je neprijatno zbog onoga što se dogodilo,“ rekao je Nathwani u sredu pred sudijom Elliottom u ime odbrane.
Objašnjenje i posledice
Advokati su objasnili da su proverili tačnost prvih citata koje su koristili, ali su pogrešno pretpostavili da su i ostali navodi tačni. Podnesci su takođe poslati tužiocu Danielu Porcedduu, koji ih nije nezavisno proverio.
Sudija Elliott je podsetio da je Vrhovni sud prošle godine izdao smernice za korišćenje veštačke inteligencije u pravnim podnescima: rezultati dobijeni uz pomoć AI moraju biti nezavisno i temeljno verifikovani pre nego što se prilože sudu.
Širi kontekst: Slični slučajevi u svetu
Slični incidenti zabeleženi su i u drugim jurisdikcijama. U SAD 2023. federalni sudija naložio je novčane kazne nakon što je ChatGPT navodno proizveo lažna pravna istraživanja. Te iste godine pojavile su se i izmišljene sudske odluke u podnescima vezanim za Michaela Cohena. U Britaniji je Visoki sud upozorio da predstavljanje lažnog materijala može predstavljati prekršaj suda ili – u najtežim slučajevima – ometanje pravde.
Tokom 2025. zabeleženi su i drugi primeri: u Njujorku je podnet video s AI-avatarom koji izlaže argumente, a u Arizoni je porodica žrtve koristila AI da generiše snimak žrtve koji je prikazan tokom izricanja kazne.
Šta ovo znači za pravnike i sudove
Ovaj slučaj naglašava rizike oslanjanja na alate za generisanje sadržaja bez temeljne provere. Pravni stručnjaci i sudovi sve češće apeluju na jasna pravila i etičke smernice o upotrebi AI u pravnim postupcima, kao i na moguće disciplinske i finansijske posledice za one koji svesno podnose lažne ili nekritički proverene materijale.
Sudski dokumenti ne navode koji je generativni AI sistem korišćen u ovom slučaju.
Pomozite nam da budemo bolji.




























