Nature Medicine upozorava da dokazi o korisnosti medicinske AI za pacijente, lekare i zdravstvene sisteme ostaju oskudni. Studije pokazuju da modeli često haluciniraju nalaze i greše u dijagnozama u više od 80% slučajeva kod nejasnih simptoma. Autori pozivaju na hitno uspostavljanje okvira za evaluaciju, jasne metrike i odgovornu primenu AI u kliničkom okruženju.
Nature Medicine Upozorava: Medicinska AI Rizikuje Preuranjeno Usvajanje — Poziv Na Hitne Standarde

Nedavno istraživanje pokazuje da milioni Amerikanaca obraćaju AI četbotovima za medicinske savete — često umesto ljudskih lekara. Istovremeno, vodeći medicinski časopis Nature Medicine objavio je oštru uredničku analiju koja upozorava na ozbiljne rizike i nedostatak dokaza o koristima medicinske veštačke inteligencije (AI).
Istraživači ukazuju na više sistemskih problema kod alata zasnovanih na velikim jezičkim modelima (LLM):
- Halucinacije — modeli često izmišljaju detaljne kliničke nalaze ili zaključke koji nisu potkrepljeni podacima;
- Preuranjena tvrdnja o kliničkom uticaju — promotivni materijali i naučni radovi ponekad sugerišu koristi bez jasno definisanih i prihvaćenih standarda dokazivanja;
- Nespremnost za stvarni svet — modeli koji dobro funkcionišu u kontrolisanim eksperimentima često zakazuju u stvarnim, nejasnim kliničkim situacijama.
Nature Medicine naglašava da „dokazi da AI alati stvaraju vrednost za pacijente, pružaoce usluga ili zdravstvene sisteme ostaju oskudni.“ U uredničkom tekstu stoji i upozorenje: "Iako su tvrdnje o kliničkom uticaju sve češće, ne postoji jasan dogovor o nivou dokaza koji bi trebalo tražiti pre nego što takve tvrdnje postanu verodostojne."
„Posledica nije samo naučna neizvesnost već često i preuranjena implementacija i usvajanje.“
Ilustrativan primer problema je studija u časopisu JAMA Medicine, koja je pokazala da napredni AI modeli, kada im se daju nejasni simptomi, nisu uspeli da postave tačnu dijagnozu u više od 80% slučajeva. To naglašava rizik od pogrešnih preporuka u stvarnim kliničkim uslovima.
Još jedna zabrinjavajuća demonstracija zloupotrebe procesa objavljivanja dogodila se kada je istraživačica sa Univerziteta u Geteborgu, Almira Osmanovic Thunström, postavila dva namerno izmišljena rada na server za preprinte kako bi proverila da li će ih LLM-ovi prihvatiti kao stvarne. Ti preprinti su potom citirani u drugim recenziranim člancima koji su kasnije povučeni, što otkriva slabosti u zdravoj kritičkoj proceni i u lancu objavljivanja.
Stručnjaci, uključujući i istraživače sa Harvarda, ističu da AI može ubrzati zamorne i tehničke zadatke — od pisanja koda do sažimanja podataka — ali upozoravaju da je za odgovornu upotrebu neophodno jasno razgraničiti kada i kako AI treba koristiti u kliničkim studijama i praksi.
Zaključak uredništva Nature Medicine: Potreban je hitan i međunarodno prihvaćen okvir za evaluaciju medicinskih AI tehnologija — sa jasno definisanim metrikama, benchmark-ovima i standardima transparentnosti — kako bi se sprečilo preuranjeno usvajanje koje može naškoditi pacijentima i narušiti naučnu rigoroznost.
Više o temi: Milioni Amerikanaca razgovaraju sa AI umesto da posete lekara, a neki dobijaju opasno netačne medicinske savete.
Pomozite nam da budemo bolji.























