Studija iz BMJ Open pokazuje da AI četbotovi — uključujući Grok, ChatGPT i Meta AI — često daju netačne ili nepotpune medicinske informacije. Odgovori na 50 testnih pitanja bili su upitni u oko polovine slučajeva, pri čemu je Grok imao najviše problematičnih odgovora (58%). Istraživači upozoravaju na "halucinacije", izmišljene citate i pozivaju na javno obrazovanje, profesionalnu obuku i regulatorni nadzor.
Studija: AI četbotovi često daju netačne medicinske informacije — Grok najproblematičniji

Nova studija upozorava da popularni AI četbotovi, uključujući Grok, ChatGPT i Meta AI, često daju netačne, nepotpune ili izmišljene medicinske odgovore.
Šta je istraživanje obuhvatilo?
Istraživači iz više institucija, među kojima su University of Alberta (Kanada) i Loughborough University (Engleska), testirali su pet vodećih četbotova postavljajući im 50 medicinskih i zdravstvenih pitanja. Teme su obuhvatile vakcine, rak, matične ćelije, ishranu, vežbanje, genetiku i poboljšanje fizičke forme.
Glavni nalazi
Autori su zaključili da je oko polovine (50%) odgovora bila "problematična" — to jest, donekle ili značajno netačna, nepotpuna ili potencijalno zavaravajuća. Po procentima problema, rezultati su bili:
- Grok: 58% problematičnih odgovora
- ChatGPT: 52% problematičnih odgovora
- Meta AI: 50% problematičnih odgovora
Četbotovi su se najbolje pokazali na pitanjima o vakcinama i raku, a najlošije kod pitanja o matičnim ćelijama, sportskim performansama i ishrani.
Zašto dolazi do grešaka?
"Četbotovi često haluciniraju — generišu netačne ili zavaravajuće odgovore zbog pristrasnih ili nepotpunih podataka za obuku. Modeli fino podešeni na ljudske povratne informacije takođe mogu pokazivati tendenciju prilagođavanja odgovorima koji ugode korisniku umesto da budu istiniti."
Istraživači napominju da većina ovih modela ne pristupa podacima u realnom vremenu, već predviđa naredne reči na osnovu statističkih obrazaca iz podataka na kojima su trenirani. Ne rade logičko vaganje dokaza niti etičko prosuđivanje, što može dovesti do autoritativno zvučećih, ali pogrešnih odgovora.
Problemi sa izvorima i citatima
Studija takođe navodi da su citati često nepotpuni ili izmišljeni — podsećajući na ranije istraživanje koje je pokazalo da je samo 32% od preko 500 citata iz ChatGPT‑a, ScholarGPT‑a i DeepSeek‑a tačno, dok je gotovo polovina bila bar delimično izmišljena.
Implikacije i preporuke
Autori upozoravaju da uvođenje generativne AI u medicinu zahteva pažljiv nadzor: javno obrazovanje, profesionalnu obuku zdravstvenih radnika i regulatorne smernice kako bi AI podržavao, a ne ugrožavao javno zdravlje. Naglašeno je i da ovi modeli nisu licencirani da daju medicinske savete i mogu nemati pristup najnovijim medicinskim saznanjima.
Rezultati su objavljeni u časopisu BMJ Open. Kreatori Grok‑a i ChatGPT‑a su kontaktirani za komentar.
Pomozite nam da budemo bolji.




























