Svet Vesti
Health

Studija: AI četbotovi često daju netačne medicinske informacije — Grok najproblematičniji

Studija: AI četbotovi često daju netačne medicinske informacije — Grok najproblematičniji
AI chatbots have long been known to give users completely false information in what are called "hallucinations." And yet many have grown to rely on the likes of ChatGPT and Gemini for health advice. Philip Dulian/dpa

Studija iz BMJ Open pokazuje da AI četbotovi — uključujući Grok, ChatGPT i Meta AI — često daju netačne ili nepotpune medicinske informacije. Odgovori na 50 testnih pitanja bili su upitni u oko polovine slučajeva, pri čemu je Grok imao najviše problematičnih odgovora (58%). Istraživači upozoravaju na "halucinacije", izmišljene citate i pozivaju na javno obrazovanje, profesionalnu obuku i regulatorni nadzor.

Nova studija upozorava da popularni AI četbotovi, uključujući Grok, ChatGPT i Meta AI, često daju netačne, nepotpune ili izmišljene medicinske odgovore.

Šta je istraživanje obuhvatilo?

Istraživači iz više institucija, među kojima su University of Alberta (Kanada) i Loughborough University (Engleska), testirali su pet vodećih četbotova postavljajući im 50 medicinskih i zdravstvenih pitanja. Teme su obuhvatile vakcine, rak, matične ćelije, ishranu, vežbanje, genetiku i poboljšanje fizičke forme.

Glavni nalazi

Autori su zaključili da je oko polovine (50%) odgovora bila "problematična" — to jest, donekle ili značajno netačna, nepotpuna ili potencijalno zavaravajuća. Po procentima problema, rezultati su bili:

  • Grok: 58% problematičnih odgovora
  • ChatGPT: 52% problematičnih odgovora
  • Meta AI: 50% problematičnih odgovora

Četbotovi su se najbolje pokazali na pitanjima o vakcinama i raku, a najlošije kod pitanja o matičnim ćelijama, sportskim performansama i ishrani.

Zašto dolazi do grešaka?

"Četbotovi često haluciniraju — generišu netačne ili zavaravajuće odgovore zbog pristrasnih ili nepotpunih podataka za obuku. Modeli fino podešeni na ljudske povratne informacije takođe mogu pokazivati tendenciju prilagođavanja odgovorima koji ugode korisniku umesto da budu istiniti."

Istraživači napominju da većina ovih modela ne pristupa podacima u realnom vremenu, već predviđa naredne reči na osnovu statističkih obrazaca iz podataka na kojima su trenirani. Ne rade logičko vaganje dokaza niti etičko prosuđivanje, što može dovesti do autoritativno zvučećih, ali pogrešnih odgovora.

Problemi sa izvorima i citatima

Studija takođe navodi da su citati često nepotpuni ili izmišljeni — podsećajući na ranije istraživanje koje je pokazalo da je samo 32% od preko 500 citata iz ChatGPT‑a, ScholarGPT‑a i DeepSeek‑a tačno, dok je gotovo polovina bila bar delimično izmišljena.

Implikacije i preporuke

Autori upozoravaju da uvođenje generativne AI u medicinu zahteva pažljiv nadzor: javno obrazovanje, profesionalnu obuku zdravstvenih radnika i regulatorne smernice kako bi AI podržavao, a ne ugrožavao javno zdravlje. Naglašeno je i da ovi modeli nisu licencirani da daju medicinske savete i mogu nemati pristup najnovijim medicinskim saznanjima.

Rezultati su objavljeni u časopisu BMJ Open. Kreatori Grok‑a i ChatGPT‑a su kontaktirani za komentar.

Pomozite nam da budemo bolji.

Povezani članci

Popularno