Studija Oksforda na uzorku od 1.300 učesnika pokazuje da AI četbotovi često daju neujednačene i ponekad netačne medicinske savete, naročito kada korisnici ne znaju koje informacije treba da navedu. Autori upozoravaju da takve interakcije mogu dovesti do pogrešnih zaključaka i pozivaju na razvoj specijalizovanih, sigurnijih zdravstvenih modela uz jasne regulative. Stručnjaci takođe naglašavaju potrebu da se AI odgovori potvrde kod lekara, posebno u hitnim slučajevima.
Upozorenje iz Oksforda: AI četbotovi daju nejasne i ponekad opasne medicinske savete

Studija Univerziteta u Oksfordu upozorava da AI četbotovi često pružaju netačne i neujednačene medicinske savete, što može predstavljati rizik za korisnike koji traže zdravstvene informacije putem ovih alata.
Istraživanje je obuhvatilo 1.300 učesnika kojima su predstavljeni opisni scenariji—na primer, jaka glavobolja ili novopečena majka koja je stalno iscrpljena. Učesnici su podeljeni u dve grupe: jednoj je bilo dozvoljeno da koristi AI kako bi pokušala da identifikuje moguće uzroke i odluči da li treba da se obrati lekaru ili hitnoj pomoći.
Rezultati pokazuju da su odgovori koje su korisnici dobijali varirali u zavisnosti od formulacije pitanja i načina interakcije. Mnogi ispitanici nisu znali šta tačno da pitaju, pa su dobijali mešavinu korisnih i zbunjujućih informacija, što im je otežalo donošenje ispravne odluke o daljem postupanju.
Dr Rebecca Payne, glavna medicinska saradnica na studiji, izjavila je da bi traženje saveta o simptomima od četbota moglo biti "opasno". Dr Adam Mahdi, viši autor, rekao je za BBC da iako AI može da pruži medicinske informacije, ljudi "teško dolaze do korisnih saveta" jer često izostavljaju važne detalje pri predstavljanju simptoma.
"Ljudi informacije otkrivaju postepeno. Ostavljaju stvari van, ne iznose sve detalje... Kada AI navede tri moguće dijagnoze, ispitanici su morali sami da nagađaju koja od njih odgovara. Upravo tada stvari počinju da se raspadaju," izjavio je Dr Mahdi.
Glavni autor Andrew Bean ističe da interakcija sa ljudima predstavlja izazov i za napredne AI modele i nada se da će rad doprineti razvoju sigurnijih i korisnijih zdravstveno fokusiranih sistema.
Dr Bertalan Meskó, urednik The Medical Futurist-a, podseća da su neke velike kompanije (npr. OpenAI i Anthropic) predstavile zdravstveno posvećene verzije svojih modela, koje bi mogle dati drugačije, potencijalno pouzdanije rezultate u sličnim ispitivanjima. On takođe naglašava potrebu za jasnim nacionalnim regulativama, regulatornim osiguračima i medicinskim smernicama za upotrebu AI u zdravstvu.
Šta iz toga sledi za korisnike?
Autori preporučuju oprez pri korišćenju opštih četbotova za dijagnostiku i savetovanje o simptomima. Dok tehnologija napreduje, korisnicima se savetuje da prikupljaju sve relevantne informacije pre konsultacije sa AI, te da rezultate potvrde kod zdravstvenih stručnjaka, naročito kada su u pitanju ozbiljni ili hitni simptomi.
Napomena: U anketi Mental Health UK iz novembra 2025. navodi se da više od jedne od tri osobe u Velikoj Britaniji koristi AI za podršku mentalnom zdravlju ili opštem blagostanju, što pokazuje rastuću ulogu ovih alata u svakodnevnoj zdravstvenoj praksi.
Pomozite nam da budemo bolji.




























