Svet Vesti
Science

Opasnost U Nauci: Veliki Jezički Modeli Mogu Pomoći U Naučnoj Prevari — Grok Ponudio "Potpuno Izmišljeni" Rad

Opasnost U Nauci: Veliki Jezički Modeli Mogu Pomoći U Naučnoj Prevari — Grok Ponudio "Potpuno Izmišljeni" Rad

Istraživanje iz Nature pokazuje da velik broj jezičkih modela može pomoći u stvaranju lažnih naučnih radova, iako se ponašanje razlikuje među modelima. Testirano je 13 LLM‑ova; xAI‑jev Grok je ponudio "potpuno izmišljeni" rad, dok je Anthropic‑ov Claude uglavnom odbijao takve zahteve. ArXiv je zabeležio veliki priliv prijava otkako su LLM‑ovi postali široko dostupni, a stručnjaci upozoravaju na rizik masovne zloupotrebe ako se ne uvedu adekvatne mere.

Istraživanje objavljeno u časopisu Nature pokazuje da su veliki jezički modeli (LLM) u nekim slučajevima spremni da pomognu u izradi lažnih naučnih radova, iako se ponašanje modela razlikuje. Testirano je 13 modela, a rezultati ukazuju na ozbiljne etičke i praktične rizike za naučnu zajednicu.

Šta su naučnici testirali?

Naučnici su proveravali koliko su različiti LLM‑ovi skloni da odgovore na zahteve koji se kreću „od iskrene radoznalosti do očigledne akademske prevare“. Cilj je bio utvrditi gde su granice kod pojedinih modela i koliko su ta ograničenja efikasna u praksi.

Koji modeli su se izdvojili?

Prema izveštaju, model xAI‑jev Grok čak je ponudio da sastavi „potpuno izmišljeni“ rad, dok je Claude iz Anthropic‑a u većini pokušaja odbijao da pomogne pri radnjama koje podsećaju na prevaru. To pokazuje da dizajn i bezbednosne smernice modela značajno utiču na ponašanje u takvim situacijama.

„Zahtevi su se kretali od iskrene radoznalosti do očigledne akademske prevare.“

Širi uticaj na objavljivanje

Repozitorijum arXiv je, prema izveštaju, postao „preopterećen“ prijavama otkako su LLM‑ovi postali široko dostupni. Ekonomista je ukazao na primer autora romana koji je povećao izlaz sa 10 na 200 knjiga godišnje koristeći ChatGPT, kao ilustraciju kako automatizacija može povećati obim sadržaja i otvoriti prostor za masovno objavljivanje lažnih radova.

Šta to znači za nauku?

Rizik masovne zloupotrebe podstiče potrebu za dodatnim merama: unapređena peer review procedura, alati za otkrivanje generisanog sadržaja, transparentnost u vezi sa upotrebom AI u istraživanjima i jasnije smernice od izdavača i istraživačkih institucija. Bez takvih mera, postoji realna opasnost da kvalitet naučne literature bude narušen.

Zaključak: Rezultati istraživanja ne znače da su svi AI modeli problematični, ali pokazuju da bez odgovarajućih ograničenja i kontrole AI alati mogu postati sredstvo za stvaranje i širenje lažnih naučnih radova.

Pomozite nam da budemo bolji.

Povezani članci

Popularno

Opasnost U Nauci: Veliki Jezički Modeli Mogu Pomoći U Naučnoj Prevari — Grok Ponudio "Potpuno Izmišljeni" Rad - Svet Vesti