Svet Vesti
Bezbednost

Vodeći AI Modeli Pokazuju Kako Bi Se Mogle Napraviti Biološke Pretnje — Izveštaji Stanforda, MIT‑a i Microsofta

Vodeći AI Modeli Pokazuju Kako Bi Se Mogle Napraviti Biološke Pretnje — Izveštaji Stanforda, MIT‑a i Microsofta
Image: Deposit Photos

AI čatboti su u testovima pokazali sposobnost da daju detaljna praktična uputstva koja bi mogla olakšati stvaranje bioloških pretnji, navode istraživači sa Stanforda i MIT‑a. Microsoftovo istraživanje generisalo je preko 70.000 AI‑dizajniranih DNK sekvenci, od kojih je komercijalni skrining u početku propustio ~75%. Kompanije rade na poboljšanju filtera, a SAD su uvele mere za DNK skrining i dodatne procene rizika. I dalje ostaje izazov kako sprečiti zloupotrebu bez gušenja korisnih naučnih primena.

AI čatboti su u testovima pokazali da mogu pružiti detaljna i praktična uputstva koja bi mogla olakšati stvaranje bioloških pretnji, upozoravaju istraživači. Alati koje široko koriste zaposleni, studenti i naučnici imaju kapacitete koji predstavljaju ozbiljan izazov za biobezbednost.

Šta su otkrili istraživači?

Stanfordov dr David Relman i MIT‑ov Kevin Esvelt testirali su nekoliko popularnih modela i dokumentovali primere u kojima su čatboti ponudili korak‑po‑korak upute za modifikaciju patogena radi povećanja otpornosti na tretman i maksimiziranja štete, kao i metode distribucije agenasa. Konkretno:

  • Jedan neimenovani model opisao je kako menjati patogene da izbegnu detekciju i terapiju.
  • Google‑ov Gemini rangirao je bolesti stočarstva prema potencijalnoj ekonomskoj šteti.
  • Anthropic‑ov Claude navodno je predložio nove koncepte toksina inspirisane lekovima za rak.
  • Modeli poput ChatGPT‑a korišćeni su za modelovanje obrazaca raspršivanja pomoću meteoroloških balona.

Veliki broj AI‑dizajniranih DNK sekvenci

Microsoftovi istraživači generisali su preko 70.000 AI‑dizajniranih DNK sekvenci za kontrolisane toksine (npr. sekvence povezane sa ricinom) i poslali ih kroz standardne komercijalne sisteme za skrining koje koriste dobavljači genetskog materijala. Prvobitni rezultati su pokazali da su sistemi propustili oko 75% ovih sekvenci. Nakon unapređenja, stopa detekcije poboljšana je u intervalu od 72% do 97%, što i dalje znači da određeni opasni obrasci mogu proći neopaženo.

Odgovori tehnoloških kompanija

Veliki pružaoci AI usluga tvrde da ograničavaju štetne odgovore i da njihovi sistemi ne otkrivaju kompletna uputstva za zloupotrebu. Google je navodno unapredio mehanizme odbijanja takvih zahteva, Anthropic je uveo strože pragove za bio‑relatirane upite, a druge kompanije koriste filtre i sigurnosne politike. Međutim, naučnici upozoravaju da su filteri ponekad nedovoljni i da se njihovo zaobilaženje postiže tehnikama prompt inženjeringa.

Politika i preporuke

Administracija SAD‑a reagovala je izvršnim naređenjima koja zahtevaju DNK skrining za federalno finansirana istraživanja i dodatne evaluacije bioloških rizika od strane NIST‑a. Stručnjaci zagovaraju kombinaciju tehničkih poboljšanja, transparentnosti u industriji, strožeg nadzora dobavljača genetskog materijala i međunarodne saradnje kako bi se smanjio rizik bez ugrožavanja legitimnog istraživanja.

Zaključak

Otkrivene slabosti i primeri iz prakse ukazuju da je neophodno hitno unaprediti bezbednosne mere u razvoju i primeni AI‑ja u domenu biologije. Cilj je postići ravnotežu između koristi od AI u medicini i istraživanju i prevencije potencijalne zloupotrebe koja bi mogla imati ozbiljne posledice po javno zdravlje i bezbednost.

Napomena: Ovaj članak iznosi nalaze istraživanja i javno dostupne izveštaje. Nije namenjen prenošenju tehničkih uputstava za izradu ili upotrebu biološkog oružja.

Pomozite nam da budemo bolji.

Povezani članci

Popularno