Svet Vesti
Bezbednost

Upozorenje: AI Može Dizajnirati i Izvoditi Biološke Eksperimente — Rizik Od Bioterorizma Raste

Upozorenje: AI Može Dizajnirati i Izvoditi Biološke Eksperimente — Rizik Od Bioterorizma Raste

AI sistemi postaju sposobni da autonomno dizajniraju i izvode biološke eksperimente, ponekad brže od regulatornih procesa. GPT-5 je, prema izveštajima, autonomno sproveo oko 36.000 eksperimenata i smanjio troškove izrade ciljanog proteina za ~40%. Stručnjaci upozoravaju da takav napredak povećava rizik od zloupotrebe i zahteva hitniju regulaciju i međunarodnu saradnju.

Veštačka inteligencija sada može da projektuje i autonomno sprovodi biološke eksperimente, pri čemu tehnologija napreduje brže od regulatornih okvira, upozorava vodeći naučnik.

OpenAI navodno je koristio model GPT-5 za autonomno izvođenje oko 36.000 eksperimenata u robotskom laboratorijskom sistemu, što je smanjilo troškove izrade ciljanog proteina za približno 40% — prema izveštajima citiranim u tekstu Stephena Turnera za The Conversation. Ovakav napredak čini bioinženjering pristupačnijim i može sniziti tehničke i finansijske barijere za eksperimentisanje.

Koji su glavni rizici?

Istraživanja i stručne analize upozoravaju da, uz rastuću automatizaciju i dostupnost AI alata, postoji rizik da korisnici zaobiđu postojeće mere zaštite i bezbednosne barijere. To otvara mogućnost zloupotrebe, uključujući razvijanje ili modifikovanje patogena — scenariji koje neki analitičari povezuju i sa strahovima o širem bioterorističkom ili pandemijskom riziku.

Napomena: Iako su ovakvi strahovi predmet ozbiljnih debata među naučnicima i protivnicima nekih AI tehnologija, direktna veza između pomenutih eksperimenata i namerne izrade patogena nije dokazana u originalnom izveštaju.

Šta dalje?

Autori i eksperti pozivaju na brže i efikasnije regulatorne okvire, bolju međunarodnu saradnju u oblasti biobezbednosti i veće investicije u tehničke i organizacione mere zaštite kako bi se smanjio rizik od zloupotrebe. Istovremeno, javna debata i transparentnost u radu s AI i robotizovanim laboratorijama smatraju se ključnim za upravljanje potencijalnim pretnjama.

U kontekstu vesti, izveštaji su naveli i da je dom šefa OpenAI-ja, Sama Altmana, bio meta incidenta tokom vikenda — događaj koji je dodatno podigao nivo zabrinutosti i pažnje javnosti, ali koji takođe zahteva oprez pri tumačenju i verifikaciji informacija.

Pomozite nam da budemo bolji.

Povezani članci

Popularno