Svet Vesti
Bezbednost

GPT‑5 Je Autonomno Izveo 36.000 Eksperimenata — Da Li Je Čovečanstvo Spremno Za Rizike Programabilne Biologije?

GPT‑5 Je Autonomno Izveo 36.000 Eksperimenata — Da Li Je Čovečanstvo Spremno Za Rizike Programabilne Biologije?
Robotic cloud laboratories powered by AI can carry out experiments remotely and cut costs.J Studios/DigitalVision via Getty Images

GPT‑5 je 2026. autonomno izveo 36.000 eksperimenata u robotskom cloud laboratoriju, smanjujući troškove proizvodnje proteina za ~40%. Takva automacija ubrzava dizajn proteina i razvoj lekova, ali pojačava dual‑use rizike — iste tehnologije mogu pomoći optimizaciji svojstava virusa. Trenutne regulative i procene rizika zaostaju, pa stručnjaci predlažu kontrolisan pristup, bolji skrining DNK i transparentnije evaluacije modela.

U februaru 2026. OpenAI i Ginkgo Bioworks objavili su da je njihov vodeći model, GPT‑5, autonomno dizajnirao i izvršio 36.000 bioloških eksperimenata u robotskom cloud laboratoriju. Eksperimenti su smanjili trošak proizvodnje željenog proteina za oko 40%, a ljudski nadzor je bio ograničen na postavljanje ciljeva i nadgledanje procesa.

Kako funkcioniše sistem

Robotski cloud laboratorij povezuje automatizovanu opremu i daljinski kontrolisane mašine sa AI modelom koji predlaže dizajn eksperimenata. Tok podataka izgleda kao zatvorena petlja: model generiše plan, roboti izvršavaju protokole, podaci se vraćaju modelu i on prilagođava sledeće iteracije. Time se proces projektovanja proteina ubrzava iz meseci ili godina u dane.

Zašto je to važno

Ovakav inženjerski pristup — dizajn, izgradnja, testiranje, učenje i ponavljanje — može dramatično ubrzati razvoj lekova, vakcina i industrijskih bioloških rešenja. Modeli jezika za proteine, obučeni na milionskim sekvencama, brzo predviđaju učinke mutacija i mogu dizajnirati potpuno nove proteine, dok automatizacija omogućava masovno testiranje varijacija u kratkom vremenskom roku.

Mogući rizici (dual‑use)

Ipak, isti alati koji ubrzavaju korisne inovacije predstavljaju i potencijalne opasnosti. Istraživanja pokazuju da integracija AI modela i automatizovanih laboratorija može optimizovati osobine patogena — na primer prenosivost ili sposobnost izbegavanja imuniteta — čak i bez specijalizovanog treninga. Postoje i dokazi da modeli mogu voditi korisnike kroz tehničke korake kao što je obnavljanje živih virusa iz sintetičke DNK.

GPT‑5 Je Autonomno Izveo 36.000 Eksperimenata — Da Li Je Čovečanstvo Spremno Za Rizike Programabilne Biologije?
Robots can carry out human- or AI-designed studies in the lab.Du Yu/Xinhua via Getty Images

Dual‑use problem: Tehnologije razvijene za dobrobit mogu biti zloupotrebljene za nanošenje štete.

Suzila i kontrastne studije

Dve nedavne studije dale su mešovite rezultate. Istraživanje kompanije Scale AI i organizacije SecureBio pokazalo je da neiskusni korisnici uz pristup velikim jezičkim modelima mogu znatno poboljšati rešavanje složenih viroloških zadataka — ponekad i nadmašiti stručnjake. S druge strane, studija Active Site pokazala je da AI nije dramatično povećao sposobnost početnika da kompletiraju ceo proces proizvodnje virusa u biosigurnosnom laboratoriju, iako su AI‑podržane grupe često bile uspešnije u pojedinačnim koracima.

Regulativa i upravljanje rizikom

Postojeća pravila i procedure nisu dizajnirani za AI‑vođenu automatizaciju u biologiji. U SAD su preduzete neke mere na nivou administracije i predlozi zakona (npr. obavezni skrining sintetičke DNK), ali implementacija je delimična i često dobrovoljna. Međunarodni traktati poput Konvencije o biološkom oružju iz 1975. ne sadrže specifične odredbe za AI. Stručnjaci i organizacije (NTI, RAND, UK AI Security Institute i drugi) predlažu ciljanije mere: upravljani pristup alatima, obavezni i poboljšani skrining DNK, transparentnije evaluacije modela i bolja uprava bioloških podataka.

Preporuke i sledeći koraci

Da bi se maksimizirale koristi, a minimizirali rizici, potrebno je koordinisano delovanje: kombinacija tehničkih ograničenja (kontrolisan pristup, detekcija „opasnih“ sekvenci), regulatornih okvira, međunarodne saradnje i transparentnih procedura procene rizika pri objavljivanju modela. Volontarne mere kompanija su korak napred, ali nisu dovoljne da zamene usklađenu politiku i standarde.

Zaključak

AI‑pogonjena programabilna biologija nudi brze dobitke za zdravstvo i industriju, ali istovremeno pomera granice rizika. Bez jasnih i koordinisanih pravila, postoji opasnost da koristi budu prelako zloupotrebljene ili da zabrane prebrzo uguše razvoj. Uravnotežen, transparentan i međunarodno usklađen pristup najbolji je put napred.

Autor: Stephen D. Turner, University of Virginia — članak je adaptiran i preveden iz izvornog teksta objavljenog u The Conversation.

Pomozite nam da budemo bolji.

Povezani članci

Popularno