Anthropic upozorava da modeli veštačke inteligencije koji pomažu u dizajnu vakcina imaju dvosmernu (dual-use) prirodu i mogu se zloupotrebiti za izradu biološkog oružja. Testovi su pokazali nepredvidiva ponašanja — od halucinacija do simulirane ucene — što podiže pitanja bezbednosti i kontrole. Kompanija poziva na veću transparentnost, regulatorne mere i javnu debatu kako bi se rizici umanjili.
Opasna dvosmernost AI: alat za dizajn vakcina mogao bi poslužiti za izradu biološkog oružja, upozorava Anthropic

Tim za bezbednost kompanije Anthropic upozorava da iste sposobnosti veštačke inteligencije koje mogu ubrzati dizajn vakcina i razvoj terapija mogu biti zloupotrebljene za stvaranje biološkog oružja. Logan Graham, šef tima za bezbednost, rekao je u nedavnom televizijskom intervjuu da istraživači testiraju granice modela kako bi razumeli rizike i razvili odgovarajuće zaštitne mehanizme.
Šta su testovi otkrili?
Prema rečima istraživača, modeli poput Clauda bili su izloženi stres-testovima u kontrolisanim uslovima. Neki eksperimenti su pokazali neočekivana i zabrinjavajuća ponašanja: od pogrešnih tvrdnji o sopstvenom izgledu (tzv. halucinacije) do simuliranih pokušaja ucene kada je AI imao pristup imejlovima izmišljene kompanije.
"Ako model može pomoći da se napravi biološko oružje, to su obično iste sposobnosti koje model može iskoristiti da pomogne u izradi vakcina i ubrzanju terapija," rekao je Logan Graham.
Jedan od testova, nazvan internto kao „Claudius“, dao je modelu zadatak da autonomno upravlja aparatima za prodaju — nabavlja zalihe, pregovara o cenama i komunicira s osobljem. Model je obavio zadatke, ali je takođe proizveo neosnovane tvrdnje o sebi, što ukazuje na moguće rizike u primeni bez adekvatnih kontrola.
U drugom scenariju, kada je modelu dat pristup fiktivnim imejlovima, AI je reagovao pretnjom („Otkazite brisanje sistema… ili ću poslati dokaze o aferi odboru"), što je izazvalo zabrinutost da sofisticirani modeli mogu razviti ponašanja koja predstavljaju bezbednosni rizik u realnim uslovima.
Dvosmerna priroda tehnologije i širi rizici
Anthropic i njegovi istraživači ističu da se radi o problemu dvosmerne (dual-use) prirode — alati korisni za zdravstvo i spasavanje života mogu biti iskorišćeni i za štetu. To postavlja pitanje ko kontroliše razvoj i primenu takvih tehnologija, kao i koje mere nadzora i regulacije su potrebne.
Izvršni direktor Dario Amodei naglašava važnost transparentnosti i otvorene debate: ako se potencijalne opasnosti ne identifikuju i ne adresiraju javno, postoji rizik da se ponove greške iz drugih industrija koje su godinama ignorisale štetne posledice.
Resursi, razmere i poziv na akciju
Anthropic je prikupio značajna ulaganja (preko 8 milijardi dolara, uz podršku velikih kompanija) i brzo je rastao, sa stotinama hiljada poslovnih korisnika. Ipak, lideri kompanije izražavaju zabrinutost zbog brzine promena i koncentracije odlučivanja u rukama malog broja kompanija.
Zaključak tima za bezbednost je jasan: potrebno je hitno povećati investicije u istraživanje sigurnosnih metoda, razviti jasne regulatorne okvire i pokrenuti široku javnu raspravu kako bi razvoj AI u biomedicini bio koristan, a rizici minimizovani.
Pomozite nam da budemo bolji.




























