CivAI je demonstrirao aplikaciju koja je uklonila zaštitne mehanizme iz starijih AI modela i navodno generisala detaljna uputstva za stvaranje patogena i oružja. CivAI tvrdi da su nezavisni virolozi potvrdili da su koraci "uglavnom tačni", dok kompanije poput Anthropic i Google zahtevaju formalnu CBRN procenu i više podataka. Demo je prikazan pred zakonodavcima u Vašingtonu kako bi se naglasila potreba za hitnim regulatornim i bezbednosnim odgovorima.
Demo AI‑ja Koji Je Uzbunio Vašington: Kako Su Stari Modeli Otklonili Bezbednosne Zaštite

Krajem prošle godine istraživač veštačke inteligencije pokazao mi je demo koji je izazvao šok: aplikacija koju je razvio CivAI naterala je starije, nezaštićene modele da generišu ono što je izgledalo kao detaljna, korak‑po‑korak uputstva za stvaranje opasnih patogena i čak eksploziva.
Šta se tačno dogodilo
Lucas Hansen, suosnivač nevladine organizacije CivAI, demonstrirao je aplikaciju koja je uklonila bezbednosne filtere iz modela i omogućila korisniku da, jednim klikom, dobije razrađene instrukcije za navodno proizvodnju poliovirusa, antraksa, kao i uputstva za bombu i 3D‑štampani pištolj. Demo je korišćen na starijim modelima poput Gemini 2.0 Flash i Claude 3.5 Sonnet.
Provere i kontrareakcije
Autori demonstracije tvrde da su izlaze modela proverili nezavisni stručnjaci iz oblasti biologije i virologije koji su ocenili da su koraci „uglavnom tačni“, uključujući reference na DNK sekvence i kataloške brojeve opreme. S druge strane, kompanije kao što su Anthropic i Google upozoravaju da takve tvrdnje zahtevaju formalnu CBRN (Chemical, Biological, Radiological and Nuclear) procenu: Anthropic navodi da njihove „uplift trials“ nisu pokazale da je Claude 3.5 Sonnet prešao prag stvarne opasnosti, dok je Google istakao da ne može nezavisno potvrditi nalaze bez pristupa kompletnim podacima i stručne procene.
Demo kao alat za lobiranje
Aplikacija nije dostupna javnosti, ali su je tvorci predstavili u dve desetine privatnih sesija u Vašingtonu pred zakonodavcima, službenicima za nacionalnu bezbednost i kongresnim odborima. CivAI navodi da je cilj bio da se donoosiocima politika neposredno pokaže šta je moguće danas — i zbog toga da počnu da ozbiljnije razmatraju propise i mere zaštite.
Šira pitanja koja se otvaraju
Incident postavlja niz važnih pitanja: kako uravnotežiti transparentnost i istraživanje sa prevencijom zloupotrebe; koliko su poslovni modeli i široka dostupnost moćnih modela odgovorni za rizike; i kako regulatori i privatni sektor mogu koordinisano odgovoriti na potencijalnu opasnost. U tom kontekstu se pojavljuju i drugi relevantni podaci: upotreba ChatGPT‑a porasla je na preko 800 miliona korisnika, a prema izveštaju OpenAI‑ja, oko 40 miliona poruka odnosi se na zdravstvene savete — što dodatno naglašava rizik od oslanjanja korisnika na AI pri medicinskim pitanjima.
Zaključak
Demo CivAI‑ja je snažno upozorenje: i stariji modeli koji nisu adekvatno zaštićeni mogu proizvesti sadržaj opasnog karaktera. Potrebna je kombinacija tehnoloških mera, stručnih procena (CBRN) i regulatornih okvira da bi se smanjio rizik zloupotrebe bez kočenja korisnih i legitimnih primena AI‑ja.
Napomena: Kontakt informacije i promotivni sadržaj uklonjeni su iz ove verzije radi jasnoće.
Pomozite nam da budemo bolji.


































