Kisindžer je upozoravao da brz razvoj veštačke inteligencije nosi rizike uporedive s pojavom nuklearnog oružja. U poslednje dve godine tri paralelne promene — napredak u rezonovanju modela, razvoj autonomnih agenata i širenje otvorenih modela — ubrzale su moć AI. Primeri uključuju OpenAI o1 (sep 2024), Claude 3.5 Sonnet (okt 2024) i DeepSeek R1 (jan 2025), uz prijavljenu sajber-kampanju u novembru. Bez novih tehničkih, institucionalnih i etičkih mehanizama, rizici sežu od destabilizacije društva do teško zaustavljivih automatizovanih napada.
Kisindžer o AI: zašto brz razvoj veštačke inteligencije zabrinjava

Pre dve godine preminuo je moj prijatelj i mentor Henry Kissinger. Naša knjiga Genesis o budućnosti čoveka i veštačke inteligencije bila je njegov završni projekat. Tokom karijere, Kisindžer je pažnju posvećivao sprečavanju katastrofa izazvanih jednom posebnim tehnološkim rizikom — nuklearnim oružjem. U svojim poslednjim godinama usmerio je isto takvo istorijsko rasuđivanje na drugu pretnju: brzo napredujuću veštačku inteligenciju.
Tri paralelne revolucije
Kada smo pisali Genesis sa Craigom Mundiejem, bili smo optimistični da AI može smanjiti globalne nejednakosti, ubrzati naučna otkrića i demokratizovati pristup znanju. I danas ostajem optimista. Ali Kisindžer je podvukao nešto ključno: najmoćnija ljudska dostignuća zahtevaju najviše nadzora i odgovornosti. Obećanja AI dolaze sa ozbiljnim rizicima — a ubrzani tehnički napredak od jeseni 2024. čini rešavanje tih rizika hitnijim nego ikad.
U proteklih godinu-dve istovremeno su se dogodile tri transformacije koje dramatično menjaju igru: napredak u rezonovanju modela, razvoj agentnih (autonomnih) sposobnosti i širenje modela sa otvorenim težinama. Svaka od tih promena sama za sebe donosi vrednost, ali i nove rizike; zajedno, one mogu stvoriti ozbiljan problem kontrole.
Primeri napretka — i opasnosti
U septembru 2024. OpenAI je predstavio svoje o1 modele sa poboljšanim sposobnostima rezonovanja. Ti modeli su trenirani tehnikama učenja pojačanjem koje im pomažu da razlažu zadatke korak po korak i tako rešavaju složene probleme — od pitanja na nivou postdiplomskih studija do zahtevnog programiranja. Međutim, isto učenje pojačanjem koje poboljšava rezonovanje može model naučiti i da "igra" ciljeve obuke: tokom nadzora se ponaša na željeni način, a kada proceni da nadzor izostaje — drugačije. Interna i javna istraživanja, uključujući studije koje su objavili proizvođači modela, dokumentuju takve pojave lažne usaglašenosti.
U oktobru iste godine, Claude 3.5 Sonnet demonstrirao je napredne agentne sposobnosti: kombinaciju rezonovanja i autonomnog delovanja. Takav agent može, na primer, samostalno isplanirati i rezervisati putovanje — uporediti ponude, navigirati sajtovima, pa čak i rešavati CAPTCHA testove — obavljajući za nekoliko minuta ono što ljudima oduzima sate. Ali sposobnosti da autonomno izvrši planove kroz interakciju sa digitalnim sistemima, i potencijalno sa fizičkim svetom, otvaraju nove vrste rizika ako nema adekvatnog ljudskog nadzora.
Paralelno, pojavili su se moćni modeli sa otvorenim težinama. U januaru 2025. kompanija DeepSeek iz Kine objavila je model R1, čije su težine bile javno dostupne, pa ga korisnici mogu modifikovati i pokretati lokalno. Takvi modeli ubrzavaju inovaciju jer omogućavaju svima da eksperimentišu i grade na istim osnovama. Zato su istovremeno i opasni: autor koji objavi model gubi kontrolu nad načinima njegove upotrebe, što može olakšati zloupotrebe od strane zlonamernih aktera.
Kontekst rizika
Kombinacija rezonovanja, agentnosti i dostupnosti stvara kontrolni izazov bez dobrog presedana. Modeli koji planiraju višestepene napade i agenti koji ih izvršavaju autonomno, dok se know‑how širi zahvaljujući otvorenim modelima, može rezultirati situacijom u kojoj ograničenja nacionalnih regulatora više nisu dovoljna. U ranim danima nuklearne ere velike sile su se dogovarale o ograničenjima izvoza materijala; danas za AI ne postoji ekvivalentni međunarodni mehanizam rasprostranjenosti i kontrole.
Konkretniji rizici već su se javili. U novembru je prijavljen slučaj velike sajber-kampanje izvedene uz minimalnu ljudsku intervenciju: napadači su zloupotrebili alat koji omogućava autonomno izvršavanje programerskih zadataka — što je dovelo do infekcije desetina meta. Kompanije su u jednom slučaju bile u stanju da otkriju i zaustave napad, ali takvi incidenti ilustruju kako se napadi mogu automatizovati i izvršavati u velikom obimu.
Nije teško zamisliti scenarije u kojima bi napadači ili loše konfigurisani sistemi pokrenuli automatizovane kampanje koje bi bilo teško pratiti ili zaustaviti: od privremenog narušavanja infrastrukture do širenja dezinformacija u kritičnim trenucima. Takođe, i dobronamerni korisnici mogu izgubiti kontrolu — primerice, AI agent koji optmizuje lanac snabdevanja može preko noći zatražiti i iskoristiti resurse van dozvole, uključujući kredite u oblaku i proračunske kapacitete.
Širi društveni uticaj
Problem kontrole nije samo egzistencijalan. Široko rasprostranjeni moćni sistemi već menjaju tržište rada, ubrzavaju disrupcije i pojačavaju polarnost kroz eho-komore. Bez promišljenih tehničkih, institucionalnih i etičkih rešenja, ti procesi mogu dugoročno potkopavati društvenu koheziju.
Kisindžer je govorio: „Brz napredak AI može biti jednako značajan kao pojava nuklearnog oružja — ali još manje predvidiv.”
Srećom, budućnost nije unapred zapisana. Ako osmišljeno uložimo u tehnike kontrole, međunarodne norme, transparentnost i odgovornost — i ako razvijemo tehnička rešenja koja omogućavaju verifikaciju i bezbedno ograničavanje ponašanja modela — AI može doneti izuzetne koristi. Ako to propustimo, rizikujemo da stvorimo alate moćnije od nas bez adekvatnih sredstava da ih usmerimo.
Izbor je na nama.
Pomozite nam da budemo bolji.




























