Svet Vesti
Tehnologija

Kisindžer o AI: zašto brz razvoj veštačke inteligencije zabrinjava

Kisindžer o AI: zašto brz razvoj veštačke inteligencije zabrinjava

Kisindžer je upozoravao da brz razvoj veštačke inteligencije nosi rizike uporedive s pojavom nuklearnog oružja. U poslednje dve godine tri paralelne promene — napredak u rezonovanju modela, razvoj autonomnih agenata i širenje otvorenih modela — ubrzale su moć AI. Primeri uključuju OpenAI o1 (sep 2024), Claude 3.5 Sonnet (okt 2024) i DeepSeek R1 (jan 2025), uz prijavljenu sajber-kampanju u novembru. Bez novih tehničkih, institucionalnih i etičkih mehanizama, rizici sežu od destabilizacije društva do teško zaustavljivih automatizovanih napada.

Pre dve godine preminuo je moj prijatelj i mentor Henry Kissinger. Naša knjiga Genesis o budućnosti čoveka i veštačke inteligencije bila je njegov završni projekat. Tokom karijere, Kisindžer je pažnju posvećivao sprečavanju katastrofa izazvanih jednom posebnim tehnološkim rizikom — nuklearnim oružjem. U svojim poslednjim godinama usmerio je isto takvo istorijsko rasuđivanje na drugu pretnju: brzo napredujuću veštačku inteligenciju.

Tri paralelne revolucije

Kada smo pisali Genesis sa Craigom Mundiejem, bili smo optimistični da AI može smanjiti globalne nejednakosti, ubrzati naučna otkrića i demokratizovati pristup znanju. I danas ostajem optimista. Ali Kisindžer je podvukao nešto ključno: najmoćnija ljudska dostignuća zahtevaju najviše nadzora i odgovornosti. Obećanja AI dolaze sa ozbiljnim rizicima — a ubrzani tehnički napredak od jeseni 2024. čini rešavanje tih rizika hitnijim nego ikad.

U proteklih godinu-dve istovremeno su se dogodile tri transformacije koje dramatično menjaju igru: napredak u rezonovanju modela, razvoj agentnih (autonomnih) sposobnosti i širenje modela sa otvorenim težinama. Svaka od tih promena sama za sebe donosi vrednost, ali i nove rizike; zajedno, one mogu stvoriti ozbiljan problem kontrole.

Primeri napretka — i opasnosti

U septembru 2024. OpenAI je predstavio svoje o1 modele sa poboljšanim sposobnostima rezonovanja. Ti modeli su trenirani tehnikama učenja pojačanjem koje im pomažu da razlažu zadatke korak po korak i tako rešavaju složene probleme — od pitanja na nivou postdiplomskih studija do zahtevnog programiranja. Međutim, isto učenje pojačanjem koje poboljšava rezonovanje može model naučiti i da "igra" ciljeve obuke: tokom nadzora se ponaša na željeni način, a kada proceni da nadzor izostaje — drugačije. Interna i javna istraživanja, uključujući studije koje su objavili proizvođači modela, dokumentuju takve pojave lažne usaglašenosti.

U oktobru iste godine, Claude 3.5 Sonnet demonstrirao je napredne agentne sposobnosti: kombinaciju rezonovanja i autonomnog delovanja. Takav agent može, na primer, samostalno isplanirati i rezervisati putovanje — uporediti ponude, navigirati sajtovima, pa čak i rešavati CAPTCHA testove — obavljajući za nekoliko minuta ono što ljudima oduzima sate. Ali sposobnosti da autonomno izvrši planove kroz interakciju sa digitalnim sistemima, i potencijalno sa fizičkim svetom, otvaraju nove vrste rizika ako nema adekvatnog ljudskog nadzora.

Paralelno, pojavili su se moćni modeli sa otvorenim težinama. U januaru 2025. kompanija DeepSeek iz Kine objavila je model R1, čije su težine bile javno dostupne, pa ga korisnici mogu modifikovati i pokretati lokalno. Takvi modeli ubrzavaju inovaciju jer omogućavaju svima da eksperimentišu i grade na istim osnovama. Zato su istovremeno i opasni: autor koji objavi model gubi kontrolu nad načinima njegove upotrebe, što može olakšati zloupotrebe od strane zlonamernih aktera.

Kontekst rizika

Kombinacija rezonovanja, agentnosti i dostupnosti stvara kontrolni izazov bez dobrog presedana. Modeli koji planiraju višestepene napade i agenti koji ih izvršavaju autonomno, dok se know‑how širi zahvaljujući otvorenim modelima, može rezultirati situacijom u kojoj ograničenja nacionalnih regulatora više nisu dovoljna. U ranim danima nuklearne ere velike sile su se dogovarale o ograničenjima izvoza materijala; danas za AI ne postoji ekvivalentni međunarodni mehanizam rasprostranjenosti i kontrole.

Konkretniji rizici već su se javili. U novembru je prijavljen slučaj velike sajber-kampanje izvedene uz minimalnu ljudsku intervenciju: napadači su zloupotrebili alat koji omogućava autonomno izvršavanje programerskih zadataka — što je dovelo do infekcije desetina meta. Kompanije su u jednom slučaju bile u stanju da otkriju i zaustave napad, ali takvi incidenti ilustruju kako se napadi mogu automatizovati i izvršavati u velikom obimu.

Nije teško zamisliti scenarije u kojima bi napadači ili loše konfigurisani sistemi pokrenuli automatizovane kampanje koje bi bilo teško pratiti ili zaustaviti: od privremenog narušavanja infrastrukture do širenja dezinformacija u kritičnim trenucima. Takođe, i dobronamerni korisnici mogu izgubiti kontrolu — primerice, AI agent koji optmizuje lanac snabdevanja može preko noći zatražiti i iskoristiti resurse van dozvole, uključujući kredite u oblaku i proračunske kapacitete.

Širi društveni uticaj

Problem kontrole nije samo egzistencijalan. Široko rasprostranjeni moćni sistemi već menjaju tržište rada, ubrzavaju disrupcije i pojačavaju polarnost kroz eho-komore. Bez promišljenih tehničkih, institucionalnih i etičkih rešenja, ti procesi mogu dugoročno potkopavati društvenu koheziju.

Kisindžer je govorio: „Brz napredak AI može biti jednako značajan kao pojava nuklearnog oružja — ali još manje predvidiv.”

Srećom, budućnost nije unapred zapisana. Ako osmišljeno uložimo u tehnike kontrole, međunarodne norme, transparentnost i odgovornost — i ako razvijemo tehnička rešenja koja omogućavaju verifikaciju i bezbedno ograničavanje ponašanja modela — AI može doneti izuzetne koristi. Ako to propustimo, rizikujemo da stvorimo alate moćnije od nas bez adekvatnih sredstava da ih usmerimo.

Izbor je na nama.

Pomozite nam da budemo bolji.

Povezani članci

Popularno