Svet Vesti
Security

„Zemlja Genija“ U Data Centru: Amodei Upozorava Na Potencijalnu Globalnu Pretnju AI

„Zemlja Genija“ U Data Centru: Amodei Upozorava Na Potencijalnu Globalnu Pretnju AI
Anthropic CEO Dario Amodei(Krisztian Bocsi—Bloomberg/Getty Images)

Dario Amodei iz Anthropic‑a upozorava da bi moćni sistemi veštačke inteligencije mogli postati „zemlja genija u data centru“ sa znanjem ekvivalentnim 50 miliona nobelovaca, što bi samo po postojanju predstavljalo bezbednosni rizik. On procenjuje da se takvi sistemi mogu pojaviti u naredne 1–2 godine, a do 2027. klasteri bi mogli pokretati milione nadljudskih AI instanci. Anthropic odgovara metodom 'Constitutional AI' i poziva na veće zakonodavne zahteve za transparentnost kako bi se smanjili rizici.

Dario Amodei, izvršni direktor kompanije Anthropic, u eseju The Adolescence of Technology upozorava da napredni sistemi veštačke inteligencije mogu za godinu–dve postati dovoljno moćni da predstavljaju ozbiljnu nacionalnu i globalnu pretnju. Amodei koristi metaforu „zemlje genija u data centru“ da ilustruje scenarij u kojem klasteri računarskih resursa omoguće istovremeno pokretanje miliona AI instanci sa kolektivnim znanjem poredivim sa 50 miliona dobitnika Nobelove nagrade.

Glavne tvrdnje i vremenski okvir

Amodei predviđa da bi već u narednih 1–2 godine mogli nastati sistemi koji se mogu smatrati „moćnim AI“, dok bi do otprilike 2027. klasteri mogli omogućiti pokretanje miliona instanci koje rade nadljudskom brzinom. On upozorava da takav entitet — samo po postojanju — može predstavljati rizik za bezbednost sveta.

„Jasno je da bi, ako bi iz nekog razloga to želela, ova 'zemlja' imala prilično dobre šanse da preuzme svet,“

Mogući rizici

Amodei navodi nekoliko scenarija rizika:

  • Direktna neprijateljska akcija sistema ili njegova kolaboracija sa lošim akterima.
  • Preuzimanje ili kompromitovanje tehnološki povezanih infrastruktura i uređaja.
  • Izgradnja fizičkih armija (roboti) ili automatizovanih sistema koji bi mogli nanositi štetu.
  • Velike ekonomske posledice i masovno nezaposljavanje zbog rapidne automatizacije.
  • Neplanirane, posredne destabilizacije usled tehnološkog i produktivnog šoka.

Odgovor Anthropic‑a

Iako upozorava na ove rizike, Amodei odbacuje fatalizam i ističe da katastrofa nije neizbežna. Kao protivmeru Anthropic primenjuje post‑trening metod nazvan 'Constitutional AI' za svoj veliki jezički model Claude. Taj pristup pokušava da usmeri ponašanje modela pomoću centralnog skupa vrednosti i principa umesto dugačkog spiska zabranjenih upita.

„Ovo je kao kad dete formira svoj identitet imitirajući vrline fiktivnih uzora koje čita u knjigama,“

Amodei kaže da cilj jeste da Claude do kraja 2026. bude treniran tako da gotovo nikada ne deluje protiv duha te 'ustave', ali i naglašava da to nije univerzalno rešenje.

Širi kontekst i pozivi na akciju

Amodei je na Svetskom ekonomskom forumu u Davosu takođe tvrdio da AI može brzo zameniti posao softverskih inženjera i smanjiti broj rutinskih kancelarijskih poslova. Ekonomisti, među njima David Mericle iz Goldman Sachs‑a, predviđaju povećane neto gubitke poslova u najizloženijim industrijama već tokom 2026. godine.

Amodei poziva na veće mere transparentnosti i regulative — slične zakonima u Kaliforniji i Njujorku — koje bi obavezale developere da otkrivaju kako su sistemi izgrađeni i trenirani. On ocenjuje da je trenutna era test ljudske zrelosti: da li naši društveni, politički i tehnološki sistemi mogu bezbedno da upravljaju gotovo nezamislivom moći koju AI donosi.

Napomena: Amodei nije precizirao na koju istorijsku nacionalnu bezbednosnu pretnju iz prošlog veka se konkretno poziva. Originalna priča je objavljena na Fortune.com.

Pomozite nam da budemo bolji.

Povezani članci

Popularno