Ministar odbrane Pete Hegseth sastaje se sa Dario Amodeijem iz Anthropic-a dok raste debata o vojnim primenama veštačke inteligencije. Anthropic, poznat po naglašavanju bezbednosti i etike, zasad ne isporučuje svoje modele u Pentagonovu mrežu GenAI.mil. Tema razgovora obuhvata rizike kao što su autonomni naoružani dronovi, masovni nadzor i ograničenja za vojnu upotrebu AI.
Rastu Tenzije: Hegseth Sastaje Se Sa Izvršnim Direktorom Anthropic-a Zbog Vojne Upotrebe AI

Ministar odbrane Pete Hegseth planira sastanak sa izvršnim direktorom kompanije Anthropic, Dariom Amodeijem, u trenutku pojačanih rasprava o granicama i rizicima primene veštačke inteligencije u vojne svrhe. Anthropic, tvorac chatbota Claude, jedina je od vodećih kompanija koja zasad ne isporučuje svoju tehnologiju u novu internu mrežu Pentagona, GenAI.mil, i nije želela da komentariše susret.
Zašto je sastanak važan
Sastanak, koji je potvrdio neimenovani zvaničnik Pentagona, stavlja u prvi plan razlike u pristupima industrije i vlade prema bezbednosti, etici i kontrolama upotrebe AI u situacijama visokog rizika — uključujući autonomno naoružanje, masovni nadzor i rukovanje osetljivim podacima.
Stavovi Anthropic-a
Dario Amodei je javno isticao zabrinutost zbog mogućnosti zloupotrebe moćnih modela: u eseju je upozorio da bi „moćna AI koja analizira milijarde razgovora miliona ljudi mogla da oceni javno raspoloženje, uoči formiranje žarišta nelojalnosti i uguši ih pre nego što narastu“. Anthropic sebe profilira kao kompaniju koja prioritizuje bezbednost i nezavisnu proveru modela, još od osnivanja 2021. nakon što su osnivači napustili OpenAI.
Pozicija Pentagona
Pentagon je prošlog leta dodelio ugovore četvoro kompanija — Anthropic, Google, OpenAI i xAI — svaki do vrednosti od 200 miliona dolara, u nastojanju da integriše generativne modele u svoje sisteme i procese. Anthropic je već dobio odobrenje za rad na klasifikovanim mrežama i sarađuje sa partnerima poput Palantira, dok su druge kompanije zasad angažovane u neklasifikovanim okruženjima.
„Neki konteksti su manje rizični, poput administrativnih zadataka, ali implementacija AI na bojnom polju nosi značajno veće rizike,“ kaže Owen Daniels iz Georgetownovog Centra za bezbednost i emergentne tehnologije.
Politički i industrijski kontekst
Diskusija se poklapa sa izjavama Hegsetha o borbi protiv, kako je rekao, "woke kulture" u oružanim snagama i njegovom zahtevom da vojni AI sistemi rade „bez ideoloških ograničenja koja bi sprečavala zakonite vojne primene“. To je dodatno podgrejalo debatu nakon što je Pentagon objavio da planira integraciju različitih komercijalnih modela u svoju mrežu, uključujući i kontroverzni Grok iz xAI koji je izazvao kritike zbog generisanja deepfake sadržaja.
Šta će sastanak verovatno razjasniti
Sastanak bi mogao da razjasni uslove u kojima će Anthropic možda prihvatiti širu saradnju sa Pentagonom, mere bezbednosti i nezavisne provere modela, kao i granice za primenu tehnologije u kontekstima koji uključuju upotrebu sile ili masovni nadzor. Analitičari napominju da kompanije koje se drže strožih standarda rizikuju gubitak uticaja u brzoj integraciji AI u državne sisteme, ali istovremeno mogu oblikovati regulative i norme koje će ublažiti buduće rizike.
Iz Providence-a izveštava O'Brien.
Pomozite nam da budemo bolji.

































