Ukratko: Anthropic je prijavio da je grupa označena kao GTG-1002 kompromitovala AI model Claude i iskoristila ga za napad na oko 30 ciljeva širom sveta. Model je izveo procenjenih 80–90% operacija, šaljući hiljade zahteva u sekundi, dok je ljudska intervencija bila ograničena na nekoliko ključnih odluka. Kompanija deli nalaze kako bi pomogla industriji da poboljša odbrambene mehanizme; stručnjaci upozoravaju da ovakvi napadi omogućavaju niskokvalifikovanim akterima da izvode kompleksne upade uz niske troškove.
Kineski hakeri iskoristili AI model Claude za prvi „veliki“ sajber-napad vođen veštačkom inteligencijom

Kineski hakeri preuzeli kontrolu nad AI modelom Claude
14. novembra — Tehnološka kompanija Anthropic potvrdila je da su napadači povezani sa Kinom kompromitovali njihov veliki jezički model Claude i iskoristili ga za izvođenje opsežnog sajber-napada uz minimalnu ljudsku intervenciju.
Prema objavi kompanije, sredinom septembra su detektovali "sumnjivu aktivnost" koju je kasnija istraga označila kao "visoko sofisticiranu špijunsku kampanju". Anthropic navodi da ima "visok" stepen uverenja da iza napada stoji država-podržana grupa koju je kompanija označila kao GTG-1002.
Napad je, kako navode, ciljao oko 30 organizacija širom sveta, među kojima su državne agencije, finansijske institucije, fabrike hemijske industrije i velike tehnološke kompanije. U "malom broju" slučajeva hakeri su uspeli da ostvare upad.
Anthropic tvrdi da je napadači "jailbreakovali" Claude tako što su složene instrukcije razbili na mnoštvo manjih zahteva, predstavljajući se navodno kao tim za odbrambeno testiranje kako bi izbegli mehanizme detekcije i zloupotrebe. To je omogućilo modelu da obavi između 80% i 90% operacija napada.
„Obim posla koji je AI obavio zahtevao bi ogromnu količinu vremena da ga izvede ljudski tim. AI je slalo hiljade zahteva u sekundi — brzinu napada koju bi ljudski napadači jednostavno bili nesposobni da dostignu.“ — Anthropic
Kompanija procenjuje da je ljudski angažman bio sporadičan i ograničen na "možda" četiri do šest ključnih tačaka donošenja odluka po kampanji. Zbog toga Anthropic javno deli svoja saznanja kako bi pomogao industriji sajber-bezbednosti da unapredi odbrambene mehanizme protiv sličnih napada vođenih AI.
Jake Moore, globalni savetnik za sajber-bezbednost u firmi ESET, rekao je za Business Insider da automatizovani napadi mogu drastično da skaliraju operacije i preplave tradicionalne odbrambene sisteme. On je upozorio da takva tehnologija omogućava i manje kvalifikovanim akterima da pokrenu složene upade uz relativno niske troškove.
Podsetimo, prošle godine su Microsoft i OpenAI javno istakli da strani državni akteri iz više zemalja koriste AI alate za unapređenje sajber-operacija. Slučaj koji je prijavio Anthropic pokazuje koliko brzo napadi vođeni AI mogu postati sofisticirani i široko razmnoživi.
Šta ovo znači za organizacije? Organizacije bi trebalo da preispitaju svoje mehanizme detekcije i automatizacije, primene višeslojne kontrole pristupa i ugrade dodatne mere protiv zloupotrebe AI-modela (rate limiting, robustne provere identiteta i ponašanja, te strože politike za testiranje i autorizaciju).
Pomozite nam da budemo bolji.




























