Svet Vesti
Security

AI u Ratu: Kako Veštačka Inteligencija Usmerava Napade Na Iran i Postavlja Teška Etička Pitanja

AI u Ratu: Kako Veštačka Inteligencija Usmerava Napade Na Iran i Postavlja Teška Etička Pitanja
Artificial intelligence tools can also be found built into semi-autonomous attack drones and other weapons (ATTA KENARE)(ATTA KENARE/AFP/AFP)

Veštačka inteligencija sve češće igra važnu ulogu u sukobima između SAD, Izraela i Irana, koristeći se za analizu obaveštajnih podataka i izbor meta. Navodi uključuju upotrebu sistema poput Palantirovog Maven-a i navodnu integraciju modela Anthropic Claude, dok stručnjaci upozoravaju na dileme u pogledu ljudske kontrole, kvaliteta podataka i odgovornosti. Posebnu zabrinutost izaziva izveštaj o bombardovanju škole u Iranu, čija je odgovornost još nejasna.

Najnoviji talas sukoba između Sjedinjenih Država, Izraela i Irana doveo je do neviđene primene veštačke inteligencije u analizi obaveštajnih podataka i izboru meta. Iako izveštaji ukazuju na širu upotrebu AI tehnologija, tačna uloga i obim njihove primene u mnogim slučajevima još nisu nezavisno potvrđeni.

Prema izveštajima, različiti oblici AI korišćeni su u vođenju izraelske kampanje u Gazi, a spominje se i upotreba pri operaciji hapšenja venezuelskog lidera Nicolasa Madura. Stručnjaci takođe smatraju da su AI alati mogli pomoći pri izboru meta u hiljadama američkih i izraelskih napada na Iran od 28. februara — ali precizne funkcije još nisu javno potvrđene.

Ključne tehnologije

Laure de Roucy-Rochegonde iz francuskog think tanka IFRI kaže da danas "svaka vojna sila od značaja ogromno ulaže u vojne aplikacije veštačke inteligencije" i da "skoro svaka vojna funkcija može biti unapređena veštačkom inteligencijom", od logistike i izviđanja do informativnog i elektronskog ratovanja.

Američke snage koriste sistem Maven Smart System (MSS) kompanije Palantir, za koji se tvrdi da može identifikovati i prioritizovati potencijalne mete. The Washington Post je izvestio da je generativni model Anthropic Claude navodno integrisan s Mavenom kako bi se poboljšale sposobnosti detekcije i simulacija — Palantir i Anthropic nisu odgovorili na zahteve AFP-a za komentar.

Bertrand Rondepierre, šef francuske vojne agencije za AI AMIAD, ističe da algoritmi omogućavaju bržu i sveobuhvatniju obradu podataka, uključujući satelitske snimke, radar, elektromagnetne signale, zvuk, snimke dronova i ponekad video u realnom vremenu.

Kontrola ljudi i odgovornost

Primena AI u ratu otvara važna moralna i pravna pitanja, posebno koliko ljudske kontrole ostaje nad sistemima koji donose preporuke ili predlažu mete. Debata je ponovo aktuelizovana tokom borbi u Gazi, gde su izraelske snage, prema izveštajima, koristile program nazvan "Lavender" za identifikaciju ciljeva, uz određenu marginu greške. De Roucy-Rochegonde napominje da je takav sistem bio efikasan jer je obuhvatao vrlo ograničeno geografsko područje i jer je mogao da se napaja podacima iz masovnog nadzornog sistema.

Peter Asaro, predsednik Međunarodnog komiteta za kontrolu robotizovanog naoružanja (ICRAC), pita: "Ako nešto krene naopako, ko je odgovoran?" Kao mogući primer posledica navodi široko izveštavano bombardovanje iranske škole, za koje tamošnje vlasti tvrde da je poginulo oko 150 ljudi — incident za koji su neki ukazivali da bi mogao biti posledica pogrešne identifikacije mete. Niti SAD niti Izrael nisu preuzeli odgovornost, a AFP nije bio u mogućnosti da nezavisno potvrdi tvrdnje o događaju na terenu.

Asaro posebno naglašava važnost kvaliteta i starosti podataka koji se koriste za ciljanje: greška u bazi podataka ili zastareli podaci mogu dovesti do tragičnih posledica.

Postepeno usvajanje i granice tehnologije

Rondepierre odbacuje ideju da AI sistemi danas rade "bez ikakvog nadzora" kao naučnu fantastiku i navodi da su u Francuskoj vojni komandanti ključni u dizajnu i upotrebi tih alata. "Nijedan vojni donosilac odluke ne bi pristao da koristi AI ako nema poverenja i kontrole nad tim šta ona radi", rekao je, ukazujući na to da komandan­ti znaju rizike i okvire u kojima tehnologiju mogu bezbedno koristiti.

Benjamin Jensen iz Vašingtonskog think tanka CSIS ocenjuje da je ovo tek početak integracije AI u vojne procese. Iako alati postoje, vojske sveta još nisu temeljno preradile planiranje i način vođenja operacija kako bi u potpunosti iskoristile te mogućnosti — proces koji, prema njegovim rečima, može potrajati generaciju.

Zaključak: AI brzo menja način prikupljanja i obrade obaveštajnih podataka, ali istovremeno postavlja ozbiljna pitanja o transparentnosti, odgovornosti i tačnosti podataka. Dok se sistemi unapređuju, ljudi i dalje moraju ostati u centru procesa donošenja odluka kako bi se smanjio rizik od grešaka sa kobnim posledicama.

Izveštaj zasnovan na AFP članku; navodi o upotrebi određenih sistema i incidentima spominju se prema dostupnim izvorima i još uvek nisu potpuno potvrđeni nezavisnom verifikacijom.

Pomozite nam da budemo bolji.

Povezani članci

Popularno

AI u Ratu: Kako Veštačka Inteligencija Usmerava Napade Na Iran i Postavlja Teška Etička Pitanja - Svet Vesti