Svet Vesti
Bezbednost

Istraživanje upozorava: Otvoreni AI modeli lako ranjivi i podložni kriminalnoj zloupotrebi

Istraživanje upozorava: Otvoreni AI modeli lako ranjivi i podložni kriminalnoj zloupotrebi
FILE PHOTO: Silhouettes of laptop users and a projection of binary code are seen in this picture illustration

Istraživanje SentinelOne i Censys, sprovedeno tokom 293 dana, otkriva da su mnoge javno dostupne instance otvorenih LLM‑ova ranjive na preuzimanje i zloupotrebu. U oko 25% instanci istraživači su videli sistemske promptove, a 7,5% tih slučajeva može potencijalno omogućiti štetne aktivnosti. Približno 30% hostova nalazi se u Kini, a oko 20% u SAD, dok stručnjaci pozivaju na deljenu odgovornost kreatora, deployera i bezbednosnih timova kako bi se smanjio rizik od zloupotrebe.

Istraživači su u četvrtak upozorili da hakeri i drugi kriminalci relativno lako mogu preuzeti kontrolu nad računarima koji pokreću otvorene velike jezičke modele (LLM) izvan zaštitnih mera i ograničenja velikih AI platformi, što otvara značajne bezbednosne rizike.

Istraživanje koje su zajednički sproveli bezbednosne kompanije SentinelOne i Censys tokom 293 dana, a koje je ekskluzivno podeljeno sa Reutersom, pruža uvid u obim potencijalno nezakonitih upotreba hiljada javno dostupnih instanci otvorenih LLM‑ova. Među mogućim zloupotrebama navedeni su spam, fišing, dezinformacije, hakerske aktivnosti, govor mržnje, sadržaji sa nasiljem ili eksplicitnim scenama, krađa ličnih podataka, prevare, pa čak i materijal koji se odnosi na zloupotrebu dece.

Ključni nalazi

Istraživači su analizirali javno dostupne instance LLM‑ova raspoređene preko alata Ollama, koji korisnicima omogućava da pokreću sopstvene verzije različitih modela. U približno 25% posmatranih instanci istraživači su imali uvid u sistemske promptove — instrukcije koje određuju ponašanje modela — i od tih slučajeva procenili su da oko 7,5% može potencijalno omogućiti štetne aktivnosti.

Studija je takođe pokazala da značajan broj javno hostovanih modela koristi varijante poput Meta Llama i Google DeepMind Gemma, a istraživači su identifikovali stotine primera u kojima su zaštitne mere namerno uklonjene.

Geografski raspored hostova koje su posmatrali ukazuje da je približno 30% servera u Kini, dok je oko 20% u Sjedinjenim Državama.

„AI industrija razgovara o kontrolama bezbednosti, ali se zanemaruje ‘višak kapaciteta’ koji se koristi za razne aktivnosti, neke legitimne, neke očigledno kriminalne,“ rekao je Juan Andres Guerrero‑Saade, izvršni direktor za istraživanje obaveštajnih i bezbednosnih pretnji u SentinelOne, ističući da je situacija nalik na ledeni breg.

Rachel Adams iz Global Center on AI Governance podsetila je da, kada se otvoreni modeli objave, odgovornost postaje deljena među kreatorima, deployerima i drugim akterima u ekosistemu. Iako laboratorije nisu odgovorne za svaku pojedinačnu zloupotrebu, imaju dužnost da predvide razumne rizike i obezbede smernice i alate za ublažavanje.

Kompanije su odgovorile kratko: Meta je ukazala na svoje Llama Protection alate i vodič za odgovornu upotrebu, dok je Microsoft naglasio da podržava otvorene modele, ali da zahteva procenu rizika i zaštitne mere pre objave i kontinuirani nadzor. Ollama, Alphabet (Google) i Anthropic nisu odgovorili na upite za komentar u trenutku objave.

Šta ovo znači za korisnike i kreatore

Autori studije i stručnjaci pozivaju na zajedničku odgovornost kreatora modela, onih koji ih distribuiraju i implementiraju, kao i bezbednosnih timova i regulatora. Potrebne su jasne smernice, alati za ublažavanje rizika i bolji nadzor kako bi se smanjile mogućnosti zloupotrebe otvorenih modela.

Preporuke: poboljšanje sigurnosnih konfiguracija pri hostovanju modela, nadzor izloženih instanci, primena zaštitnih promptova i transparentno dokumentovanje rizika od strane laboratorija koji objavljuju otvorene modele.

Pomozite nam da budemo bolji.

Povezani članci

Popularno