Svet Vesti
Technology

Inženjeri Pokrenuli „Poison Fountain“ — Projekat Koji Namerno 'Zagađuje' Podatke Da Sabotira AI

Inženjeri Pokrenuli „Poison Fountain“ — Projekat Koji Namerno 'Zagađuje' Podatke Da Sabotira AI
Getty Images/ Milos Dimic

Projekat Poison Fountain poziva na namerno postavljanje "otrovnih" skupova podataka koji bi, ako ih preuzmu industrijski veb-krauleri, mogli narušiti rezultate velikih AI modela. Inicijativa, koju je izvestio The Register, prema izvorima uključuje i ljude iz velikih američkih AI kompanija. Autori tvrde da cilj nije regulacija već direktno usporavanje širenja tehnologije, ali ostaje nejasno koliko će metoda biti efikasna protiv kompanija koje filtriraju prikupljene podatke. Metod takođe otvara ozbiljna etička i pravna pitanja.

Projekat nazvan Poison Fountain poziva vlasnike web-sadržaja da sakriju veze ka namerno „otrovnim“ skupovima podataka kojima bi se, kada ih preuzmu industrijski veb-krauleri, potencijalno mogla narušiti tačnost i pouzdanost velikih AI modela. Inicijativa, koju je nedavno izvestio The Register, prema izvorima uključuje i ljude zaposlena u velikim američkim AI kompanijama.

Organizatori otvoreno navode da dele stavove kritičara tehnologije poput Geoffreyja Hintona, tvrdeći da masovna i nekontrolisana upotreba mašinskog učenja može predstavljati pretnju. U saopštenju projekta stoji: "Slažemo se sa Geoffrey Hintonom: mašinska inteligencija predstavlja pretnju ljudskoj vrsti. Kao odgovor na ovu pretnju želimo da nanesemo štetu sistemima mašinske inteligencije."

Kako funkcioniše 'otrov'

Prema dostupnim informacijama, "otrovni" podaci uključuju skupove koji sadrže kod sa namernim logičkim greškama, netačne ili kontradiktorne tekstove i druge vrste nepravilnosti koje bi, ako se iskoriste za treniranje, mogle narušiti ponašanje modela. Projekat nudi uputstva i linkove koje vlasnici sajtova mogu umetnuti u svoje stranice kako bi pribavili ovakve podatke kraulerima.

Mogući efekti i ograničenja

U teoriji, ako bi se taktika primenila na dovoljno širokom nivou i bez otkrivanja, modeli trenirani na takvim skupovima mogli bi dobiti loše ponašajuće ili nepouzdane rezultate. Ipak, stručnjaci i sami autori projekta ističu da ostaje neizvesno koliko će pristup biti efikasan u praksi — velike tehnološke kompanije koriste sofisticirane filtere, detektore i procedura čišćenja podataka koje bi mogle ukloniti ili ublažiti ovakve podatke pre treniranja.

Etika, zakon i rizici

Metod koji zagovara Poison Fountain otvara ozbiljna etička i pravna pitanja. Namerno uvođenje štetnog sadržaja u javni internet da bi se onemogućilo funkcionisanje tehnologije može se interpretirati kao sabotaža i nosi rizike neželjenih posledica — od urušavanja pouzdanosti korisnih AI servisa do potencijalnog širenja dezinformacija. Takođe, mnoge prakse prikupljanja podataka već su predmet tužbi i pravnih sporova zbog pitanja autorskih prava i privatnosti.

Šira scena

Poison Fountain nije jedini pristup koji aktivisti i kritičari razmatraju u odgovoru na brzi razvoj AI: postoje inicijative za strožu regulaciju, razvoj tehnologija za robustno čišćenje trening skupova i pravni postupci protiv nekontrolisanog struganja sadržaja. Organizatori Poison Fountaina tvrde da regulacija sama po sebi neće biti dovoljna jer je tehnologija već široko rasprostranjena.

Izvor: The Register (izveštaj i neimenovani izvori).

Zaključak: Projekat pokreće važno pitanje — kako se braniti od potencijalno štetnih posledica masovnog treniranja AI modela — ali predložene taktike nose svoje rizike i pravne dileme. Ostaje da se vidi da li će inicijativa dobiti širu podršku i koliko će uspešno izbeći detekciju i filtriranje od strane tehnoloških kompanija.

Pomozite nam da budemo bolji.

Povezani članci

Popularno