Tekst upozorava da mnogi zakoni o AI ne prave jasnu razliku između opšte namene AI i namenski dizajniranih sistema, što stvara pravne praznine i mogućnost izbegavanja odgovornosti. Autor identifikuje pet uobičajenih grešaka u regulativi i objašnjava zašto pravila moraju ciljati funkciju i posledice AI, a ne samo tehniku. Poziva zakonodavce na precizne definicije, usklađivanje starih i novih propisa i pragmatičan pristup nadzoru.
Zakonodavci Propuštaju Razliku Između Opšte Namene i Namenski Dizajniranih AI — Zašto To Pravi Problem

U ovom tekstu upozoravam na čestu i značajnu grešku pri regulisanju veštačke inteligencije: zakonodavci često ne prave jasnu razliku između opštih modela (general-purpose AI) i sistema koji su namenski dizajnirani za jednu funkciju. Takva nepažnja dovodi do pravnih praznina, konfuzije i mogućnosti za izbegavanje odgovornosti.
Zašto je razlika važna
Razmotrite primenu u oblasti mentalnog zdravlja. Ljudi koriste opšte jezičke modele poput ChatGPT, GPT-5, Claude, Gemini i sličnih za dobijanje saveta. Ti modeli nisu posebno trenirani za psihoterapiju niti su primarno namenjeni toj funkciji. Nasuprot njima postoje specijalizovane aplikacije razvijene upravo za pružanje podrške mentalnom zdravlju — to im je primarna svrha. Pri izradi pravila, zakonodavci moraju jasno odrediti na koji tip AI se odnose propisi: na opšte modele, na namenski razvijene sisteme ili na oba.
Pet čestih grešaka u zakonodavstvu
- Myopija prema namenskim rešenjima — zakon reguliše samo specijalizovane aplikacije, a zanemaruje opšte modele koji ostvaruju iste posledice u praksi.
- Myopija prema opštoj nameni — zakon cilja isključivo na opšte modele i previđa specijalizovana rešenja koja mogu predstavljati veći rizik.
- Promašaj cilja — odredbe prikladne za jedan tip AI pogrešno su usmerene na drugi tip, pa regulativa promašuje stvarne izvore rizika.
- Neodgovarajuće grupisanje — zakon navodi oba tipa, ali ih ujedinjuje bez kriterijuma, što stvara konfuziju i slabe pravne osnove za sprovođenje.
- Nepreciznost u specificiranju — tekst zakona ostavlja neodgovorenim pitanje kojoj vrsti AI se primenjuje, pa proizvođači imaju prostor za tumačenja i izbegavanje odgovornosti.
Praktične implikacije
Nejasna regulativa može rezultirati u nekoliko štetnih efekata: pravna nesigurnost, preklapanje starih i novih normi, fragmentacija odgovornosti i otežano sprovođenje propisa. Zakonodavci bi trebalo da razmišljaju o ciljevima regulative prema realnim primenama i posledicama AI sistema, a ne isključivo prema tehničkim klasifikacijama.
U radu „Distinguishing Task-Specific and General-Purpose AI in Regulation“ (Wang, Selbst, Barocas, Venkatasubramanian; arXiv, 23.01.2026) autori poručuju: regulatorni ciljevi treba da proizilaze iz primene i posledica AI sistema, dok tehničke specifikacije mogu služiti kao poslednje sredstvo. Fokus treba da bude na strukturama i zavisnostima koje omogućavaju štetu.
Preporuke za zakonodavce
Zakonodavci treba da:
- Jasno definišu termine „opšta namena AI“ i „namenski dizajniran AI“ u tekstu zakona.
- Odrede regulatorne ciljeve prema rizicima i posljedicama upotrebe, a ne samo prema tehnološkim etiketama.
- Uvedu kriterijume koji presuđuju kada se propis primenjuje na oba tipa ili samo na jedan (npr. funkcija, domet delovanja, uticaj na korisnika).
- Usklade nove propise sa postojećim normama i jasno razjasne prelazne periode i odgovornosti.
- Primene pragmatičan, višestepeni pristup pri testiranju i nadgledanju AI sistema u praksi.
Zaključak
Suočavamo se sa globalnim eksperimentom: AI postaje dostupna svima, 24/7, često besplatno ili po niskoj ceni, i deluje kao vodič u različitim domenima. To nosi dvostruke mogućnosti — velike koristi, ali i ozbiljne rizike. Da bi zakon bio „razum bez strasti“, kako je rekao Aristotel, mora biti precizan i zasnovan na jasnoj analizi funkcije i posledica AI sistema. Zakonodavci treba da usporе i oblikuju propise temeljno, a ne u brzini proizvodnje serije pravila.
Pomozite nam da budemo bolji.

























