Nacrt kineskih propisa traži izričit pristanak korisnika pre nego što se zapisi razgovora koriste za treniranje AI modela, uz posebne zaštite za maloletnike i pravo na brisanje istorije. Regulator CAC navodi da je cilj da interaktivne, "lične" AI usluge budu bezbedne i pod nadzorom. Stručnjaci upozoravaju da bi ograničenja mogla usporiti poboljšanja chatbota, ali ističu da Kina ima velike javne i vlasničke skupove podataka i da propisi pre svega naglašavaju zaštitu privatnosti i javni interes.
Kina Traži Izričit Pristanak Za Korišćenje Zapisa Razgovora U Treningu AI — Šta To Znači

Kina planira da pooštri pravila o tome kako se zapisi razgovora korisnika mogu koristiti za treniranje modela veštačke inteligencije. Cyberspace Administration of China (CAC) objavila je nacrt mera koje ograničavaju prikupljanje, upotrebu i deljenje chat‑logova, uz poseban fokus na privatnost i bezbednost korisnika.
Šta predviđa nacrt?
Nacrt propisa uvodi obaveze za provajdere "ličnih" interaktivnih AI usluga (chatboti, virtuelni saputnici i slični sistemi):
- Izričit pristanak: Upotreba zapisa razgovora za treniranje modela ili deljenje sa trećim stranama zahteva izričit pristanak korisnika.
- Transparentnost: Platforme moraju jasno obavestiti korisnike kada komuniciraju sa AI i omogućiti pristup i brisanje istorije razgovora.
- Zaštita maloletnika: Za deljenje podataka maloletnika potrebna je dodatna saglasnost staratelja; staratelji mogu zahtevati brisanje istorije razgovora.
- Nivoisan nadzor: Peking najavljuje upravljanje i obazriv, fazni nadzor kako bi se sprečila zloupotreba i gubitak kontrole nad sistemima.
Rok i javna rasprava
Nacrt je otvoren za javnu konsultaciju, a povratne informacije se očekuju do kraja januara. Posle konsultacija, pravila mogu biti dodatno izmenjena pre konačnog usvajanja.
Mogući uticaji i stavovi stručnjaka
Stručnjaci upozoravaju da bi stroža pravila mogla usporiti tempo unapređenja konverzacionih AI modela, jer ograničavanje pristupa chat‑logovima smanjuje ljudski feedback koji se koristi u metodama poput učenja sa pojačanjem. S druge strane, Kina raspolaže velikim javnim i vlasničkim skupovima podataka, pa regulatorne mere ne moraju značiti zastoj inovacija.
„Ograničenje pristupa zapisima razgovora može ograničiti mehanizme ljudskog povratnog ocenjivanja koji su ključni za razvoj angažovanih i preciznih razgovornih AI,“ rekao je Lian Jye Su iz Omdia.
Analitičari ocenjuju da nacrt više šalje signal o zaštiti privatnosti i javnog interesa nego da služi kao direktna kočnica inovacija. Wei Sun iz Counterpoint Research ističe da su mere smernice koje bi, uz dokazanu bezbednost i pouzdanost, mogle podstaći širu i regulisanu primenu ljudolikih AI servisa — npr. u kulturnoj razmeni ili kao društvena podrška starijim osobama.
Pitanja privatnosti u industriji
Ove mere dolaze u trenutku kada raste zabrinutost oko prakse velikih kompanija: Business Insider je izvestio da ugovorni radnici kod nekih tehnoloških giganata pregledaju delove korisničkih razgovora kako bi ocenjivali odgovore AI sistema, a u tim istorijama često se nalaze vrlo lični i potencijalno identifikovani podaci. Kompanije kao što su Meta i Google tvrde da imaju zaštitne politike i ograničenja pristupa takvim podacima.
Šta pratiti?
Važno je pratiti konačan tekst propisa posle javne konsultacije i kako će provajderi implementirati mehanizme dobijanja pristanka, brisanja podataka i ograničavanja pristupa trećim stranama. Takođe treba obratiti pažnju na to da li će mere postati primer drugim regulatorima koji oblikuju pravila za AI globalno.
Pomozite nam da budemo bolji.


































