10 min čitanja

Podeli ovaj članak

Rate this Post

Zabrane prema Zakonu o veštačkoj inteligenciji: Pregled zabranjenih praksi

24/12/2024
EU AI Act Forbidden Practices

Nakon upoznavanja sa osnovnim principima Zakona o veštačkoj inteligenciji, sledeći ključni korak je razumevanje koje prakse povezane sa upotrebom veštačke inteligencije su dozvoljene, a koje se smatraju rizičnim, što dovodi do njihove zabrane. Značaj razumevanja i adekvatnog sprečavanja nedozvoljenih praksi posebno je naglašen činjenicom da član 5 Zakona o veštačkoj inteligenciji, koji uređuje zabranjene prakse, stupa na snagu značajno ranije u odnosu na ostale delove Zakona o veštačkoj inteligenciji – tačnije, 5. februara 2025. godine. 

S obzirom na približavanje tog datuma, pravo je vreme za detaljnu analizu zabranjenih praksi kako bismo bolje razumeli načine na koje veštačka inteligencija (u daljem tekstu: „AI“) ne sme biti korišćena. 

Sve zabrane odnose se na AI sisteme koji koriste određene metode ili teže postizanju ciljeva koji se ne smatraju opravdanim, bezbednim ili zakonitim. Konkretno, takvi sistemi dovode do: 

 

1. Manipulativne ili obmanjujuće metode koje utiču na donošenje odluka 

 

Prva zabrana u okviru Zakona o veštačkoj inteligenciji ima za cilj da spreči negativne uticaje na pojedinca kroz obmanjujuće, manipulativne ili druge subliminalne tehnike implementirane u AI sistem. Ove tehnike su one koje navode osobu da donese odluku koju inače ne bi donela, a koja nanosi ili je verovatno da će naneti štetu toj osobi, drugom licu ili grupi. 

Ova zabrana posebno obuhvata: 

  • stavljanje na tržište, 
  • puštanje u rad, ili 
  • korišćenje bilo kog takvog AI sistema. 

 

Opisane tehnike su nezakonite jer narušavaju sposobnost osobe da donese informisanu odluku o određenom pitanju. Jednostavnije rečeno, ova zabrana se odnosi na metode koje utiču na svest osobe i, kao rezultat, izazivaju određene akcije ili nedostatak reakcije koje nisu u skladu sa slobodnom voljom te osobe. 

Čest primer ovakve prakse uključuje upotrebu AI sistema na platformi za onlajn kupovinu u svrhu prikupljanja informacija o navikama korisnika i njegovim prethodnim kupovinama. Na osnovu prikupljenih podataka, AI sistem može naučiti kako da predvidi određene trenutke kada je korisnik najskloniji da se ponaša impulsivno i da kupi nešto što mu zapravo nije potrebno. Takvi AI sistemi smatrali bi se manipulativnim ukoliko bi koristili takve trenutke za prikazivanje vremenski ograničenih ponuda korisnicima, poput: „Još samo 5 minuta za popust od 50%!“, s obzirom na to da takva poruka može podstaći korisnika da deluje na osnovu informacija koje, najverovatnije, nisu tačne. 

 

2. Iskrivljavanje ponašanja osobe iskorišćavanjem njenih ranjivosti 

 

Subjekti u Evropskoj Uniji (u daljem tekstu: „EU“) ne smeju plasirati, pružati ili koristiti AI sisteme koji iskorišćavaju specifične ranjivosti osobe kako bi uticali na njeno ponašanje na način koji bi mogao naneti štetu toj osobi ili drugom licu. 

Na primer, činjenica da određena osoba ili grupa: 

  • ima neku vrstu invaliditeta, 
  • pripada određenoj starosnoj dobi, ili 
  • se nalazi u specifičnoj socijalnoj ili ekonomskoj situaciji,

predstavlja ranjivost koja, prema ovoj zabrani, ne sme biti iskorišćena. 

U praksi, zabranjene prakse se često manifestuju kroz određene marketinške aktivnosti koje su posebno usmerene na osetljive kategorije ljudi s namerom da ih motivišu da učine nešto zbog njihove ranjive situacije. Na primer, zamislimo da AI sistem koji analizira korisničke navike pretraživanja korisnika identifikuje da se određeni korisnik nalazi u lošoj finansijskoj situaciji jer je pretraživao oglase za posao ili koristio ključne reči poput „povoljno“ ili „niska cena“. Ako takav AI sistem počne da prikazuje tom korisniku marketinški sadržaj koji reklamira nezakonite poslove sa „lakom zaradom“ ili rizična ponašanja poput kockanja, taj sistem bi se smatrao nedozvoljenim prema Zakonu o veštačkoj inteligenciji. 

 

3. Socijalno bodovanje koje može rezultirati nepovoljnim ishodima 

 

Pređimo na sledeću zabranjenu praksu: korišćenje AI sistema za klasifikaciju ljudi na osnovu njihovog ponašanja ili karakteristika, što dovodi do negativnog društvenog ocenjivanja pojedinaca. 

Šta to znači u praksi? 

„Negativno“ socijalno bodovanje vodi do jedne ili obe sledeće posledice: 

  • nepovoljnog tretmana osobe ili grupe u socijalnom kontekstu, na način koji nije povezan sa prvobitnom svrhom prikupljanja podataka o toj osobi, ili 
  • neopravdano ili nesrazmerno nepovoljnog tretmana osobe ili grupe. 

 

Razlog zašto je opisano korišćenje AI sistema zabranjeno leži u činjenici da ono lako može dovesti do povrede nekih osnovnih ljudskih prava i vrednosti, kao što su dostojanstvo, pravda ili jednakost. 

Izvrstan primer poslovne prakse koja bi bila nesaglasna sa kriterijumima Zakona o veštačkoj inteligenciji je implementacija AI alata u platni sistem koji analizira finansijske navike pojedinaca (poput sklonosti trošenju ili štednji). Na osnovu prikupljenih podataka, AI alat može dodeliti socijalni skor analiziranim osobama i nepovoljno ih tretirati, na primer, smatrati ih nepodesnim kandidatima za bankarski kredit. Opisano korišćenje AI alata dovelo bi do diskriminacije i moglo bi značajno ugroziti neka osnovna ljudska prava i slobode, zbog čega je zabranjeno prema Zakonu o veštačkoj inteligenciji. 

 

4. Procene kriminalnih sklonosti osobe zasnovane na profilisanju  

 

Još jedna praksa koja ne sme biti poverena veštačkoj inteligenciji jeste procena da li određena osoba ima potencijal za izvršenje krivičnih dela, na osnovu njene ličnosti. Ova vrsta AI sistema koristila bi modele mašinskog učenja za analizu socijalnih interakcija, tipa ličnosti ili drugih osobina osobe, kako bi predvidela njene moguće postupke, bez povezivanja sa postojećim krivičnim dokazima. 

Kako bi takav sistem funkcionisao? Na primer, mogao bi koristiti rezultate analize ličnosti određene osobe kako bi zaključio da li ta osoba može biti potencijalni kriminalac u budućnosti. Ovakav zaključak očigledno ne bi bio zasnovan na proverenim i objektivnim činjenicama, već na subjektivnim kriterijumima, što bi moglo dovesti do netačnosti, diskriminacije i ugrožavanja privatnosti. 

Međutim, ova zabrana nije apsolutna, jer se ne primenjuje na AI sisteme koji se koriste isključivo za podršku ljudskoj proceni o umešanosti određene osobe u krivična dela. Razlog za pravljenje ovog izuzetka leži u činjenici da se takva procena pretpostavlja da je već zasnovana na činjenicama koje su objektivne, dokazive i direktno povezane sa stvarnom kriminalnom aktivnosti. 

Na ovaj način, upotreba veštačke inteligencije u aktivnostima sprovođenja zakona ne mora biti zabranjena, već može biti usmerena i ograničena u odgovarajućoj meri. 

 

5. Prepoznavanje lica na osnovu masovnog neselektivnog prikupljanja podataka 

 

Nije dozvoljeno koristiti AI sisteme za masovno prikupljanje slika i snimaka pojedinaca u cilju kreiranja baza podataka, ako takvi podaci nisu prvobitno prikupljeni u tu svrhu. Drugim rečima, neselektivno prikupljanje podataka za potrebe uspostavljanja sistema za prepoznavanje lica nije dozvoljeno prema Zakonu o veštačkoj inteligenciji. 

Prikupljanje podataka već neko vreme predstavlja izrazito kontroverzno pitanje sa pravnog aspekta, a usvajanje Zakona o veštačkoj inteligenciji ne deluje kao da će utišati debate na ovu temu, već naprotiv. 

Ova zabrana se podjednako primenjuje na javno dostupne podatke i na podatke sa ograničenim pristupom, kao što su podaci prikupljeni korišćenjem CCTV sistema, koji se obično koriste u svrhu zaštite privatnosti, poput nadzora određenih područja (prostorije kompanije ili okoline poslovnih objekata). 

Glavni razlog za ovo ograničenje je sprečavanje neovlašćene obrade podataka i, samim tim, obezbeđivanje prava pojedinaca na privatnost i zaštitu podataka o ličnosti. U suštini, ova zabrana istovremeno obuhvata ciljeve i Zakona o veštačkoj inteligenciji i GDPR-a. 

 

6. Utvrđivanje emocija zaposlenog ili studenta 

 

Tehnologije veštačke inteligencije koje imaju za cilj zaključivanje o emocijama zaposlenih ili učenika neće biti dozvoljene u skladu sa odredbama Zakona o veštačkoj inteligenciji. Konkretno, ova zabrana odnosi se na tehnologije zasnovane na veštačkoj inteligenciji koje analiziraju ljudske emocije i izvode zaključke na osnovu prikupljenih informacija. 

Na primer, AI alati koji vizuelno snimaju zaposlene i prepoznaju njihove emocije tokom video konferencija mogu spadati u ovu zabranjenu kategoriju. 

Zašto su ovakvi alati zabranjeni prema Zakonu o veštačkoj inteligenciji? Jednostavno, zato što mogu dovesti do pristrasnosti ili drugih oblika nepravedenog tretmana pojedinaca, kao i do ozbiljnijih kršenja ljudskih prava. Dodatno opravdanje za posebno definisanje ove prakse kao nedozvoljene u kontekstu zapošljavanja ili obrazovanja leži u činjenici da radno i obrazovno okruženje često može otvoriti vrata diskriminaciji zbog neravnopravnog položaja uključenih strana (poslodavci, odnosno obrazovne institucije, imaju određenu moć nad zaposlenima i studentima). 

Međutim, nisu svi alati za prepoznavanje emocija putem veštačke inteligencije nepovoljno ocenjeni – neki su izuzeti iz ove zabrane. Zakon o veštačkoj inteligenciji dozvoljava korišćenje sistema zasnovanih na veštačkoj inteligenciji u medicinske ili bezbednosne svrhe, imajući u vidu da ovakvi alati, kada se koriste van „rizičnih“ okruženja, poput radnog mesta ili škole, mogu biti korisni i upotrebljeni u pozitivne svrhe. 

 

7. Potencijalno diskriminatorna upotreba sistema za biometrijsku kategorizaciju 

 

Pređimo na sledeću zabranjenu praksu prema Zakonu o veštačkoj inteligenciji: korišćenje sistema veštačke inteligencije za kategorizaciju biometrijskih podataka na nezakonitim osnovama. 

Ovo ograničenje zabranjuje sistemima veštačke inteligencije korišćenje biometrijskih podataka u cilju kategorizacije pojedinaca na osnovu potencijalno diskriminatornih osnova, kao što su: 

  • rasa, 
  • politička opredeljenja, 
  • članstvo u sindikatima, 
  • verska uverenja, 
  • filozofska uverenja, 
  • seksualni život ili seksualna orijentacija. 

 

Na primer, ova zabrana zabranjuje korišćenje sistema za prepoznavanje glasa ili slike koji bi mogli zaključivati o rasi, boji kože ili etničkoj pripadnosti osobe. 

S druge strane, zakonita upotreba biometrijskih sistema, poput onih koje koriste organi za sprovođenje zakona, ne spada u ovu zabranu. Stoga, korišćenje prikupljenih biometrijskih podataka za pravno uređene i kontrolisane svrhe, poput identifikacije izvršilaca krivičnih dela ili preduzimanja drugih pravnih radnji u cilju suzbijanja kriminala, ostaje dozvoljeno. 

 

8. Biometrijski sistemi za daljinsku identifikaciju u realnom vremenu u svrhe sprovođenja zakona 

 

Međutim, nisu sve svrhe sprovođenja zakona dozvoljene prema Zakonu o veštačkoj inteligenciji. Konačna zabrana odnosi se na korišćenje biometrijskih sistema za daljinsku identifikaciju u realnom vremenu od strane nadležnih organa. Razlog za ovu zabranu je sprečavanje kršenja ljudskih prava i sloboda, kao i obezbeđivanje zaštite privatnosti građana. 

 
Odličan primer nedozvoljenog ponašanja je korišćenje tehnologije za prepoznavanje lica na masovnim događajima (kao što su veliki muzički koncerti ili političke demonstracije) radi identifikacije pojedinaca, a zatim upoređivanje prikupljenih podataka sa bazama podataka o kriminalcima ili njihova upotreba u druge pravno neosnovane svrhe. 

Izuzetno, postoje određeni opravdani slučajevi u kojima će ovakve aktivnosti biti u skladu sa Zakonom o veštačkoj inteligenciji: 

  • tokom sprovođenja ciljanih pretraga za žrtvama trgovine ljudima ili otmica, 
  • u svrhu sprečavanja visokoverovatnog bezbednosnog rizika, poput terorističkog akta, 
  • za lociranje osobe osumnjičene za izvršenje teškog krivičnog dela za koje se može izreći kazna zatvora u trajanju od najmanje četiri godine. 

 

Ipak, čak i kada se ovi sistemi mogu koristiti u okviru određenih izuzetaka, i dalje postoje zahtevi propisani Zakonom o veštačkoj inteligenciji koji moraju biti ispunjeni kako bi se izbegli rizici povezani sa biometrijskim sistemima za daljinsku identifikaciju u realnom vremenu. Naime, Zakon o veštačkoj inteligenciji propisuje da se ovi sistemi mogu koristiti isključivo za potvrdu identiteta osobe, i to pod sledećim uslovima: 

  • mora se uzeti u obzir ozbiljnost, verovatnoća i obim štete koja bi mogla nastati ukoliko sistem ne bude korišćen, 
  • nadležni organi moraju sprovesti procenu uticaja na osnovna prava, kako bi analizirali posledice korišćenja sistema, 
  • sistem mora biti registrovan u bazi podataka visokorizičnih AI sistema EU, 
  • korišćenje takvog sistema mora biti odobreno od strane nacionalnog organa države u kojoj se sistem koristi, pri čemu odobrenje mora biti zasnovano na objektivnim dokazima ili jasnim indikacijama da je korišćenje sistema neophodno i proporcionalno za postizanje cilja opravdanog prema Zakonu o veštačkoj inteligenciji, 
  • kako organ nadležan za nadzor tržišta, tako i organ nadležan za zaštitu podataka u odgovarajućoj državi članici EU moraju biti obavešteni o korišćenju sistema. Nakon obaveštavanja, ti organi su u obavezi da podnose godišnje izveštaje Evropskoj komisiji o upotrebi ovih sistema. 

 

Ako država članica EU odluči da generalno dozvoli korišćenje ove vrste sistema na javnim mestima, može doneti nacionalni propis u tom pogledu, pod uslovom da je takav zakon usklađen sa opisanim ograničenjima iz Zakona o veštačkoj inteligenciji. 

Može se primetiti da su sve zabrane prema Zakonu o veštačkoj inteligenciji široko definisane kako bi se ograničili potencijalni rizici koji proizlaze iz upotrebe veštačke inteligencije. Nadamo se da će ova ograničenja obezbediti ravnotežu između korisne upotrebe veštačke inteligencije, s jedne strane, i sprečavanja negativnih efekata veštačke inteligencije, s druge strane. Međutim, u mesecima nakon stupanja ove odredbe Zakona o veštačkoj inteligenciji na snagu, očekujemo da ćemo videti da li su propisana ograničenja efikasan mehanizam zaštite ili prepreka za razvoj AI industrije. U svakom slučaju, od suštinskog je značaja da svaka kompanija detaljno analizira sve AI sisteme pre februara 2025. godine. 

Slični blogovi

Najnoviji blogovi

Niste sigurni odakle da krenete?

Ukoliko niste sigurni koji je prvi korak, zakažite konsultacije sa jednim od naših stručnjaka.

techlawafficiendo

privacywhisperer

cryptobuddy

evegreen

Ovo nije samo još jedan newsletter

Zaboravite dosadne pravničke analize i teoriju.
Saznajte za rokove i primajte vesti koje zaista pomažu vašem poslovanju.