Veštačka inteligencija donosi opipljive koristi, podiže produktivnost, omogućava nove modele inovacija i olakšava svakodnevne procese. Ipak, napredak je praćen ozbiljnim rizicima: pristrasnošću, dezinformacijama, manipulacijom, uzurpacijom identiteta, prevarama, netransparentnošću, zavisnošću i dehumanizacijom. Unutar tog spektra, deepfake tehnologija posebno se izdvaja po intenzitetu i širini štete koju može izazvati, te zahteva odgovornu i sistematsku regulaciju.
Prema Global Risks Report 2024 Svetskog ekonomskog foruma, dezinformacije i pogrešne informacije označene su kao najznačajniji kratkoročni globalni rizik, uz eksplicitno izdvajanje AI-generisanog sadržaja (uključujući deepfake). Izražene posledice obuhvataju eroziju poverenja u institucije, manipulaciju javnim mnjenjem i podrivanje demokratskih procesa.
Brzi uspon i tehnički razvoj
Ono što je do pre nekoliko godina bila tehnologija u okviru niše, koja je bila tehnički zahtevna i zahtevala velike resurse, danas je široko dostupna. Na osnovu jedne kvalitetne fotografije moguće je, besplatno i za približno dvadeset minuta, generisati uverljiv deepfake video u trajanju od jednog minuta. Studije beleže nagli rast količine deepfake sadržaja na internetu između 2019. i 2023. godine, dok EUROPOL procenjuje da bi do 2026. oko 90% digitalnog sadržaja moglo biti AI-generisano.
Dva faktora stimulišu ovaj trend: kontinuirani napredak Generative Adversial Networks (GAN) i masovna dostupnost jednostavnih alata koji kreiranje i distribuciju sadržaja čine lakim i za nestručne korisnike. U GAN postavci, postoje dve neuronske mreže: generator i diskriminator. Generator pokušava da proizvede sintetičke podatke dovoljno uverljive da „prevare” diskriminator, dok diskriminator uvežbava prepoznavanje falsifikata. Ova „kompetitivna” dinamika objašnjava zašto se granica između autentičnog i sintetičkog konstantno pomera, otežavajući i regulaciju i detekciju.
Kako lažni mediji štete pojedincima i društvu
a) Lična šteta. Većina javno dostupnih deepfake sadržaja je pornografske prirode, pri čemu su žene nesrazmerno pogođene. Materijal se često kreira bez pristanka, uz teške reputacione i psihološke posledice za žrtve; ni javne ličnosti nisu izuzete, što potvrđuju skorašnji slučajevi koji su postali viralni kao posledica loše moderacije medijskih platformi.
b) Finansijske prevare. Zabeležen je slučaj u Hongkongu u kojem je zaposleni, verujući da preko video-poziva razgovara sa menadžerima, koji su zapravo bili deepfake, naložio transfer od 25 miliona USD.
c) Politička manipulacija. U jednoj anketi u SAD, 77% ispitanika navelo je da je videlo AI-generisan deepfake sadržaj, a 36% je izjavilo da je taj sadržaj bitno uticao na njihovu odluku kako će glasati na izborima, što predstavlja snažan indikator udara na poverenje u medije i na same demokratske procese.
Zašto zabrana nije rešenje
Iako su rizici visoki, direktna zabrana nije održiva, jer ova tehnologija ima legitimnu upotrebu koja može biti društveno korisna. U oblasti javnog zdravlja, jedan govornik može uverljivo prenositi poruke na više jezika; u obrazovanju se razvijaju realistične simulacije i interaktivni materijali; prevazilaženje jezičkih barijera čini sadržaj dostupnim široj publici; značajne su i primene u rekonstrukciji istorijskih ličnosti, satiri i umetničkim kreacijama. Stoga je cilj odgovorna upotreba i precizna regulacija, razdvajanje zloupotreba koje ugrožavaju prava i bezbednost od legitimnih upotreba koje služe javnom interesu.
Tehnička rešenja: detekcija, watermarking, C2PA
Detektori deepfake sadržaja procenjuju verovatnoću da je materijal AI-generisan, ali često zaostaju za generatorima, jer se oslanjaju na zastarele baze podataka i daju isključivo procene na bazi verovatnoće (npr. „75% verovatno”), koje je teško direktno ugraditi u konzistentne politike uklanjanja sadržaja.
Vodeni žigovi (watermarking) obećavaju, ali kreiranje ove tehnologije trenutno nije u potpunosti standardizovano, zbog čega ona nije konzistentna u primeni, uz otvorena pitanja njene preciznosti i otpornosti na manipulacije.
Inicijativa C2PA (Coalition for Content Provenance and Authenticity) zagovara uvođenje standarda za poreklo i integritet sadržaja kroz kriptografske potpise i metapodatke o izvoru sadržaja i kasnijim izmenama koje su nad njim sprovedene. Međutim, efikasnost ovih standarda zavisi od širokog, koordinisanog usvajanja od strane platformi, medija i provajdera, bez čega će domet biti ograničen.
Deepfake i GDPR: nedostatci u primeni propisa
Upotreba deepfake tehnologije gotovo uvek podrazumeva obradu ličnih podataka, često i posebnih kategorija (npr. biometrija lica i glasa, podaci koji impliciraju zdravstveno stanje pojedinaca, politička uverenja ili seksualni život). Čak i kada je sadržaj potpuno „izmišljen”, vezivanje za konkretnu osobu aktivira zaštitne mehanizme Opšte uredbe o zaštiti podataka (GDPR).
Pristanak je u praksi redak: materijal se često prikuplja bez znanja lica (npr. automatizovanim preuzimanjem – scraping), što dovodi do čestog kršenja strogih uslova za obradu posebnih kategorija podataka. U ovim slučajevima se i dalje primenjuju fundamentalna načela GDPR-a, uključujući ograničenje svrhe, postojanje pravnog osnova i pravo na ispravku podataka, kao pravo koje deluje paradoksalno u kontekstu inherentno lažnog sadržaja, ali formalno ostaje primenljivo.
Zaključak: GDPR se formalno primenjuje na deepfake, ali nije projektovan da isprati tempo tehnološke evolucije, što stvara neujednačene i ponekad kontraintuitivne interpretacije. To pojačava potrebu za čvrstim AI governance mehanizmima i disciplinom u upravljanju podacima.
Deepfake i DSA: pomak u transparentnosti, ali sa prazninama
Digital Services Act (DSA) uvodi dva važna mehanizma za deepfake i manipulativni sadržaj. Prvi je obaveza označavanja da je sadržaj generisan ili izmenjen (npr. watermark ili druge oznake). Drugi je notice-and-action režim: platforme moraju pravovremeno procenjivati prijave i uklanjati nelegalan/štetan sadržaj kada je opravdano.
Domet DSA je, međutim, limitiran: primenjuje se pretežno na posredničke servise (digitalne platforme, e-prodavnice), dok alati za kreiranje deepfake sadržaja, kao što su generativni modeli i specijalizovane aplikacije, ostaju van neposredne primene. Privatne komunikacije, uključujući šifrovane mesindžere, takođe su izuzete. Rezultat su i dalje prisutne regulatorne praznine, naročito u segmentu alata za kreiranje i distribuciju.
EU AI Akt: klasifikacija kao „ograničen rizik“ i obaveze transparentnosti
EU AI Akt ne zabranjuje deepfake tehnologiju, već je svrstava u AI sisteme ograničenog rizika i propisuje stroge obaveze transparentnosti.
- Provajderi (uključujući provajdere opšte-namenskih AI modela – GPAI) moraju obezbediti da rezultati sistema budu mašinski čitljivo označeni kao veštački generisani ili izmenjeni (npr. watermark ili slično tehničko rešenje).
- Deployeri (korisnici sistema) dužni su da krajnje korisnike eksplicitno obaveste da je sadržaj sa kojim stupaju u interakciju deepfake.
Ključno otvoreno pitanje glasi: da li je sama transparentnost dovoljna?
Primer deepfake pornografije pokazuje da i uz jasnu oznaku žrtva trpi negativne posledice, koje mogu biti emotivne, reputacione i psihološke. Slično važi i za političku manipulaciju, finansijske prevare ili podsticanje nasilja: oznaka porekla sadržaja u tim slučajevima ne može biti dovoljna. Stoga je legitimno pitanje da li kategorija „ograničeni rizik” adresira realne negativne posledice deepfake i kompleksnost ovog fenomena.
Zaključak
Deepfake ne predstavlja samo tehničko dostignuće, već rastuću društvenu pretnja koja potkopava osnovnu sposobnost ljudi da se oslone na sopstvena čula. Time stradaju temelji poverenja u medije, institucije i međuljudske odnose.
EU AI Akt je važan pomak ka odgovornom upravljanju AI, ali njegova koncepcija koji se dominantno oslanja na transparentnost, verovatno neće sam po sebi ublažiti višestruku štetu koju deepfake generiše. Kako tehnološki razvoj i dalje nadmašuje tempo u razvoju propisa, potreban je sveobuhvatan, stroži i promišljeno dizajniran regulatorni okvir, koji će istovremeno obezbediti zaštitu od rizika i prostor za legitimne i korisne primene.












