Početkom 2023. industrija je zabeležila dva ilustrativna incidenta: unos poverljivog koda i zapisnika sa sastanaka u ChatGPT od strane zaposlenih u Samsungu, kao i korišćenje istog alata za obradu imena pacijenata i dijagnoza radi pripreme dopisa kompaniji za osiguranje, što je odmah otvorilo pitanja o usklađenosti sa HIPAA. Ovi slučajevi potvrđuju potrebu za strogim upravljanjem podacima i odgovornom primenom AI u svakoj fazi životnog ciklusa sistema.
Organizacije koje u razvoj i upotrebu AI dosledno ugrađuju upravljanje (governance), etiku, transparentnost i usklađenost sa propisima, istovremeno umanjuju rizik skupih incidenata i regulatornih posledica i jačaju poverenje i organizacionu agilnost, neophodne za održivo skaliranje inovacija.
Empirijska istraživanja to podržavaju: prema Accenture-u, subjekti koji daju prioritet odgovornoj upotrebi AI beleže u proseku +18% rasta prihoda koji je stimulisan kroz AI inicijative. Ipak, iako rukovodioci uglavnom prepoznaju da je odgovorno korišćenje AI strateški ključno, mnogi priznaju da nisu dostigli željeni nivo zrelosti u toj oblasti. Upravo zato, 42% kompanija već izdvaja >10% AI budžeta za upravljanje i usklađenost sa propisima.
Odgovorna upravljanje AI je osnova proaktivnog upravljanja AI rizicima
Globalna anketa McKinsey-a (mart 2025) pokazuje da 78% ispitanika primenjuje AI u najmanje jednom poslovnom procesu. Ovakav nivo upotrebe AI otvara rizike na dva nivoa: (i) nove pretnje poput nepouzdanih rezultata, halucinacija, padova modela, pristrasnosti i netransparentnih „black-box“ sistema; (ii) intenziviranje postojećih ranjivosti, uključujući privatnost, upravljanje podacima, sajber bezbednost, povrede autorskih prava i intelektualne svojine, te nezakonito otkrivanje poslovnih tajni.
Prema Accenture-u, tri najistaknutija rizika u fokusu rukovodilaca su: privatnost i upravljanje (governance) (51%), bezbednost (47%) i pouzdanost (45%) [nedostaje puna referenca]. Naglasak na privatnosti je razumljiv: do 1. marta 2025. u EU je izrečeno 2.245 GDPR kazni u ukupnom iznosu od približno 5,65 milijardi evra. AI Incident Database beleži porast prijavljenih AI incidenata od 32,3% tokom 2023, dok rukovodioci procenjuju da bi jedan ozbiljan AI incident mogao u proseku umanjiti tržišnu vrednost kompanije ~24%.
Zaključak: efikasno i robustno AI upravljanje (governance), uz sistemske mere smanjenje rizika, postaje nužan uslov za održivost poslovanja i očuvanje tržišnog poverenja.
Odgovorno upravljanje AI povećava kvalitet i profitabilnost AI proizvoda
Analize pokazuju da organizacije sa razvijenim mehanizmima za upravljanje AI, brže i pouzdanije usvajaju tehnologiju i izvlače veću poslovnu vrednost iz AI proizvoda. WRITER (2025) nalazi da subjekti koji poseduju sveobuhvatnu strategiju za generativni AI, koja predstavlja suštinu upravljanja AI, su dostigli nivo od 80% „vrlo uspešnih“ projekata implementacije AI, naspram 37% u organizacijama bez takve strategije.
McKinsey (maj 2025) dalje ističe da odgovorne prakse u upravljanju AI, donose i veće benefite za kompanije i to: veću efikasnost i smanjenje troškova (+42%), rast poverenja potrošača (+34%), jačanje reputacije (+29%) i smanjenje broja AI incidenata (−22%).
Implikacija je jasna: ulaganje u robusnu strategiju upravljanja veštačkom inteligencijom ubrzava usvajanje, povećava pouzdanost i generiše merljive poslovne efekte. Na ovaj način upravljanje AI ne predstavlja samo regulatorni, već strateški prioritet u poslovnom smislu.
Odgovorno upravljanje AI je prevencija za visoke kazne zbog neusklađenosti sa propisima
EU Akt o veštačkoj inteligenciji (AI Act) postavlja globalni reper i regulatorni okvir za upravljane rizikom koji je relevantan i za jurisdikcije van EU.
Ovo je sumacija EU AI akta:
a) Sveobuhvatna i eksteritorijalna primena. Akt važi u svim državama članicama EU i obuhvata svaki AI sistem koji se plasira na tržište EU ili koristi na teritoriji EU, bez obzira na mesto razvoja.
b) Klasifikacija zasnovana na riziku. Sistemi se razvrstavaju u: zabranjene, visokorizične, ograničenog rizika i minimalnog rizika. Najstrože obaveze (ocena usaglašenosti, tehnička dokumentacija, transparentnost, ljudski nadzor, sajber bezbednost) primenjuju se na visokorizične sisteme, dok su za ograničeni rizik predviđene obaveze transparentnosti.
c) Faze primene.
1. avgust 2024. – Akt je stupio na snagu.
2. februar 2025. – zabrane za sisteme neprihvatljivog rizika, dok opšta pravila postaju izvršna.
2. avgust 2025. – počinje primena obaveza u vezi sa upravljanjem, notifikacijama, poverljivošću, obavezama za GPAI modele i većina kaznenih odredbi.
2. avgust 2026. – opšte mere usaglašenosti stupaju u punu primenu.
2. avgust 2027. – obavezne ocene usaglašenosti i registracija za visokorizične sisteme i postojeće GPAI modele postaju obavezne.
d) Sankcije.
do 35 mil. EUR ili 7% globalnog godišnjeg prometa – za primenu zabranjenih praksi;
do 15 mil. EUR ili 3% globalnog godišnjeg prometa – za povrede opštih obaveza i obaveza za visokorizične sisteme;
do 7,5 mil. EUR ili 1% globalnog godišnjeg prometa – za dostavljanje lažnih ili obmanjujućih informacija nadležnim organima.
Ukoliko kompanije odlažu primenu mera regulatorne usklađenosti sve do kasne faze razvoja proizvoda, obično znači veće troškove uzrokovane naknadnim prepravkama proizvoda. Osim toga, kompanije moraju imati u vidu da se regulatorni okvir usložnjava, jer nacionalni i sektorski propisi paralelno evoluiraju i zahtevaju koordinisan, proaktivan pristup.
Odgovorno upravljanje AI smanjuje rizike generisane proizvodima trećih strana
Rizici iz lanca snabdevanja ne mogu se neutralisati samo internim pravilima ukoliko dobavljači i partneri ne slede iste standarde. Potreban je sveobuhvatan režim procene trećih strana i uvođenje jasnih ugovornih obaveza usklađenih sa pravnim i regulatornim zahtevima.
Kod visokorizičnih primena AI, organizacije zadržavaju punu odgovornost pred klijentima i regulatorima za nadzor i kontrolu sistema kroz ceo lanac snabdevanja. Nedostatak adekvatnog nadzora generiše reputacione i finansijske posledice i može voditi ozbiljnim sankcijama. Iako su ovi rizici poznati, tek 43% kompanija sistematski procenjuje treće strane, što ukazuje na značajan jaz i potrebu za bržim uvođenjem kontrola rizika lanca snabdevanja.
Kako maksimizovati ROI od AI?
Organizacije koje usvajaju pristup „responsible by design“ ne tretiraju etiku i usklađenost kao sporedne zahteve, već ih integrišu u poslovnu i tehnološku strategiju: uspostavljaju multi-funkcionalne mehanizme upravljanja, prate regulatorna i tehnološka kretanja, planiraju unapred i redovno ažuriraju poslovne principe, politike i standarde.
U skladu sa tim privacy by design u GDPR-u, responsible by design podrazumeva zaštitne mehanizme u svakoj fazi životnog ciklusa AI sistema. Rezultat su brže i sigurnije odluke, pouzdano usvajanje novih rešenja i održivo skaliranje AI, uz očuvanje poverenja i usklađenosti.

															
								
								
								
								
								
								









