Obaveze kompanija prema EU Uredbi o vještačkoj intelegenciji (EU AI Act)

1. Uvod

Razvoj vještačke inteligencije (AI) predstavlja jedan od najznačajnijih tehnoloških napredaka 21. vijeka, s dubokim uticajem na ekonomiju, društvo, javnu upravu i svakodnevni život građana. Sistemi vještačke inteligencije danas se koriste u različitim sektorima, uključujući zdravstvo, finansije, transport, obrazovanje, zapošljavanje, sigurnost i digitalne platforme. Iako AI nudi značajne koristi u pogledu efikasnosti, inovacija i konkurentnosti, ona istovremeno nosi i ozbiljne rizike za osnovna ljudska prava, privatnost, sigurnost i vladavinu prava.

U tom kontekstu, Evropska unija je usvojila Uredbu o vještačkoj inteligenciji (EU AI Act), prvi sveobuhvatni pravni okvir na svijetu koji reguliše razvoj, stavljanje na tržište i upotrebu sistema vještačke inteligencije. Cilj AI Act-a nije zabrana inovacija, već uspostavljanje ravnoteže između tehnološkog napretka i zaštite osnovnih vrijednosti EU. Ova uredba uvodi jasne obaveze za kompanije koje razvijaju, distribuiraju ili koriste AI sisteme, s posebnim fokusom na upravljanje rizicima.

Ovaj tekst analizira ključne obaveze kompanija prema EU AI Act-u, s naglaskom na klasifikaciju rizika, dužnosti različitih aktera u lancu vrijednosti AI-a, mehanizme nadzora i sankcija, kao i praktične izazove implementacije.

2. Osnovne karakteristike EU AI Act-a

EU AI Act je uredba, što znači da se direktno primjenjuje u svim državama članicama EU, bez potrebe za nacionalnom transpozicijom. Time se osigurava jedinstven regulatorni okvir i pravna sigurnost za kompanije koje posluju na jedinstvenom tržištu.

Jedna od osnovnih karakteristika AI Act-a jeste pristup zasnovan na riziku (risk-based approach). Umjesto da se svi AI sistemi tretiraju jednako, uredba ih klasifikuje prema nivou rizika koji predstavljaju za društvo i pojedince. U skladu s tim, obaveze kompanija variraju u zavisnosti od toga u koju kategoriju rizika njihov AI sistem spada.

AI Act se primjenjuje ne samo na kompanije sa sjedištem u EU, već i na sve kompanije izvan EU koje stavljaju AI sisteme na tržište EU ili čiji se sistemi koriste unutar EU. Time se potvrđuje ekstrateritorijalni efekat uredbe, sličan onom koji ima Opšta uredba o zaštiti podataka (GDPR).

3. Kategorije rizika i implikacije za kompanije

3.1. Zabranjeni AI sistemi (unacceptable risk)

AI Act uvodi potpunu zabranu određenih AI praksi koje se smatraju neprihvatljivim zbog ozbiljnog ugrožavanja osnovnih prava. U ovu kategoriju spadaju, između ostalog:

  • AI sistemi za socijalno bodovanje građana od strane javnih vlasti;
  • Sistemi koji koriste manipulativne ili podsvjesne tehnike za uticaj na ponašanje pojedinaca;
  • Određeni oblici biometrijske identifikacije u realnom vremenu u javnim prostorima (uz vrlo ograničene izuzetke).

Za kompanije to znači jasnu obavezu: razvoj, prodaja i korištenje ovih sistema su zabranjeni. Kršenje ove zabrane može dovesti do izuzetno visokih novčanih kazni i reputacione štete.

3.2. Visokorizični AI sistemi (high-risk AI)

Najznačajniji dio obaveza kompanija odnosi se na visokorizične AI sisteme, koji se koriste u osjetljivim područjima kao što su:

  • zapošljavanje i upravljanje radnom snagom,
  • kreditno ocjenjivanje i finansijske usluge,
  • zdravstvena zaštita,
  • obrazovanje i profesionalna evaluacija,
  • biometrijska identifikacija,
  • pravosuđe i sprovođenje zakona.

Kompanije koje razvijaju ili koriste visokorizične AI sisteme moraju ispuniti stroge regulatorne zahtjeve.

4. Ključne obaveze kompanija kod visokorizičnih AI sistema

4.1. Sistem upravljanja rizicima

Kompanije su obavezne uspostaviti kontinuirani sistem upravljanja rizicima tokom cijelog životnog ciklusa AI sistema. To uključuje identifikaciju, analizu i ublažavanje rizika po zdravlje, sigurnost i osnovna prava korisnika.

4.2. Kvalitet podataka i upravljanje skupovima podataka

AI Act zahtijeva da podaci korišteni za treniranje, validaciju i testiranje AI sistema budu:

  • relevantni i reprezentativni,
  • bez sistemskih pristrasnosti (bias),
  • prikupljeni i obrađeni u skladu s važećim zakonima.

Kompanije moraju dokumentovati porijeklo podataka i mjere koje su preduzete kako bi se spriječila diskriminacija.

4.3. Tehnička dokumentacija i vođenje evidencije

Kompanije su obavezne izraditi detaljnu tehničku dokumentaciju koja omogućava regulatornim tijelima da procijene usklađenost AI sistema s uredbom. Također, moraju se voditi logovi i zapisi o radu sistema kako bi se omogućila naknadna kontrola i analiza.

4.4. Transparentnost i informisanje korisnika

Korisnici visokorizičnih AI sistema moraju biti jasno informisani o tome da komuniciraju s AI-jem i da se odluke donose uz pomoć automatizovanog sistema. Ova obaveza ima za cilj jačanje povjerenja i omogućavanje ostvarivanja prava korisnika.

4.5. Ljudski nadzor (human oversight)

Jedna od centralnih obaveza jeste osiguravanje efikasnog ljudskog nadzora nad AI sistemima. Kompanije moraju omogućiti da ovlaštene osobe mogu:

  • razumijeti funkcionisanje Sistema,
  • intervenisati ili zaustaviti system,
  • spriječiti ili ispraviti pogrešne odluke.

4.6. Tačnost, robusnost i sajber-sigurnost

AI sistemi moraju ispunjavati propisane standarde tačnosti i otpornosti na greške i zloupotrebe. Kompanije su dužne preduzeti tehničke i organizacione mjere kako bi se spriječili sajber-napadi i neovlaštene izmjene sistema.

5. Obaveze različitih aktera u lancu vrijednosti

AI Act razlikuje više kategorija subjekata, uključujući:

  • dobavljače (providers) AI Sistema,
  • distributere,
  • uvoznike, i
  • korisnike (deployers).

Svaka kategorija ima specifične obaveze. Na primjer, dobavljači snose najveću odgovornost za usklađenost, dok korisnici moraju osigurati pravilnu upotrebu sistema u skladu s uputstvima i namjenom.

6. AI sistemi ograničenog i minimalnog rizika

Za AI sisteme ograničenog rizika (npr. chatbotovi), kompanije imaju blaže obaveze, uglavnom vezane za transparentnost. Sistemi minimalnog rizika (npr. AI u video-igrama ili filterima za slike) nisu predmet dodatnih regulatornih zahtjeva, što omogućava nastavak inovacija bez administrativnog opterećenja.

7. Nadzor, sankcije i kazne

AI Act predviđa snažan sistem nadzora koji uključuje nacionalna nadležna tijela i Evropski odbor za umjetnu inteligenciju. Za kršenje uredbe predviđene su novčane kazne do 35 miliona eura ili do 7% globalnog godišnjeg prometa kompanije, zavisno od težine prekršaja.

Ove kazne predstavljaju snažan podsticaj kompanijama da ozbiljno pristupe usklađivanju sa propisima.

8. Izazovi i prilike za kompanije

Implementacija AI Act-a predstavlja značajan izazov, posebno za mala i srednja preduzeća, zbog troškova usklađivanja i tehničke složenosti. Međutim, uredba istovremeno pruža priliku za:

  • jačanje povjerenja korisnika,
  • stvaranje konkurentske prednosti,
  • razvoj etičkog i odgovornog AI-a.

Kompanije koje pravovremeno usklade svoje poslovanje mogu se pozicionirati kao lideri u odgovornoj primjeni vještačke inteligencije.

9. Zaključak

EU AI Act predstavlja prekretnicu u globalnoj regulaciji vještačke inteligencije. Uvođenjem jasnih obaveza za kompanije, Evropska unija nastoji osigurati da razvoj i upotreba AI sistema budu u skladu s osnovnim pravima, sigurnošću i demokratskim vrijednostima. Iako usklađivanje s uredbom zahtijeva značajne napore, dugoročno gledano, AI Act ima potencijal da stvori stabilno i pouzdano okruženje za inovacije.

Za kompanije, AI Act nije samo regulatorni izazov, već i prilika da izgrade održive, transparentne i odgovorne AI sisteme koji će oblikovati budućnost evropskog digitalnog društva.

Autor: Aleksandar Sajić

About the author