U kolovozu stupit će na snagu EU pravila za visokorizičnu umjetnu inteligenciju, što će određivati?

Akt o umjetnoj inteligenciji prvi je pravni okvir o umjetnoj inteligenciji koji se bavi rizicima umjetne inteligencije. Usvojen je još 2024. godine, a njegovo stupanje na snagu je postupno počelo još od prošle godine, a za njegovu punu implementaciju od usvajanja su određene dvije godine. Hrvatska ga je, sa svim članicama EU-a, počela djelomično implementirati, a od kolovoza ove godine će morati poštivati pravila za visokorizičnu umjetnu inteligenciju. Istražili smo o kojim je pravilima riječ

Suzana Vezilić nedjelja, 1. veljače 2026. u 10:38
📷 Izvor: Europska komisija
Izvor: Europska komisija

Cilj Akta o umjetnoj inteligenciji je jasno definiranim pravilima poticati pouzdanu umjetnu inteligenciju u Europi kako bi se osiguralo da Europljani mogu vjerovati onome što umjetna inteligencija nudi. Ta pravila se temelje na riziku za razvojne programere i subjekte koji uvode umjetnu inteligenciju u pogledu određenih uporaba umjetne inteligencije. Iako većina UI sustava predstavlja ograničen rizik i može doprinijeti rješavanju mnogih društvenih izazova, određeni UI sustavi stvaraju visoke rizike koje EU želio ukloniti kako bi izbjegli neželjene ishode.

Što uključuje visokorizični pristup?

Slučajevi upotrebe umjetne inteligencije koji mogu predstavljati ozbiljan rizik za zdravlje, sigurnost ili temeljna prava klasificiraju se kao visokorizični. Ti visokorizični slučajevi primjene uključuju:

  1. Sigurnosne komponente umjetne inteligencije u ključnim infrastrukturama (npr. promet), čiji bi neuspjeh mogao ugroziti život i zdravlje građana
  2. UI rješenja koja se upotrebljavaju u obrazovnim ustanovama, a koja mogu odrediti pristup obrazovanju i tijek nečijeg profesionalnog života (npr. bodovanje ispita)
  3. Sigurnosne komponente proizvoda koje se temelje na umjetnoj inteligenciji (npr. primjena umjetne inteligencije u kirurgiji uz pomoć robota)
  4. Alati umjetne inteligencije za zapošljavanje, upravljanje radnicima i pristup samozapošljavanju (npr. softver za razvrstavanje životopisa za zapošljavanje)
  5. Određeni slučajevi upotrebe umjetne inteligencije koji se upotrebljavaju za pružanje pristupa osnovnim privatnim i javnim uslugama (npr. kreditni bodovi kojima se građanima uskraćuje mogućnost dobivanja zajma)
  6. UI sustavi koji se upotrebljavaju za daljinsku biometrijsku identifikaciju, prepoznavanje emocija i biometrijsku kategorizaciju (npr. UI sustav za retroaktivnu identifikaciju trgovca)
  7. slučajevi upotrebe umjetne inteligencije u tijelima kaznenog progona koji mogu utjecati na temeljna prava ljudi (npr. evaluacija pouzdanosti dokaza)
  8. Primjeri upotrebe umjetne inteligencije u upravljanju migracijama, azilom i nadzorom državne granice (npr. automatizirano razmatranje zahtjeva za vizu)
  9. Rješenja umjetne inteligencije koja se upotrebljavaju u sudovanju i demokratskim procesima (npr. rješenja umjetne inteligencije za pripremu sudskih presuda)

Visokorizični UI sustavi morat će podlijegati strogim obvezama prije nego što će se moći staviti na tržište, pa moraju uključivati:

  1. odgovarajući sustavi za procjenu i smanjenje rizika,
  2. visoku kvaliteta skupova podataka koji se unose u sustav kako bi se rizici od diskriminirajućih ishoda sveli na najmanju moguću mjeru,
  3. bilježenje aktivnosti kako bi se osigurala mogućnost praćenja rezultata,
  4. detaljnu dokumentaciju kojom se pružaju sve potrebne informacije o sustavu i njegovoj svrsi kako bi nadležna tijela mogla ocijeniti njegovu usklađenost,
  5. jasne i odgovarajuće informacije developera,
  6. odgovarajuće mjere za ljudski nadzor,
  7. visoku razina robusnosti, kibernetičku sigurnost i točnost.

Limitirani rizik tj. limit transparentnosti

Niža razina rizika od visokorizične je razina limitiranog rizika, koja isto stupa na snagu u kolovozu ove godine i ona se odnosi na rizike povezane s potrebom za transparentnosti u pogledu upotrebe umjetne inteligencije. Uvode se posebne obveze objavljivanja kako bi se osiguralo da su ljudi informirani kada je to potrebno za očuvanje povjerenja. Na primjer, pri upotrebi UI sustava kao što su chatbotovi ljudi bi trebali biti svjesni da su u interakciji sa strojem kako bi mogli donijeti pravu odluku.

Nadalje, dobavljači generativne umjetne inteligencije moraju osigurati da se sadržaj generiran umjetnom inteligencijom može identificirati. Povrh toga, određeni sadržaj stvoren umjetnom inteligencijom trebao bi biti jasno i vidljivo označen, odnosno uvjerljivi krivotvoreni sadržaj i tekst objavljen u svrhu informiranja javnosti o pitanjima od javnog interesa.

Neprihvatljiv rizik

Postoje i druga razine rizika čija su pravila već stupila na snagu a to je razina neprihvatljivog rizika. Ta razina uključuje pravilo zabrane svih UI sustava koji se smatraju jasnom prijetnjom sigurnosti, sredstvima za život i pravima ljudi. Aktom o umjetnoj inteligenciji zabranjeno je osam praksi, a to su:

  • štetna manipulacija i obmana koja se temelji na umjetnoj inteligenciji
  • štetno iskorištavanje ranjivosti koje se temelji na umjetnoj inteligenciji
  • socijalno bodovanje
  • procjena ili predviđanje rizika od pojedinačnog kaznenog djela
  • neciljano skuplanje (scraping) internetskog ili CCTV materijala radi stvaranja ili proširenja baza podataka za prepoznavanje lica
  • prepoznavanje emocija na radnim mjestima i u obrazovnim ustanovama
  • biometrijska kategorizacija kako bi se izvele određene zaštićene značajke
  • daljinska biometrijska identifikacija u stvarnom vremenu za potrebe kaznenog progona na javnim mjestima

Zabrane su stupile na snagu u veljači 2025. EU Komisija je objavila dva ključna dokumenta kojima se objašnjava praktična primjena zabranjenih praksi:

  1. Smjernice o zabranjenim praksama u području umjetne inteligencije u skladu s Aktom o umjetnoj inteligenciji, u kojima se navode pravna objašnjenja i praktični primjeri kako bi se dionicima pomoglo da razumiju zabrane i poštuju ih.
  2. Smjernice o definiciji UI sustava iz Akta o umjetnoj inteligenciji kako bi se dionicima pomoglo u utvrđivanju područja primjene Akta o umjetnoj inteligenciji

Aktom o umjetnoj inteligenciji ne uvode se pravila za umjetnu inteligenciju koja se smatra minimalnom ili nikakvom. Velika većina UI sustava koji se trenutačno upotrebljavaju u EU-u pripada toj kategoriji. To uključuje aplikacije kao što su videoigre omogućene umjetnom inteligencijom ili filtri za neželjenu poštu.

Kako će to u praksi izgledati?

📷 Izvor: Europska komisija
Izvor: Europska komisija

Nakon što se UI sustav stavi na tržište, tijela su zadužena za nadzor tržišta, subjekti koji uvode sustav osiguravaju ljudski nadzor i praćenje, a dobavljači moraju imati uspostavljen sustav praćenja nakon stavljanja na tržište. Dobavljači i subjekti koji uvode sustav također će morati prijaviti ozbiljne incidente i neispravnosti.