Objavljen europski Kodeks dobre prakse za umjetnu inteligenciju opće namjene

Kodeks je dobrovoljni akt koji će industriji pomoći da se uskladi s pravilima EU o umjetnoj inteligenciji, a oni koji ga potpišu imat će koristi od manjeg administrativnog opterećenja i veće pravne sigurnosti

Sandro Vrbanus petak, 11. srpnja 2025. u 16:46

Europska komisija objavila je konačnu verziju Kodeksa dobre prakse u području umjetne inteligencije opće namjene, dobrovoljnog alata koji je razvilo 13 neovisnih stručnjaka, uz doprinos više od 1.000 dionika, uključujući dobavljače AI modela, mala i srednja poduzeća, akademike, stručnjake za sigurnost umjetne inteligencije, nositelje prava i organizacije civilnog društva.

Usklađivanje s AI Aktom

Kodeks je osmišljen kako bi se industriji pomoglo da se uskladi s pravilima o umjetnoj inteligenciji opće namjene iz Akta o umjetnoj inteligenciji, koja će se početi primjenjivati 2. kolovoza 2025. Ured Komisije za umjetnu inteligenciju postaje izvršiv godinu dana kasnije u pogledu novih modela, a dvije godine kasnije u pogledu postojećih modela. Time se nastoji osigurati da AI modeli opće namjene koji se stavljaju na europsko tržište, uključujući one najmoćnije, budu sigurni i transparentni.

Tri poglavlja

Kodeks se sastoji od tri poglavlja: Transparentnost, autorska prava, koji se odnose na sve dobavljače AI modela opće namjene, te treći dio nazvan sigurnost i zaštita, koji je relevantan samo za ograničen broj dobavljača najnaprednijih modela.

  • Budući da su UI modeli opće namjene temelj mnogih UI sustava u EU-u, Akt o umjetnoj inteligenciji pomaže tvorcima modela osigurati dovoljnu transparentnost. Poglavlje o transparentnosti Kodeksa nudi predložak obrasca za dokumentaciju prilagođen korisnicima, koji pružateljima omogućuje jednostavno dokumentiranje potrebnih informacija na jednom mjestu.
  • U poglavlju Kodeksa o autorskim pravima pružateljima se nude praktična rješenja za uspostavu politike koja je u skladu s pravom EU-a o autorskim pravima.
  • Budući da bi neki AI modeli opće namjene mogli nositi sistemske rizike, kao što su rizici za temeljna prava i sigurnost, uključujući smanjenje prepreka razvoju kemijskog ili biološkog oružja, ili rizici povezani s gubitkom kontrole nad modelom – Aktom o umjetnoj inteligenciji propisano je da autori takvih modela procjenjuju i ublažavaju te sistemske rizike. Poglavlje o sigurnosti i zaštiti sadržava relevantne najsuvremenije prakse za upravljanje rizicima te vrste.

Nakon što države članice i Komisija potvrde Kodeks, dobavljači AI modela opće namjene koji dobrovoljno potpišu Kodeks moći će dokazati usklađenost s relevantnim obvezama iz AI Akta pridržavanjem Kodeksa. Pritom će potpisnici Kodeksa imati koristi od manjeg administrativnog opterećenja i veće pravne sigurnosti u usporedbi s pružateljima koji dokažu usklađenost na druge načine.