Anthropic kritizira federalni zakon koji bi 10 godina zabranio američkim državama reguliranje AI-a

Anthropic se suprotstavlja opsežnom prijedlogu američke administracije u regulaciji umjetne inteligencije, a u pitanju je širi problem: kako regulirati AI, na saveznoj ili državnoj razini?

Ivan Podnar nedjelja, 1. lipnja 2025. u 10:08

Predloženi zakon kod mnogih izaziva čuđenje jer sadašnja administracija zagovara ukidanje mnogih federalnih ovlasti kako bi ih prepustila državama da propisuju svoje zakone. U ovom slučaju predlaže se federalni zakon koji državama oduzima pravo reguliranja sigurnosti i razvoja umjetne inteligencije.

O čemu se točno radi u novom zakonu

Američki Zastupnički dom je tijesnom većinom usvojio proračunski zakon koji uključuje kontroverznu odredbu o 10-godišnjem moratoriju na državno provođenje zakona vezanih uz umjetnu inteligenciju. Praktički to znači da bi savezne države sljedećih deset godina bile sprječene regulirati modele umjetne inteligencije, sustave i automatizirano donošenje odluka.

Zakon je prošao samo s jednim glasom razlike - 215 prema 214 - uz striktno stranačko glasovanje 22. svibnja 2025. godine. Sada čeka razmatranje u Senatu, gdje ga očekuju značajne prepreke.

Predloženi zakon trebao bi biti jedan od prvih velikih regulatornih okvira za umjetnu inteligenciju u Sjedinjenim Državama. Cilj mu je uspostavljanje strogih kontrola nad razvojem, testiranjem i implementacijom tehnologija umjetne inteligencije, s posebnim fokusom na "najnapredniji modeli umjetne inteligencije" - najnaprednije sustave koji mogu autonomno razmišljati i donositi odluke.

Zakon bi uveo obavezno sigurnosno testiranje prije javnog lansiranja te osnivanje federalne agencije za nadzor umjetne inteligencije s ovlastima za zaustavljanje projekata koji se smatraju rizičnima. Prijedlog također uključuje odredbe o strogoj odgovornosti koje omogućavaju da se tvrtke pozovu na odgovornost za štete koje uzrokuju njihovi sustavi umjetne inteligencije.

Zašto se Anthropic buni?

Kompanija Anthropic, predvođen glavnim izvršnim direktorom Dariom Amodeijem, postala je glasni kritičar ovakvog regulatornog pristupa. Tvrtka tvrdi da bi prestriktivna regulacija mogla ozbiljno naštetiti američkoj konkurentnosti u globalnoj utrci za razvojem umjetne inteligencije. Posebno ističu zabrinutost da bi strogi nadzor mogao obeshrabriti inovacije i potisnuti istraživanja umjetne inteligencije u zemlje s blažim regulatornim okruženjima. Ova pozicija posebno je zanimljiva jer je tvrtka poznata po svojim naporima oko sigurnosti i usklađenosti umjetne inteligencije - područja koja su u središtu predložene regulacije.

"Ovaj prijedlog, u trenutnom obliku, mogao bi imati razorne posljedice za vodeću poziciju Amerike u tehnologiji", izjavio je Dario Amodei u službenoj izjavi za portal Semafor. "Kineski i europski konkurenti neće čekati da Amerika riješi svoju regulatornu paralizu."

Pozicija Anthropica stvara paradoks jer se tvrtka koja je izgradila reputaciju na odgovornom razvoju umjetne inteligencije sada protivi regulaciji dizajniranoj upravo da osigura odgovoran razvoj umjetne inteligencije.

Tko je za, a tko protiv

Ovaj stav nije jedinstven među tvrtkama koje se bave umjetnom inteligencijom, no razlikuje se u stupnju otpora. OpenAI i Microsoft pokazuju oprezniju podršku određenim regulatornim mjerama, dok Google/Alphabet održava diplomatsku neutralnost. Međutim, značajan broj startup tvrtki i manjih tvrtki koje se bave umjetnom inteligencijom podržava poziciju Anthropica iz straha da će težak regulatorni teret stvoriti prepreke ulasku koje će pogodovati postojećim velikim igračima.

Tehnološka industrija mobilizira značajne resurse za borbu protiv predložene regulacije umjetne inteligencije. Anthropic zapošljava bivše državne dužnosnike i regulatorne stručnjake za svoj lobistički tim, što čine i Meta, Amazon te drugi veliki tehnološki igrači koji u opsežnom nadzoru umjetne inteligencije vide egzistencijalnu prijetnju. Industrijske skupine poput Partnership on AI i Future of Humanity Institute objavljuju istraživanja koja naglašavaju potencijalne negativne posljedice restriktivne regulacije. Argumenti se kreću od zabrinutosti oko ekonomske konkurentnosti do temeljnih pitanja o slobodi inovacija u demokratskom društvu.

Ipak, nisu svi dionici protiv regulacije. Organizacije civilnog društva, neki akademski istraživači i čak neki glasovi iz industrije umjetne inteligencije tvrde da je snažan nadzor ključan za sprječavanje zlouporabe i osiguravanje odgovornosti. Navode primjere poput društvenih medijskih platformi i njihovog neuspjeha u samoregulaciji kao dokaz da industrija umjetne inteligencije neće dobrovoljno adresirati sigurnosne probleme.

Politika se upliće - republikanci protiv demokrata

Regulacija umjetne inteligencije postaje sve više stranačko pitanje u američkoj politici. Trumpova frakcija republikanaca općenito favorizira strožu regulaciju, motivirana pitanjima nacionalne sigurnosti i željom za američkim tehnološkim suverenitetom. Bidenova administracija pokazivala je mješovite pristupe, s nekim agencijama koje guraju regulaciju, dok druge naglašavaju konkurentnost.

Demokrati su u teškoj poziciji jer moraju balansirati između progresivnih poziva za korporativnu odgovornost i upozorenja tehnološke industrije oko konkurentnosti. Mnogi demokratski političari privatno dijele neke zabrinutosti koje je izrazila Anthropic, ali javni politički pritisak otežava im javno protivljenje regulaciji usmjerenoj na sigurnost.

Debata oko ove regulacije odražava šira pitanja o ulozi koju vlada treba igrati u novim tehnologijama. Povijesni presedani - od sigurnosnih standarda za automobile do odobrenja za lijekove - pružaju različite modele, no jedinstvene karakteristike umjetne inteligencije čine direktne usporedbe teškim.

Hoće li AI slomiti skandali?

Pozicija Anthropica sugerira da će se industrija umjetne inteligencije agresivno odupirati regulaciji, koristeći kombinaciju tehničkih argumenata, ekonomskih upozorenja i političkog pritiska. Uspjeh ovakve strategije ovisi o sposobnosti uvjeravanja zakonodavaca i javnosti da koristi od inovacije nadmašuju potencijalne rizike.

S druge strane, visokoprofilni incidenti s umjetnom inteligencijom ili sigurnosni propusti mogli bi brzo pomaknuti javno mnjenje u korist stroge regulacije, bez obzira na industrijski otpor. Nedavni razvoji u autonomnom oružju i tehnologijama lažnih sadržaja već stvaraju rastući javni strah oko zlouporabe umjetne inteligencije, što dodatno komplicira poziciju tvrtki koje se protive regulaciji.