Šef Anthropica: Nitko zapravo ne razumije kako AI radi

Na svojem je osobnom blogu prvi čovjek jedne od najznačajnijih AI kompanija današnjice otvoreno priznao da je svijet prvi put suočen s tehnologijom za koju nitko nije siguran kako "iznutra" funkcionira

Sandro Vrbanus ponedjeljak, 5. svibnja 2025. u 20:06
📷 TechCrunch Disrupt 2023 / Wikimedia / CC BY 2.0
TechCrunch Disrupt 2023 / Wikimedia / CC BY 2.0

Dario Amodei američki je istraživač umjetne inteligencije, poduzetnik te osnivač AI kompanije Anthropic, koja stoji iza chatbota Claude i prikupila je više milijardi dolara ulaganja fondova rizičnog kapitala. Unatoč činjenici da se tom tehnologijom bavi više od desetljeća, otkako je ona od marginalne postala glavna ekonomska i geopolitička tema na svijetu, Amodei priznaje – ni on sam, a niti itko drugi, ne zna točno kako ta tehnologija "iznutra" zapravo funkcionira.

"Ne možemo zaustaviti autobus"

Njezin je napredak neumoljiv, premoćan i prebrz da bi ga se zaustavilo, ali ipak nešto možemo učiniti, smatra šef Anthropica. Redoslijed kojim se stvari grade, aplikacije koje odabiremo i detalji o tome kako se one uvode u društvo, to je nešto na čemu možemo raditi i zbog čega AI može imati veliki pozitivan utjecaj. "Ne možemo zaustaviti autobus, ali možemo njime upravljati", kaže.

"Ljudi izvan tog područja često su iznenađeni i uznemireni kada saznaju da ne razumijemo kako funkcioniraju naše vlastite kreacije umjetne inteligencije. Imaju pravo biti zabrinuti: ovaj nedostatak razumijevanja je u biti bez presedana u povijesti tehnologije", ističe Amodei u vrlo iskrenom eseju o umjetnoj inteligenciji. Nadodaje i da je većina rizika unutar te tehnologije povezana upravo s netransparentnošću njezinog načina rada, što bi bilo daleko lakše riješiti da su modeli "razumljivi". No, oni to nisu, pa nam je teško uopće i znati koliko su opasni.

Bitna je interpretabilnost

Zbog načina rada "crne kutije" mi zapravo ne možemo učinkovito predvidjeti, spriječiti ili objasniti potencijalno štetna, neusklađena ili obmanjujuća ponašanja modela, što predstavlja ozbiljan rizik za sigurnost i pouzdanost AI sustava. Amodei stoga kaže da je razvoj interpretabilnosti (odnosno sposobnosti razumijevanja unutarnjih procesa samih modela) postao hitan prioritet. Prema njemu, samo interpretabilni AI sustavi mogu omogućiti pravovremeno otkrivanje problema, izgradnju povjerenja, sigurnu primjenu u kritičnim područjima i pružiti regulatorima i korisnicima potrebnu transparentnost.

"Neprihvatljivo da čovječanstvo ostane potpuno neupućeno u to kako napredni AI sustavi donose odluke", poručuje šef jedne od najjačih AI kompanija, pa zaključuje da je za postizanje interpretabilnosti potrebna vrlo široka suradnja znanstvene zajednice, industrije i zakonodavaca, ali i ulaganja u nove metode, standarde i infrastrukturu koji bi pomogli razumjeti AI "iznutra".