Rebrendiranje u čuvara AI etike: OpenAI u središtu debate o AI regulaciji
Predstavnik OpenAI-ja, odgovarajući na pitanja američkih zakonodavaca, izjavio je da će osigurati da njihovi moćni AI alati ne uzrokuju nikome zlo. U toku je, zapravo, rebrendiranje kompanije u „čuvara AI sigurnosti“ ali i političko prestrojavanje.
U posljednjih nekoliko mjeseci, OpenAI se suočio s nizom kontroverzi oko sigurnosti svojih sustava i mogućnosti zaposlenika da se izjasne o toj temi.
OpenAI - dobar, loš, zao?
Nekoliko ključnih članova njihovih timova vezanih uz sigurnost, uključujući bivšeg suosnivača i glavnog znanstvenika Ilyu Sutskevera, dalo je ostavku, zajedno s još jednim vođom tvrtkinog tima posvećenog procjeni dugoročnih sigurnosnih rizika, Janom Leikeom, koji je javno izrazio zabrinutost da tvrtka daje prednost razvoju proizvoda nad sigurnošću. OpenAI već duže balansira na ivici dobrih nakana i lošeg imidža pa njegov CEO i cijeli tim nastoji na mnogo načina dokazati da su na pravom putu. Najnoviji pokušaj je bio obraćanje zabrinutim američkim zastupnicima.
Pismo kao odgovor
Startup je poslao pismo kojim želi uvjeriti zakonodavce da predano radi na sigurnosti umjetne inteligencije nakon što je pet senatora, uključujući senatora Briana Schatza (demokrata iz Havaja, član Odbora za trgovinu, znanost i promet) postavilo pitanja o OpenAI-jevim politikama u pismu upućenom izvršnom direktoru Samu Altmanu.
Sastav govori puno
Zanimljiv je sastav koji se udružio, uglavnom svi osim jednog nezavisnog, su članovi Demokratske stranke, a to očito govori i o polarizaciji na američkoj političkoj sceni kad se radi o reguliranju umjetne inteligencije. Takav je isti bipolarni trenutak i u Silicijskoj dolini, jer oni koji su se priklonili kandidatu Trumpu, na način da pišu bogate čekove za potporu kampanje, očekuju da se, bude li pobjede, Republikanci ne miješaju u reguliranje AI industrije. S druge strane, Demokrati su se već izjasnili kad je predsjednik Biden donesao Akt kojim se pokušava regulirati AI kompanije. Tome Aktu potporu je već dalo petnaestak kompanije, pred nekoliko dana i Apple se o tome izjasnio.
Kuda smjera OpenAI?
Moglo bi se pretpostaviti da OpenAI gleda u pravcu Demokrata, zapravo prema Ministarstvu pravde, da se ne pokrene kakva istraga, pa je bolje biti pokoran.
"Naša misija je osigurati da umjetna inteligencija koristi cijelom čovječanstvu, i posvećeni smo implementaciji rigoroznih sigurnosnih protokola u svakoj fazi našeg procesa," izjavio je u srijedu glavni strateg Jason Kwon u pismu zakonodavcima.
Časna pionirska
Konkretno, OpenAI je rekao da će nastaviti ispunjavati svoje obećanje o dodjeli 20 posto svojih računalnih resursa za istraživanja vezana uz sigurnost tijekom narednih godina. Tvrtka se u svom pismu također obvezala da neće provoditi sporazume kojim se sadašnjim i bivšim zaposlenicima zabranjuje kritiziranje i javna istupanja, osim u specifičnim slučajevima. OpenAI-jeva bivša ograničenja za zaposlenike koji su napustili tvrtku došla su pod povećalo zbog toga što su bila neuobičajeno restriktivna. OpenAI je nakon što je došlo u javnost, izjavio da je promijenio svoja pravila.
Altmanov prilog raspravio
I Altman je kasnije elaborirao strategiju na društvenim mrežama.
"Naš tim radi s američkim Institutom za sigurnost AI-ja na sporazumu kojim bismo osigurali rani pristup našem sljedećem temeljnom modelu kako bismo mogli zajedno raditi na unapređenju znanosti o evaluacijama AI-ja," napisao je na X-u.
Revizija OpenAI-jevih procesa i pravila
Kwon je u svom pismu također spomenuo nedavno osnivanje odbora za sigurnost i zaštitu, koji trenutno provodi reviziju OpenAI-jevih procesa i pravila. Ovaj odbor, sastavljen od stručnjaka iz različitih područja uključujući etiku AI-ja, kibernetičku sigurnost i javnu politiku. Ova revizija obuhvaća nekoliko ključnih područja.
Prvo, provodi se temeljit pregled postojećih sigurnosnih protokola s ciljem sprječavanja zlouporabe AI tehnologije. Drugo, vrši se procjena etičkih standarda koji se primjenjuju u razvoju AI modela kako bi se osiguralo da su u skladu s najvišim etičkim principima. Treće, analiziraju se potencijalni dugoročni i kratkoročni rizici povezani s naprednim AI sustavima, što je ključno za predviđanje i ublažavanje mogućih negativnih posljedica. Četvrto, evaluiraju se politike o javnom objavljivanju informacija o AI modelima i njihovom razvoju, da budu transparentni prema javnosti i stručnoj zajednici.
Konačno, provodi se sveobuhvatan pregled praksi prikupljanja, obrade i zaštite podataka korištenih za trening AI modela, kako bi se osigurala privatnost i sigurnost korisničkih podataka. Očekuje se da će nalazi i preporuke ovog odbora imati značajan utjecaj na buduće smjernice i prakse OpenAI-ja.