OpenAI otvara vrata svog sigurnosnog centra, pitanja o transparentnosti ostaju

OpenAI lansirao Safety evaluations hub za testiranje AI modela, no ostaju pitanja transparentnosti. Unatoč obećanju o kontinuiranom dijeljenju sigurnosnih metrika, industriji nedostaje nezavisni regulatorni okvir koji nije kreiran od samih AI kompanija.

Bug.hr petak, 16. svibnja 2025. u 09:40

OpenAI je lansirao Safety evaluations hub, mrežnu platformu koja prikazuje kako modeli kompanije funkcioniraju na različitim testovima za generiranje štetnog sadržaja, probijanje sigurnosnih mjera i halucinacije. Tvrtka navodi da će koristiti portal za dijeljenje metrika na "kontinuiranoj osnovi" te planira ažurirati platformu s "većim nadogradnjama modela" u budućnosti. 

Zatvoreni "Open"AI pod povećalom

Nije tajna da regulatori diljem svijeta, kao i tehnološka zajednica, pojačavaju pritisak zbog potencijalnih opasnosti koje donose jezični modeli poput GPT-a. OpenAI se već mjesecima nalazi pod povećalom zbog nedovoljne otvorenosti oko svojih metoda testiranja i sigurnosnih protokola. Ironično, tvrtka s "Open" u imenu danas je jedna od zatvorenijih u industriji, a dok se fokusira na sigurnosna testiranja, pitanje korištenja zaštićenih materijala za treniranje modela ostaje neriješeno.

Europa predvodi trku za AI pravilima

Industriji nedostaje standardizirani regulatorni okvir koji neće oblikovati same AI kompanije. EU je tu odmakla najdalje s AI Actom koji donosi jasne kategorije rizika i obveze za proizvođače AI sustava, a prvi konkretni propisi stupaju na snagu već krajem 2025. Europski pristup naglašava zaštitu prava građana i transparentnost, za razliku od američkog fokusa na inovacije i minimalne intervencije ili kineskog modela snažne državne kontrole. Za kvalitetnu regulaciju ključna su nezavisna tijela koja kombiniraju tehničku stručnost s regulatornim ovlastima, no pitanje je mogu li pratiti tempo kojim napreduje AI tehnologija i hoće li se uspjeti uskladiti različiti regionalni pristupi.

Umjesto samo PR objava, prava transparentnost bi značila i objavljivanje detaljnog popisa izvora korištenih za treniranje modela. To bi predstavljalo konkretan korak prema odgovornom razvoju umjetne inteligencije i zaštiti autorskih prava u digitalnom dobu.