OpenAI se zalaže za vanjski nadzor umjetne "superinteligencije"

Kompanija koja je izradila najpoznatije AI sustave današnjice poziva na stvaranje organizacije, koja bi nadzirala i kontrolirala razvoj sustava, moćnijih od onih koje imamo danas

Sandro Vrbanus petak, 26. svibnja 2023. u 10:15

Otkako je OpenAI predstavio ChatGPT, brojni su akteri, manje ili više poznati u javnosti, pokretali pitanja nadzora, kontrole razvoja, pa čak i tražili privremeno zaustavljanje daljnjeg razvoja umjetne inteligencije, kako se čovječanstvo ne bi dovelo u opasnost. Ističu se tako izazovi pri stvaraju AI-ja pametnijeg od ljudi, govori se o tome da će nas strojevi jednog dana, kao u SF-u, nadvladati i učiniti svojim robovima, tj. općenito u svijetu vlada konfuzija kad je riječ o daljnjem razvoju te tehnologije i mogućim implikacijama za društvo.

Stoga je dobro vidjeti i što misle u OpenAI-ju, jednom od predvodnika ove transformacije svijeta. Oni su ovoga tjedna na svojim stranicama objavili kratko priopćenje, u kojem predlažu da se uvede tijelo koje bi nadziralo daljnji napredak umjetne inteligencije – ali samo one snažnije od danas dostupnih alata.

U tom priopćenju, koje potpisuju Sam Altman, Greg Brockman i Ilya Sutskever, suosnivači OpenAI-ja, stoji kako je sasvim moguće da kroz narednih deset godina budu u većini zadataka superiorni ljudima te obavljaju poslove usporedive s cijelim korporacijama danas. Takva "superinteligencija" bit će najmoćniji alat koji je čovjek ikada stvorio, ali do toga moramo doći na kontroliran način, poručuju potpisnici – otprilike kao što to činimo s nuklearnom energijom ili sintetičkom biologijom, također potencijalno vrlo opasnim, ali i korisnim, tehnologijama.

Prva tri koraka

Za početak predlažu tri ideje, za koje smatraju da su vrijedne razmatranja. Prvo, organizacije i vlade moraju surađivati kako bi se razvoj superinteligencije mogao pratiti i koordinirati, a pritom privatne organizacije treba strogo kontrolirati i držati odgovornima.

Drugo, potrebno je oformiti međunarodno nadzorno tijelo, koje bi imalo mogućnost provjeravati, testirati i revidirati sustave te osiguravati da ostaju unutar sigurnosnih standarda. Bitno je pritom, smatraju, da se to tijelo bavi općim egzistencijalnim rizicima, a ne pitanjima koje će regulirati pojedine države, kao ono "što AI smije reći, a što ne".

I treće, potrebne su tehničke mogućnosti kako bi umjetna superinteligencija ostala sigurna, za što će trebati uložiti još mnogo napora.

Što regulirati, a što ne?

OpenAI-jevi osnivači smatraju da je, iako je kontrola potrebna, nju bitno držati na određenoj višoj razini, tj. ne ograničavati kompanije u razvoju novih tehnologija i modela ispod određenog praga. Danas dostupni sustavi (među koje vjerojatno primarno ubrajaju svoje GPT modele i DALL-E) mogu donijeti ogromnu vrijednost svijetu, kažu iz ove organizacije. Iako sa sobom nose određene rizike, oni su usporedivi s rizicima ostalih danas poznatih tehnologija i čine se adekvatnima današnjem društvu.

S druge strane, ono što smatraju da je bitno regulirati, su daleko moćniji sustavi i modeli od onih koje imamo danas – pa ne bismo smjeli dopustiti da se fokus regulatora prema njima "razvodni" zbog primjene regulative i kontrole na manje moćne sustave.