Hakerska provala u OpenAI-u podiže uzbunu u AI industriji
Hakerski napad na OpenAI, probudio je mnoge u branši. Incident su zatajili od javnosti jer su smatrali su da je haker privatna osoba bez povezanosti sa stranim vladama i da nisu pokradeni podaci o korisnicima ili partnerima.

New York Times objavio je otkriće, za neke šokantno, za neke nimalo, da je AI lider, OpenAI, tvorac ChatGPT-a, postao žrtvom hakerskog napada početkom prošle godine. Provala, do sada nepoznata javnosti, uzbudila je industriju i pokrenula raspravu o sigurnosnim mjerama unutar AI sektora.
Napad držali u tajnosti
Kako navodi NYT, citirajući dvoje pojedinaca upoznatih s incidentom, koji su govorili s novinarima pod uvjetom anonimnosti, hakeri ili haker je ušao u interne sustave za razmjenu poruka OpenAI-a i tako dobio pristup osjetljivim raspravama o planovima i problemima vezanim za razvoj AI tehnologije. Iako su glavni AI sustavi i podaci o korisnicima ostali zaštićeni, proboj je izazvao valove nelagodnosti u tehnološkoj zajednici i vladinim institucijama.
Rukovoditelji OpenAI-a obavijestili su zaposlenike o hakiranju tijekom sastanka svih zaposlenika u svom sjedištu u San Franciscu u travnju 2023. Upravni odbor također je obaviješten, ali tvrtka je odlučila ne objaviti informacije javnosti, navodeći izostanak ukradenih podataka o korisnicima ili partnerima.
Odluka da se incident drži u tajnosti izazva sumnje. OpenAI nije upozorio FBI ili druge agencije za provedbu zakona, vjerujući da je haker privatna osoba bez povezanosti sa stranim vladama. Međutim, odluka da se drži u tajnosti, pobuđuje iznenađenje i skepticizam.
Zabrinutost zbog sigurnosnih mjera u OpenAI
Leopold Aschenbrenner, bivši član tima Superalignment u OpenAI-u, izrazio je zabrinutost zbog sigurnosnih mjera tvrtke. U memorandumu upravnom odboru, Aschenbrenner je tvrdio da OpenAI ne čini dovoljno kako bi spriječio konkurenciju, posebno iz stranih zemalja, ciljajući na Kinu, da ukradu njihove tajne. "Sigurnost OpenAI-a nije dovoljno jaka da zaštiti od krađe ključne tajne kad bi se hakeri infiltrirali tvrtku," izjavio je Aschenbrenner u nedavnom podcastu.
OpenAI je od tada pojačao svoje sigurnosne mjere. Tvrtka je nedavno osnovala Odbor za sigurnost i zaštitu, angažirala umirovljenog generala Paula Nakasonea, bivšeg direktora Nacionalne sigurnosne agencije i Cyber Commande američke vojske. "Počeli smo ulagati u sigurnost godinama prije ChatGPT-a," rekao je Matt Knight, šef sigurnosti OpenAI-a. "Na putu smo ne samo da razumijemo rizike i ostanemo ispred njih, već i da ojačamo našu otpornost."
Iako se trenutni AI sustavi ne smatraju velikim rizicima za nacionalnu sigurnost, stručnjaci upozoravaju na potencijalne buduće prijetnje. Daniela Amodei, suosnivačica i predsjednica AI tvrtke Anthropic, umanjila je neposrednu zabrinutost, ali je priznala potencijalne dugoročne rizike.
Globalna utrka oko AI-a u tijeku
Ovaj dogadjaj također govori da je globalna utrka oko AI-a u tijeku. Glavni je konkurent ali i potencijalni neprijatelj, naravno, Kina. Kineske tvrtke navodno smanjuju jaz, a nekim sugeriraju da je Kina već prestigla Sjedinjene Države u razvoju umjetne inteligencije .
Dok se AI industrija bori s ovim izazovima, pozivi za strožu regulaciju postaju sve glasniji. Susan Rice, bivša savjetnica za nacionalnu sigurnost, naglasila je potrebu da se ozbiljno shvate potencijalni najgori scenariji. "Čak i ako su najgori scenariji relativno male vjerojatnosti, ali velikog značaja, naša je odgovornost da ih shvatimo ozbiljno”.