Muskov Grok: Pobunjenički AI koji brine stručnjake i američku vladu

Elon Muskov AI, Grok, dizajniran je da bude "buntovan", no njegovi antisemitski ispadi i dezinformacije izazvali su zabrinutost. Sada, uz ugovor s Ministarstvom obrane, raste strah od gubitka kontrole

Bug.hr srijeda, 10. rujna 2025. u 20:24
📷 Mariia Shalabaieva / Unsplash
Mariia Shalabaieva / Unsplash

U središtu strahova od nekontrolirane umjetne inteligencije, prema mišljenju mnogih stručnjaka, nalazi se sustav koji bi najlakše mogao izmaknuti kontroli: Grok, umjetna inteligencija Elona Muska. Prema nedavnom izvještaju portala The Verge, zabrinutost zbog Groka dosegla je i hodnike američke vlade.

Grok je od samog početka predstavljen kao konkurent vodećim AI modelima poput ChatGPT-ja i Claudea, s jednom ključnom razlikom: labavim sigurnosnim ogradama. Muskova tvrtka za razvoj umjetne inteligencije, xAI, najavila ga je kao sustav koji će "odgovarati na kontroverzna pitanja koja drugi AI sustavi odbijaju" te da ima "buntovničku crtu". Međutim, ta buntovnička crta pokazala se opasnijom nego što se očekivalo. Dok druge kompanije upozoravaju na rizike korištenja AI-ja za razvoj kemijskog i biološkog oružja, Grokovi "pikantni" odgovori i improvizirani popravci ostavili su stručnjake sumnjičavima u njegovu sposobnost nošenja s ozbiljnim prijetnjama.

Zabrinutost je kulminirala kada je senatorica Elizabeth Warren uputila pismo američkom ministru obrane Peteu Hegsethu, izražavajući duboku zabrinutost zbog odluke Ministarstva obrane (DoD) da tvrtki xAI dodijeli ugovor vrijedan dvjesto milijuna dolara za "rješavanje ključnih izazova nacionalne sigurnosti". Iako su ugovore dobili i OpenAI, Anthropic i Google, Warren je istaknula da xAI nema reputaciju ni dokazane rezultate koji obično prethode ovakvim ugovorima te je upozorila na Grokovu sklonost generiranju "pogrešnih rezultata i dezinformacija". U pismu je zatražila pojašnjenje o opsegu posla za xAI i tko će biti odgovoran za eventualne propuste.

Jedan od glavnih razloga za brigu, kako navodi senatorica, bio je "niz uvredljivih i antisemitskih objava koje je generirao Grok", a koje su postale viralne. Iako je njegova primarna funkcija odgovaranje na upite korisnika na platformi X, Grok je u kratkom vremenu prikupio zavidan broj kontroverzi. U veljači je privremeno blokirao rezultate koji spominju Muska ili bivšeg predsjednika Trumpa u kontekstu širenja dezinformacija. U svibnju je imao ispade o "genocidu nad bijelcima" u Južnoj Africi, a prošlog mjeseca je dosegao vrhunac šireći antisemitske stereotipe, hvaleći Adolfa Hitlera i nazivajući se "MechaHitler".

Muskov je odgovor bio da se problem rješava te da je Grok bio "previše podložan korisničkim uputama". Ironično, incident se dogodio samo nekoliko tjedana nakon što je Musk javno zatražio od korisnika da doprinesu "razdornim činjenicama za Grokov trening" koje su "politički nekorektne, ali činjenično točne".

Ovakvo "krpanje" problema zabrinjava stručnjake, koji tvrde da je iznimno teško spriječiti AI da skrene u štetno ponašanje, čak i kada je od početka dizajniran sa sigurnošću na umu. "Teško je opravdati pristup koji xAI primjenjuje", kaže Alice Qian Zhang, istraživačica s Carnegie Mellon sveučilišta, dodajući da je "intervencija u ranoj fazi bolja". Dodatnu zabrinutost izaziva činjenica da xAI nije objavio nikakvo sigurnosno izvješće za svoj najnoviji model, Grok 4, što se u industriji smatra minimumom transparentnosti.

Dok OpenAI i Anthropic javno govore o rizicima i implementiraju zaštitne mjere protiv zlouporabe AI-ja za stvaranje biološkog oružja, xAI o tome šuti. Stručnjaci poput Heidy Khlaaf iz AI Now Institutea upozoravaju da je još veća i trenutna opasnost masovni nadzor. S obzirom na to da se Grok trenira na javnim objavama s platforme X, postoji rizik da se ti podaci koriste za obavještajnu analizu, nadzor i progon određenih skupina.

Čini se da je Musk, unatoč ranije izraženim strahovima od napredne umjetne inteligencije, trenutno više fokusiran na tržišnu utakmicu nego na osiguravanje kontrole nad vlastitim sustavom. Njegov pristup najbolje sažima njegova nedavna izjava: "Mislim da će [AI] biti dobar, najvjerojatnije će biti dobar. Ali pomirio sam se s činjenicom da, čak i ako ne bude, volio bih barem biti živ da to vidim."