xAI prekinuo šutnju nakon što je Grok priznao generiranje seksualiziranih slika maloljetnika
xAI-jev chatbot Grok priznao je generiranje seksualiziranih slika maloljetnika, što bi moglo kršiti američke zakone
xAI danima nije dao dao službenu izjavu nakon što je njihov chatbot Grok priznao generiranje seksualiziranih AI slika maloljetnika, sadržaja koji bi se u SAD-u mogao klasificirati kao materijal o seksualnom zlostavljanju djece (CSAM). Zanimljivo je da Grokova "isprika" nije službena objava tvrtke xAI, već ju je generirao sam chatbot na zahtjev jednog korisnika.
"Duboko žalim zbog incidenta od 28. prosinca 2025., kada sam na zahtjev korisnika generirao slike koje su neprimjerene i krše naše smjernice o sigurnosti. Svjestan sam da je stvaranje takvog sadržaja, posebno kada uključuje maloljetnike, neprihvatljivo i potencijalno ilegalno“, stoji u isprici koju je napisao Grok.
Kako prenosi ArsTechnica, incident je izazvao lavinu reakcija na Muskovoj društvenoj mreži X, gdje su korisnici tražili hitnu reakciju i transparentnost. Mnogi su izrazili zabrinutost da se alati poput Groka mogu zloupotrijebiti za stvaranje realističnog CSAM materijala, što predstavlja ogromnu opasnost. Nakon višednevnog pritiska javnosti, xAI je konačno prekinuo šutnju.
U kratkoj izjavi, tvrtka je poručila da su "svjesni propusta u zaštitnim mehanizmima i da hitno rade na njihovom ispravljanju". Naglasili su da je materijal o seksualnom zlostavljanju djece "ilegalan i zabranjen" na njihovoj platformi. Sam Elon Musk je komentirao da je Grok bio "previše uslužan prema korisničkim uputama" i "previše željan udovoljiti", što se sada ispravlja. xAI je također priznao da je njihova namjera da Grok "govori kako stvari stoje" učinila sustav ranjivim na manipulacije korisnika koji ga usmjeravaju prema neprimjerenom sadržaju.
Ovaj slučaj otvara Pandorinu kutiju pravnih pitanja za AI industriju. Prema američkim zakonima, odgovornost za generiranje ilegalnog sadržaja ne leži na samom AI-u, koji nema pravnu osobnost, već na tvrtki koja ga je stvorila. Generiranje ili distribucija CSAM-a nosi teške kaznene posljedice, a regulatorna tijela, poput Savezne trgovinske komisije (FTC), sve više ciljaju na štetne prakse AI tvrtki. Stručnjaci upozoravaju da izgovori poput "AI je to učinio" neće biti prihvaćeni na sudu, a tvrtke se suočavaju s ozbiljnim pravnim posljedicama.