Elon Musk ha detto mercoledì non è “a conoscenza di immagini di minorenni nudi generate da Grok”, poche ore prima del procuratore generale della California ha aperto un’indagine nel chatbot di xAI per la “proliferazione di materiale sessualmente esplicito non consensuale”.
La smentita di Musk arriva mentre cresce la pressione da parte dei governi di tutto il mondo – dal Regno Unito e dall’Europa alla Malesia e all’Indonesia – dopo che gli utenti di X hanno iniziato a chiedere a Grok di trasformare le foto di donne veree in alcuni casi bambini, in immagini sessualizzate senza il loro consenso. Copyleaks, una piattaforma di rilevamento dell’intelligenza artificiale e di governance dei contenuti, stima che circa un’immagine venga pubblicata ogni minuto su X. Una separata campione raccolti dal 5 gennaio al 6 gennaio ne sono stati rilevati 6.700 all’ora nelle 24 ore. (X e xAI fanno parte della stessa azienda.)
“Questo materiale… è stato utilizzato per molestare le persone su Web”, ha dichiarato il procuratore generale della California Rob Bonta in una nota. “Esorto xAI advert agire immediatamente per garantire che questa situazione non vada oltre”.
L’ufficio dell’AG indagherà se e come xAI ha violato la legge.
Esistono numerous leggi per proteggere gli obiettivi di immagini sessuali non consensuali e materiale pedopornografico (CSAM). L’anno scorso il Take It Down Act è stato convertito in una legge federale, che criminalizza la distribuzione consapevolmente di immagini intime non consensuali – compresi i deepfake – e richiede che piattaforme come X rimuovano tali contenuti entro 48 ore. Anche la California ha il suo serie di leggi che il governatore Gavin Newsom ha firmato nel 2024 per reprimere i deepfake sessualmente espliciti.
Grok ha iniziato a soddisfare le richieste degli utenti di X di produrre foto sessualizzate di donne e bambini verso la tremendous dell’anno. La tendenza sembra essere decollata dopo che alcuni creatori di contenuti per adulti hanno spinto Grok a generare immagini sessualizzate di se stessi come forma di advertising and marketing, cosa che ha poi portato altri utenti a inviare richieste simili. In una serie di casi pubblici, tra cui personaggi noti come l’attrice di “Stranger Issues” Millie Bobby Brown, Grok ha risposto alle richieste che gli chiedevano di alterare foto reali di donne vere cambiando vestiti, posizione del corpo o caratteristiche fisiche in modi apertamente sessuali.
Secondo alcune segnalazionixAI ha iniziato a implementare misure di salvaguardia per affrontare il problema. Grok ora richiede un abbonamento premium prima di rispondere a determinate richieste di generazione di immagini e anche in questo caso l’immagine potrebbe non essere generata. April Kozen, vicepresidente del advertising and marketing di Copyleaks, ha dichiarato a TechCrunch che Grok potrebbe soddisfare una richiesta in modo più generico o attenuato. Hanno aggiunto che Grok sembra più permissivo con i creatori di contenuti per adulti.
Evento Techcrunch
San Francisco
|
13-15 ottobre 2026
“Nel complesso, questi comportamenti suggeriscono che X sta sperimentando molteplici meccanismi per ridurre o controllare la generazione problematica di immagini, anche se permangono incoerenze”, ha affermato Kozen.
Né xAI né Musk hanno affrontato pubblicamente il problema in modo diretto. Pochi giorni dopo l’inizio dei casi, Musk sembrava prendere alla leggera il problema chiedendo a Grok di generare un file immagine di se stesso in bikini. Il 3 gennaio, Il conto sicurezza di X ha affermato che la società intraprende “azioni contro i contenuti illegali su X, inclusi [CSAM]”, senza affrontare specificamente l’apparente mancanza di tutele da parte di Grok o la creazione di immagini manipolate a sfondo sessuale che coinvolgono le donne.
Il posizionamento rispecchia quanto pubblicato oggi da Musk, sottolineando l’illegalità e il comportamento degli utenti.
Musk ha scritto che “non period a conoscenza di alcuna immagine di minorenni nudi generata da Grok. Letteralmente zero”. Questa affermazione non nega l’esistenza di foto in bikini o di modifiche sessualizzate in senso più ampio.
Michael Goodyear, professore associato alla New York Legislation College ed ex avvocato, ha dichiarato a TechCrunch che Musk probabilmente si è concentrato esclusivamente sul materiale pedopornografico perché le sanzioni per la creazione o la distribuzione di immagini sintetiche sessualizzate di bambini sono maggiori.
“Advert esempio, negli Stati Uniti, il distributore o il minacciato distributore di materiale pedopornografico può rischiare fino a tre anni di reclusione ai sensi del Take It Down Act, rispetto ai due per immagini sessuali adulte non consensuali”, ha affermato Goodyear.
Ha aggiunto che il “punto più importante” è il tentativo di Musk di attirare l’attenzione sui contenuti problematici degli utenti.
“Ovviamente Grok non genera immagini spontaneamente. Lo fa solo in base alla richiesta dell’utente”, ha scritto Musk nel suo submit. “Quando gli viene chiesto di generare immagini, si rifiuterà di produrre qualcosa di illegale, poiché il principio operativo di Grok è obbedire alle leggi di un determinato paese o stato. Potrebbero esserci momenti in cui l’hacking contraddittorio dei immediate di Grok fa qualcosa di inaspettato. Se ciò accade, risolviamo immediatamente il bug.”
Nel loro insieme, il submit caratterizza questi incidenti come non comuni, li attribuisce alle richieste degli utenti o ai suggerimenti del contraddittorio e li presenta come problemi tecnici che possono essere risolti tramite correzioni. Si ferma prima di riconoscere eventuali carenze nella progettazione di sicurezza di base di Grok.
“I regolatori potrebbero prendere in considerazione, con attenzione alla tutela della libertà di parola, la richiesta di misure proattive da parte degli sviluppatori di intelligenza artificiale per prevenire tali contenuti”, ha affermato Goodyear.
TechCrunch ha contattato xAI per chiedere quante volte ha rilevato casi di immagini manipolate sessualmente non consensuali di donne e bambini, quali guardrail sono specificamente cambiati e se la società ha informato le autorità di regolamentazione del problema. TechCrunch aggiornerà l’articolo se l’azienda risponde.
La California AG non è l’unico regolatore a cercare di ritenere xAI responsabile del problema. Sia l’Indonesia che la Malesia hanno temporaneamente bloccato l’accesso a Grok; L’India ha chiesto a X di apportare modifiche tecniche e procedurali fast a Grok; IL Lo ha ordinato la Commissione europea xAI conserverà tutti i documenti relativi al suo chatbot Grok, precursore dell’apertura di una nuova indagine; e l’organismo di vigilanza sulla sicurezza on-line del Regno Unito Ofcom ha aperto un’indagine formale ai sensi dell’On-line Security Act del Regno Unito.
xAI è già stato criticato per le immagini sessualizzate di Grok in passato. Come ha sottolineato AG Bonta in una dichiarazione, Grok embody una “modalità piccante” per generare contenuti espliciti. Nel mese di ottobre, un aggiornamento ha reso ancora più semplice il jailbreak delle poche linee guida di sicurezza esistenti, con il risultato che molti utenti hanno creato pornografia hardcore con Grok, oltre a immagini sessuali grafiche e violente.
Molte delle immagini più pornografiche prodotte da Grok riguardano persone generate dall’intelligenza artificiale, qualcosa che molti potrebbero ancora trovare eticamente discutibile ma forse meno dannoso per gli individui nelle immagini e nei video.
“Quando i sistemi di intelligenza artificiale consentono la manipolazione delle immagini di persone reali senza un chiaro consenso, l’impatto può essere immediato e profondamente personale”, ha affermato il cofondatore e CEO di Copyleaks Alon Yamin in una dichiarazione inviata by way of e mail a TechCrunch. “Da Sora a Grok, stiamo assistendo a un rapido aumento delle capacità di intelligenza artificiale per i media manipolati. A tal tremendous, il rilevamento e la governance sono ora più che mai necessari per aiutare a prevenire gli abusi.”












