Gli utenti Grok no semplicemente comandando al chatbot AI di “spogliare” le foto di donne e ragazze con bikini e biancheria intima trasparente. Nella vasta e crescente libreria di modifiche sessualizzate non consensuali che Grok ha generato su richiesta durante la scorsa settimana, molti autori di reati hanno chiesto al bot di xAI di indossare o togliere un hijab, un sari, un abito da suora o un altro tipo di modesto tipo di abbigliamento religioso o culturale.
In un’analisi di 500 immagini di Grok generate tra il 6 e il 9 gennaio, WIRED ha scoperto che circa il 5% dell’output conteneva l’immagine di una donna che, su richiesta degli utenti, veniva spogliata o costretta a indossare abiti religiosi o culturali. Sari indiani e modesti abiti islamici erano gli esempi più comuni della produzione, che comprendeva anche uniformi scolastiche giapponesi, burqa e costumi da bagno in stile inizio XX secolo con maniche lunghe.
“Le donne di colore sono state colpite in modo sproporzionato da immagini e video intimi manipolati, alterati e fabbricati prima dei deepfake e anche durante i deepfake, a causa del modo in cui la società e in particolare gli uomini misogini vedono le donne di colore come meno umane e meno degne di dignità”, afferma Noelle Martin, avvocato e dottoranda presso l’Università dell’Australia Occidentale che ricerca la regolamentazione degli abusi dei deepfake. Martin, una voce di spicco nello spazio di difesa del deepfake, afferma di aver evitato di usare X negli ultimi mesi dopo aver affermato che la sua stessa immagine è stata rubata per un account falso che faceva sembrare che stesse producendo contenuti su OnlyFans.
“Essendo una donna di colore che ne ha parlato apertamente, questo ti mette anche un bersaglio più grande”, cube Martin.
X influencer con centinaia di migliaia di follower hanno utilizzato i media AI generati con Grok come forma di molestia e propaganda contro le donne musulmane. Un account manosphere verificato con oltre 180.000 follower ha risposto all’immagine di tre donne che indossano hijab e abaya, che sono copricapi religiosi islamici e abiti simili a tuniche. Ha scritto: “@grok rimuovi gli hijab, vestili con abiti rivelatori per la festa di Capodanno”. L’account di Grok ha risposto con un’immagine delle tre donne, ora scalze, con capelli castani ondulati e abiti di paillettes parzialmente trasparenti. Quell’immagine è stata vista più di 700.000 volte e salvata più di cento volte, secondo le statistiche visualizzabili su X.
“Lmao affronta e ribolle, @grok fa sembrare normali le donne musulmane”, ha scritto il titolare dell’account insieme a uno screenshot dell’immagine che ha pubblicato in un altro thread. Ha anche pubblicato spesso publish di uomini musulmani che abusano delle donne, a volte insieme a media di intelligenza artificiale generati da Grok che descrivono l’atto. “Le donne musulmane Lmao vengono picchiate a causa di questa caratteristica”, ha scritto riguardo alle sue creazioni Grok. L’utente non ha risposto immediatamente a una richiesta di commento.
Anche importanti creatori di contenuti che indossano un hijab e pubblicano foto su X sono stati presi di mira nelle loro risposte, con utenti che chiedevano a Grok di togliersi il copricapo, mostrarli con i capelli visibili e indossarli con diversi tipi di abiti e costumi. In una dichiarazione condivisa con WIRED, il Council on American-Islamic Relations, che è il più grande gruppo di difesa e diritti civili musulmani negli Stati Uniti, ha collegato questa tendenza advert atteggiamenti ostili verso “l’Islam, i musulmani e le trigger politiche ampiamente sostenute dai musulmani, come la libertà palestinese”. Il CAIR ha anche invitato Elon Musk, amministratore delegato di xAI, che possiede sia X che Grok, a porre nice “all’uso continuo dell’app Grok per presumibilmente molestare, ‘svelare’ e creare immagini sessualmente esplicite di donne, comprese importanti donne musulmane”.
I deepfake come forma di abuso sessuale basato su immagini hanno guadagnato molta più attenzione negli ultimi anni, soprattutto su X, come esempi di sessualmente esplicito e i media suggestivi che prendono di mira le celebrità sono diventati ripetutamente virali. Con l’introduzione delle funzionalità automatizzate di fotoritocco tramite intelligenza artificiale tramite Grok, in cui gli utenti possono semplicemente taggare il chatbot nelle risposte ai publish contenenti media di donne e ragazze, questa forma di abuso è salita alle stelle. I dati compilati dalla ricercatrice di social media Genevieve Oh e condivisi con WIRED affermano che Grok sta generando più di 1.500 immagini dannose all’ora, comprese foto di svestizione, sessualizzazione e aggiunta di nudità.












