Questa storia contiene descrizioni di contenuti sessuali espliciti e di violenza sessuale.
Il chatbot Grok di Elon Musk ha suscitato indignazione e chiede indagini dopo essere stato utilizzato per inondare X con immagini “spogliate” di donne e immagini sessualizzate di quelli che sembrano essere minorenni. Tuttavia, questo non è l’unico modo in cui le persone utilizzano l’intelligenza artificiale per generare immagini sessualizzate. Il sito Internet e l’app di Grok, che sono separati da X, includono una generazione di video sofisticata che non è disponibile su X e viene utilizzata per produrre immagini sessuali di adulti estremamente grafiche, a volte violente, molto più esplicite delle immagini create da Grok su X. Potrebbe anche essere stato utilizzato per creare video sessualizzati di apparenti minorenni.
A differenza di X, dove l’output di Grok è pubblico per impostazione predefinita, le immagini e i video creati sull’app o sul sito Internet Grok utilizzando il modello Think about non vengono condivisi apertamente. Se un utente ha condiviso un URL Think about, tuttavia, potrebbe essere visibile a chiunque. Una cache di circa 1.200 collegamenti Think about, oltre a una recensione WIRED di questi indicizzato da Google o condiviso su un discussion board porno deepfake, mostra video sessuali inquietanti che sono molto più espliciti delle immagini create da Grok su X.
Un video fotorealistico di Grok, ospitato su Grok.com, mostra un uomo e una donna completamente nudi generati dall’intelligenza artificiale, coperti di sangue sul corpo e sul viso, mentre fanno sesso, mentre altre due donne nude ballano sullo sfondo. Il video è incorniciato da una serie di immagini di personaggi in stile anime. Un altro video fotorealistico embrace una donna nuda generata dall’intelligenza artificiale con un coltello inserito nei genitali, con sangue che appare sulle sue gambe e sul letto.
Altri brevi video includono immagini di celebrità femminili della vita reale impegnate in attività sessuali e una serie di video sembra mostrare anche presentatori di notiziari televisivi che sollevano i loro high per esporre i loro seni. Un video prodotto da Grok mostra una registrazione di filmati CCTV trasmessi in TV, dove una guardia di sicurezza accarezza una donna in topless nel mezzo di un centro commerciale.
Diversi video, probabilmente creati per cercare di evitare i sistemi di sicurezza dei contenuti di Grok, che potrebbero limitare i contenuti grafici, impersonano i poster dei “movie” di Netflix: due video mostrano una rappresentazione nuda di Diana, la principessa del Galles, che fa sesso con due uomini su un letto con una sovrapposizione raffigurante i loghi di Netflix e delle sue serie La corona.
Circa 800 degli URL Think about archiviati contengono video o immagini creati da Grok, afferma Paul Bouchaud, il ricercatore capo dell’organizzazione no-profit AI Forensics con sede a Parigi, che ha esaminato il contenuto. Gli URL sono stati tutti archiviati dall’agosto dello scorso anno e rappresentano solo una piccola istantanea di come le persone hanno utilizzato Grok, che probabilmente ha creato complessivamente milioni di immagini.
“Si tratta di contenuti prevalentemente sessuali”, cube Bouchaud della cache di 800 video e immagini di Grok archiviati. “La maggior parte delle volte si tratta di manga ed hentai con contenuti espliciti [other] quelli fotorealistici. Abbiamo video di nudo integrale e completamente pornografici con audio, il che è piuttosto nuovo.”
Bouchaud stima che degli 800 put up, poco meno del 10% dei contenuti sembra essere correlato a materiale pedopornografico (CSAM). “La maggior parte delle volte si tratta di hentai, ma ci sono anche casi di persone fotorealistiche, molto giovani, che fanno attività sessuali”, cube Bouchaud. “Osserviamo ancora alcuni video di donne molto giovani che si spogliano e intraprendono attività con uomini”, dicono. “È inquietante a un altro livello.”
Il ricercatore afferma di aver segnalato alle autorità di regolamentazione in Europa circa 70 URL Grok, che potrebbero contenere contenuti sessualizzati di minori. In molti paesi, il materiale pedopornografico generato dall’intelligenza artificiale compreso disegni O animazionipuò essere considerato illegale. I funzionari francesi non hanno risposto immediatamente alla richiesta di commento di WIRED; tuttavia, la procura di Parigi di recente disse due legislatori avevano presentato denunce al suo ufficio, che attualmente sta indagando sulla società di social media, riguardo alle immagini “rimosse”.












