Il problema del deepfake non consensuale e sessualizzato del mondo tecnologico è ora più grande del semplice X.
Nell’a lettera Ai chief di X, Meta, Alphabet, Snap, Reddit e TikTok, diversi senatori statunitensi chiedono alle aziende di fornire la prova di avere “solide protezioni e politiche” in atto e di spiegare come intendono frenare l’ascesa dei deepfake sessualizzati sulle loro piattaforme.
I senatori hanno inoltre chiesto alle società di conservare tutti i documenti e le informazioni relativi alla creazione, rilevamento, moderazione e monetizzazione di immagini sessualizzate generate dall’intelligenza artificiale, nonché eventuali politiche correlate.
La lettera arriva ore dopo che X l’ha detto aggiornato Grok per proibirgli di apportare modifiche a persone reali che indossano abiti succinti e limitare la creazione e la modifica di immagini tramite Grok agli abbonati paganti. (X e xAI fanno parte della stessa azienda.)
Indicando i resoconti dei media su come facilmente E Spesso Grok ha generato immagini sessualizzate e di nudo di donne e bambini, i senatori hanno sottolineato che i guardrail delle piattaforme per impedire agli utenti di pubblicare immagini sessualizzate e non consensuali potrebbero non essere sufficienti.
“Riconosciamo che molte aziende mantengono politiche contro le immagini intime non consensuali e lo sfruttamento sessuale, e che molti sistemi di intelligenza artificiale affermano di bloccare la pornografia esplicita. In pratica, tuttavia, come visto negli esempi sopra, gli utenti stanno trovando il modo di aggirare questi guardrail. Oppure questi guardrail stanno fallendo”, si legge nella lettera.
Grok, e di conseguenza X, sono stati pesantemente criticati per aver consentito questa tendenza, ma altre piattaforme non sono immuni.
Evento Techcrunch
San Francisco
|
13-15 ottobre 2026
I deepfake hanno guadagnato popolarità per la prima volta su Reddit, quando viene visualizzata una pagina video porno sintetici di celebrità è diventato virale prima che la piattaforma venisse chiusa nel 2018. Lo stesso vale per i deepfake sessualizzati che prendono di mira celebrità e politici moltiplicato su TikTok e YouTubeanche se di solito hanno origine altrove.
L’anno scorso il Consiglio di Sorveglianza di Meta ha lanciato un appello due casi di immagini AI esplicite di personaggi pubblici femminili, e la piattaforma ha anche consentito alle app di nudify di vendere annunci sui suoi servizi, anche se lo ha fatto fare causa in seguito a una società chiamata CrushAI. Ci sono state più segnalazioni di bambini che diffondono deepfake di coetanei su Snapchat. E anche Telegram, che non figura nella lista dei senatori, è diventato famoso ospitare bot creati per spogliare le foto delle donne.
In risposta alla lettera, X la indicò annuncio per quanto riguarda il suo aggiornamento a Grok.
“Non consentiamo e non consentiremo alcun media intimo non consensuale (NCIM) su Reddit, non offriamo nessuno strumento in grado di crearlo e adottiamo misure proattive per trovarlo e rimuoverlo”, ha detto un portavoce di Reddit in una dichiarazione inviata through e-mail. “Reddit vieta severamente l’NCIM, comprese le rappresentazioni false o generate dall’intelligenza artificiale. Vietiamo inoltre di sollecitare questo contenuto advert altri, condividere collegamenti advert app di “nudificazione” o discutere su come creare questo contenuto su altre piattaforme”, ha aggiunto il portavoce.
Alphabet, Snap, TikTok e Meta non hanno risposto immediatamente alle richieste di commento.
La lettera richiede alle aziende di fornire:
- Definizioni politiche di contenuti “deepfake”, “immagini intime non consensuali” o termini simili.
- Descrizioni delle politiche aziendali e dell’approccio di applicazione dei deepfake IA non consensuali dei corpi delle persone, immagini non di nudo, abiti alterati e “svestizione virtuale”.
- Descrizioni delle attuali politiche sui contenuti che riguardano media modificati e contenuti espliciti, nonché indicazioni interne fornite ai moderatori.
- Come le politiche attuali governano gli strumenti di intelligenza artificiale e i generatori di immagini in relazione a contenuti suggestivi o intimi.
- Quali filtri, guardrail o misure sono stati implementati per prevenire la generazione e la distribuzione di deepfake.
- Quali meccanismi utilizzano le aziende per identificare i contenuti deepfake e impedirne il ricaricamento.
- Come impediscono agli utenti di trarre profitto da tali contenuti.
- In che modo le piattaforme impediscono di monetizzare i contenuti non consensuali generati dall’intelligenza artificiale.
- In che modo i termini di servizio delle aziende consentono loro di vietare o sospendere gli utenti che pubblicano deepfake.
- Cosa fanno le aziende per avvisare le vittime di deepfake sessuali non consensuali.
La lettera è firmata dai senatori Lisa Blunt Rochester (D-Del.), Tammy Baldwin (D-Wis.), Richard Blumenthal (D-Conn.), Kirsten Gillibrand (DN.Y.), Mark Kelly (D-Ariz.), Ben Ray Luján (DN.M.), Brian Schatz (D-Hawaii) e Adam Schiff (D-Calif.).
La mossa arriva appena un giorno dopo che il proprietario di xAI, Elon Musk, ha dichiarato di “non essere a conoscenza di immagini di minorenni nudi generate da Grok”. Più tardi mercoledì, il procuratore generale della California ha aperto un’indagine nel chatbot di xAI, a seguito della crescente pressione da parte dei governi di tutto il mondo, irritati dalla mancanza di guardrail intorno a Grok che hanno permesso che ciò accadesse.
xAI ha mantenuto che intervenga per rimuovere “contenuti illegali su X, inclusi [CSAM] e nudità non consensuale”, sebbene né la compagnia né Musk abbiano affrontato il fatto che a Grok fosse consentito generare tali modifiche in primo luogo.
Il problema non è nemmeno limitato alle immagini sessualizzate e manipolate non consensuali. Anche se non tutti i servizi di generazione e modifica di immagini basati sull’intelligenza artificiale consentono agli utenti di “spogliare” le persone, consentono di generare facilmente deepfake. Per citare alcuni esempi, secondo quanto riferito, Sora 2 di OpenAI consentiva agli utenti di generare video espliciti con bambini; Apparentemente la Nano Banana di Google generato un’immagine che mostra Charlie Kirk mentre viene colpito; E video razzisti realizzati con il modello video AI di Google stanno raccogliendo milioni di visualizzazioni sui social media.
La questione diventa ancora più complessa quando entrano in gioco i generatori di immagini e video cinesi. Molte aziende e app tecnologiche cinesi, in particolare quelle collegate a ByteDance, offrono modi semplici per modificare volti, voci e video e questi risultati si sono diffusi sulle piattaforme social occidentali. La Cina ha requisiti più severi di etichettatura dei contenuti sintetici che non esistono negli Stati Uniti a livello federale, dove le masse si affidano invece a politiche frammentate e dubbiamente applicate dalle piattaforme stesse.
I legislatori statunitensi hanno già approvato alcune leggi che cercano di frenare la pornografia deepfake, ma l’impatto è stato limitato. Il Take It Down Act, diventato legge federale a maggio, ha lo scopo di criminalizzare la creazione e la diffusione di immagini sessualizzate e non consensuali. Ma una serie di disposizioni di legge rendono difficile ritenere responsabili le piattaforme di generazione di immagini, poiché concentrano invece la maggior parte del controllo sui singoli utenti.
Nel frattempo, diversi Stati stanno cercando di prendere in mano la situazione per proteggere i consumatori e le elezioni. Questa settimana, Il governatore di New York Kathy Hochul ha proposto leggi ciò richiederebbe che i contenuti generati dall’intelligenza artificiale siano etichettati come tali e vieterebbe i deepfake non consensuali in periodi specifici che precedono le elezioni, comprese le rappresentazioni dei candidati dell’opposizione.













