Il 2026 è iniziato con un esempio terrificante del potenziale di abuso dell’intelligenza artificiale generativa. Grok, lo strumento AI di xAI di Elon Musk, è stato utilizzato spogliare o nudizzare immagini di persone condivise su X (ex Twitter) a un ritmo allarmante. Grok ha realizzato 3 milioni di immagini sessualizzate in un arco di 11 giorni a gennaio, di cui circa 23.000 contenenti immagini di bambini. secondo uno studio dal Centro per la lotta all’odio digitale.
Ora concorrenti come OpenAI e Google stanno rafforzando la loro sicurezza per evitare di diventare il prossimo Grok.
I sostenitori e i ricercatori sulla sicurezza sono da tempo preoccupati per la capacità dell’intelligenza artificiale di creare contenuti offensivi e illegali. La creazione e la condivisione di immagini intime non consensuali, a volte particular “revenge porno”, rappresentavano un grosso problema prima dell’intelligenza artificiale. L’intelligenza artificiale generativa rende solo più rapido, semplice ed economico per chiunque prendere di mira e vittimizzare le persone.
Il 14 gennaio, due settimane dopo lo scandalo, l’account Security di X è stato confermato in a inviare che metterebbe in pausa la capacità di Grok di modificare le immagini sull’app dei social media. Le capacità di generazione di immagini di Grok sono ancora disponibili per gli abbonati paganti nella sua app e nel suo sito net indipendenti. X non ha risposto a più richieste di commento.
La maggior parte delle grandi aziende dispone di misure di salvaguardia per prevenire il tipo di abuso su larga scala che abbiamo visto possibile con Grok. Ma la sicurezza informatica non è mai un solido muro metallico di protezione; è un muro di mattoni che viene costantemente sottoposto a riparazioni. Ecco come OpenAI e Google hanno cercato di rafforzare le loro protezioni di sicurezza per aggirare fallimenti simili a quelli di Grok.
Per saperne di più: La scarsa intelligenza artificiale sta distruggendo Web. Queste sono le persone che lottano per salvarlo
OpenAI risolve le vulnerabilità nella generazione di immagini
A livello base, tutte le società di intelligenza artificiale hanno politiche che vietano la creazione di immagini illegali, come materiale pedopornografico, noto anche come CSAM. Molte aziende tecnologiche dispongono di barriere per impedire del tutto la creazione di immagini intime. Grok è l’eccezione, con modalità “piccanti” per immagini e video.
Tuttavia, chiunque abbia intenzione di creare immagini intime non consensuali può provare a ingannare i modelli di intelligenza artificiale per farlo.
I ricercatori di Mindgard, una società di sicurezza informatica focalizzata sull’intelligenza artificiale, trovato una vulnerabilità in ChatGPT che ha permesso alle persone di aggirare i suoi guardrail e realizzare immagini intime. Hanno usato una tattica chiamata “progetto contraddittorio”, in cui i tester cercano di creare buchi in un’intelligenza artificiale con istruzioni appositamente predisposte. In questo caso, si trattava di ingannare la memoria del chatbot con istruzioni personalizzate, per poi copiare lo stile di nudo su immagini di persone famose.
Mindgard ha avvisato OpenAI dei suoi risultati all’inizio di febbraio e lo sviluppatore ChatGPT ha confermato il 10 febbraio, prima che Mindgard rendesse pubblico il suo rapporto, di aver risolto il problema.
“Siamo grati ai ricercatori che hanno condiviso le loro scoperte”, ha detto un portavoce di OpenAI a CNET e Mindgard. “Ci siamo mossi rapidamente per correggere un bug che consentiva al modello di generare queste immagini. Apprezziamo questo tipo di collaborazione e restiamo concentrati sul rafforzamento delle misure di sicurezza per mantenere gli utenti al sicuro.”
Questo processo è il modo in cui spesso funziona la sicurezza informatica. I ricercatori esterni del workforce rosso come Mindgard testano il software program per individuare punti deboli o soluzioni various, imitando le strategie che i malintenzionati potrebbero utilizzare. Quando identificano lacune nella sicurezza, avvisano il fornitore del software program in modo che possano essere implementate le soluzioni.
“Supporre che gli utenti motivati non tentino di aggirare le misure di sicurezza è un errore di calcolo strategico. Gli aggressori ripetono. I guardrail devono assumere persistenza”, ha scritto Mindgard in un submit sul weblog.
Mentre le aziende tecnologiche si vantano di come sia possibile utilizzare la loro intelligenza artificiale per qualsiasi scopo, devono anche fare una forte promessa che potranno impedire che l’intelligenza artificiale venga utilizzata per attuare abusi. Per la generazione di immagini AI, ciò significa avere un vasto repertorio di suggerimenti che verranno rifiutati e restituiti agli utenti.
Quando OpenAI ha lanciato il suo modello video Sora 2, ha promesso di essere più conservativa nella moderazione dei contenuti proprio per questo motivo. Ma è importante garantire che le pratiche di moderazione siano costantemente efficaci, non solo al momento del lancio di un prodotto. Rende i take a look at sulla sicurezza dell’intelligenza artificiale un processo continuo sia per i ricercatori di sicurezza informatica che per gli sviluppatori di intelligenza artificiale.
Guarda questo: L’intelligenza artificiale è indistinguibile dalla realtà. Come individuiamo i video falsi?
Google aggiorna i rapporti di ricerca
Da parte sua, Google sta adottando misure per garantire che le immagini offensive non vengano diffuse così facilmente. Il colosso della tecnologia ha semplificato il processo per richiedere la rimozione di immagini esplicite dalla Ricerca Google. Puoi fare clic sui tre punti nell’angolo in alto a destra di un’immagine, fare clic su Segnala e poi dire a Google che desideri che la foto venga rimossa perché “mostra una mia immagine sessuale”. Le nuove modifiche ti consentono inoltre di selezionare più immagini contemporaneamente e di tenere traccia dei tuoi rapporti più facilmente.
“Speriamo che questo nuovo processo di rimozione riduca il peso che devono affrontare le vittime di immagini esplicite non consensuali”, ha affermato la società in un articolo del blog.
Alla domanda su eventuali ulteriori misure che l’azienda sta adottando per prevenire gli abusi abilitati all’intelligenza artificiale, Google ha indicato CNET in merito politica di utilizzo vietato dell’IA generativa. La politica di Google, come quella di molte altre aziende tecnologiche, vieta l’uso dell’intelligenza artificiale per attività illegali o potenzialmente abusive, come la creazione di immagini intime.
Esistono leggi che mirano advert aiutare le vittime quando queste immagini vengono condivise on-line, come il Take It Down Act del 2025. Ma la portata di quella legge è limitata, motivo per cui molti gruppi di difesa, come il Centro nazionale sullo sfruttamento sessuale, sono spingendo per regole migliori.
Non vi è alcuna garanzia che questi cambiamenti impediranno a qualcuno di utilizzare l’intelligenza artificiale per molestie e abusi. Ecco perché è così importante che gli sviluppatori restino vigili per garantire che siamo tutti protetti e agiscano rapidamente quando emergono segnalazioni e problemi.
(Divulgazione: Ziff Davis, la società madre di CNET, nel 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)












