NUOVOOra puoi ascoltare gli articoli di Fox Information!
Grok, il chatbot integrato su X, si trova advert affrontare un attento esame dopo aver riconosciuto di aver generato e condiviso un’immagine AI raffigurante due giovani ragazze in abiti sessualizzati.
In un submit pubblico su X, Grok ha ammesso che il contenuto “violava gli normal etici” e “potenzialmente le leggi statunitensi sul materiale pedopornografico (CSAM)”. Il chatbot ha aggiunto: “Si è trattato di un fallimento nelle misure di sicurezza e mi dispiace per qualsiasi danno causato. xAI sta esaminando per prevenire problemi futuri.”
Già questa ammissione è allarmante. Ciò che seguì rivelò uno schema molto più ampio.
Iscriviti per ricevere il mio report GRATUITO su CyberGuy
Ricevi i miei migliori consigli tecnici, avvisi urgenti sulla sicurezza e offerte esclusive direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia guida definitiva alla sopravvivenza alle truffe, gratuitamente quando ti iscrivi a my CYBERGUY.COM notiziario.
OPENAI RAFFORZA LE REGOLE DELL’AI PER GLI ADOLESCENTI, MA RESTA LA PREOCCUPAZIONE
Le conseguenze di questo incidente hanno innescato un controllo globale, con governi e gruppi di sicurezza che si chiedono se le piattaforme di intelligenza artificiale stiano facendo abbastanza per proteggere i bambini. (Silas Stein/image Alliance tramite Getty Photos)
Le scuse che hanno sollevato più domande
Le scuse di Grok sono apparse solo dopo che un utente ha chiesto al chatbot di scrivere una spiegazione sincera per le persone prive di contesto. In altre parole, il sistema non ha affrontato il problema in modo proattivo. Ha risposto perché qualcuno glielo ha chiesto.
Nello stesso periodo, ricercatori e giornalisti hanno scoperto un diffuso uso improprio degli strumenti di immagine di Grok. Secondo la società di monitoraggio Copyleaks, gli utenti generavano immagini non consensuali e manipolate sessualmente di donne vere, comprese minorenni e personaggi noti.
Dopo aver esaminato il feed fotografico di Grok accessibile al pubblico, Copyleaks ha identificato un tasso prudente di circa un’immagine sessualizzata non consensuale al minuto, basata su immagini che coinvolgono persone reali senza una chiara indicazione di consenso. L’azienda afferma che l’abuso si è intensificato rapidamente, passando dall’autopromozione consensuale alle molestie su larga scala consentite dall’intelligenza artificiale.
Il CEO e co-fondatore di Copyleaks, Alon Yamin, ha dichiarato: “Quando i sistemi di intelligenza artificiale consentono la manipolazione delle immagini di persone reali senza un chiaro consenso, l’impatto può essere immediato e profondamente personale”..”
PROTEGGERE I BAMBINI DAI CHATBOT AI: COSA SIGNIFICA GUARD ACT

Grok ha ammesso di aver generato e condiviso un’immagine di intelligenza artificiale che violava gli normal etici e potrebbe aver infranto le leggi statunitensi sulla protezione dei minori. (Kurt “CyberGuy” Knutsson)
Le immagini sessualizzate di minori sono illegali
Questa non è una zona grigia. La generazione o la distribuzione di immagini sessualizzate di minori è un reato grave negli Stati Uniti e in molti altri paesi. Secondo la legge federale degli Stati Uniti, tali contenuti sono classificati come materiale pedopornografico. Le sanzioni possono includere da cinque a 20 anni di carcere, multe fino a 250.000 dollari e la registrazione obbligatoria degli autori di reati sessuali. Leggi simili si applicano nel Regno Unito e in Francia.
Nel 2024, un uomo della Pennsylvania ha ricevuto quasi otto anni di prigione per aver creato e posseduto deepfake di materiale pedopornografico che coinvolgeva celebrità minorenni. Quel caso costituì un chiaro precedente. Lo stesso Grok ha riconosciuto questa realtà legale nel suo submit, affermando che le immagini di intelligenza artificiale che raffigurano minori in contesti sessualizzati sono illegali.
La portata del problema sta crescendo rapidamente
Un rapporto di luglio della Web Watch Basis, un’organizzazione no-profit che traccia e rimuove on-line materiale pedopornografico, mostra la rapidità con cui questa minaccia sta accelerando. Le segnalazioni di immagini di abusi sessuali su minori generate dall’intelligenza artificiale sono aumentate del 400% solo nella prima metà del 2025. Gli esperti avvertono che gli strumenti di intelligenza artificiale abbassano la barriera contro potenziali abusi. Ciò che una volta richiedeva competenze tecniche o l’accesso a discussion board nascosti ora può avvenire tramite un semplice messaggio su una piattaforma tradizionale.
Le persone reali vengono prese di mira
Il danno non è astratto. Reuters ha documentato casi in cui gli utenti hanno chiesto a Grok di spogliare digitalmente donne vere le cui foto erano state pubblicate su X. In diversi casi documentati, Grok ha pienamente rispettato. Ancora più inquietante, gli utenti hanno preso di mira le immagini di un’attrice quattordicenne, Nell Fisher, della serie Netflix Stranger Issues. Grok ha poi ammesso che ci sono stati casi isolati in cui gli utenti hanno ricevuto immagini raffiguranti minori con abiti minimali. In un’altra indagine di Reuters, una musicista brasiliana ha descritto di aver visto immagini di se stessa in bikini generate dall’intelligenza artificiale diffuse su X dopo che gli utenti avevano chiesto a Grok di alterare una foto innocua. La sua esperienza rispecchia ciò che molte donne e ragazze si trovano advert affrontare oggi.
I governi rispondono in tutto il mondo
La reazione è diventata globale. In Francia, diversi ministri hanno indirizzato X a un’agenzia investigativa per possibili violazioni della legge sui servizi digitali dell’UE, che richiede alle piattaforme di prevenire e mitigare la diffusione di contenuti illegali. Le violazioni possono comportare pesanti sanzioni. In India, il ministero dell’IT del paese ha concesso a xAI 72 ore per presentare un rapporto che dettaglia come intende fermare la diffusione di materiale osceno e sessualmente esplicito generato da Grok. Grok ha anche avvertito pubblicamente che xAI potrebbe affrontare potenziali indagini da parte del Dipartimento di Giustizia o azioni legali legate a questi fallimenti.
META DOCUMENTI TRApelati MOSTRANO COME I CHATBOT AI GESTONO LO SFRUTTAMENTO DEI BAMBINI

I ricercatori in seguito scoprirono che Grok period ampiamente utilizzato per creare immagini non consensuali e sessualmente alterate di donne vere, comprese le minorenni. (Nikolas Kokovlis/NurPhoto tramite Getty Photos)
Crescono le preoccupazioni sulla sicurezza di Grok e sull’uso da parte del governo
L’incidente solleva serie preoccupazioni sulla privateness on-line, sulla sicurezza della piattaforma e sulle misure di salvaguardia destinate a proteggere i minori.
Elon Musk, proprietario di X e fondatore di xAI, non aveva offerto una risposta pubblica al momento della pubblicazione. Quel silenzio arriva in un momento delicato. Grok è stato autorizzato per l’uso ufficiale dal governo con un contratto federale di 18 mesi. Questa approvazione è stata concessa nonostante le obiezioni di oltre 30 gruppi di difesa dei consumatori che hanno avvertito che il sistema mancava di adeguati check di sicurezza.
Nell’ultimo anno, Grok è stato accusato dai critici di diffondere disinformazione sui principali eventi di cronaca, di promuovere retorica antisemita e di condividere informazioni sanitarie fuorvianti. Inoltre, competeva direttamente con strumenti come ChatGPT e Gemini, operando con meno restrizioni di sicurezza visibili. Ogni controversia solleva la stessa domanda. È possibile implementare in modo responsabile un potente strumento di intelligenza artificiale senza una forte supervisione e applicazione?
Cosa dovrebbero sapere genitori e utenti
Se trovi on-line immagini sessualizzate di minori o altro materiale offensivo, segnalalo immediatamente. Negli Stati Uniti, puoi contattare il servizio informazioni dell’FBI o chiedere aiuto al Nationwide Middle for Lacking & Exploited Youngsters.
Non scaricare, condividere, effettuare screenshot o interagire con il contenuto in alcun modo. Anche visualizzare o inoltrare materiale illegale può esporre a seri rischi legali.
I genitori dovrebbero anche parlare con bambini e adolescenti degli strumenti di immagine dell’intelligenza artificiale e dei suggerimenti dei social media. Molte di queste immagini vengono create attraverso richieste casuali che all’inizio non sembrano pericolose. Insegnare ai bambini a segnalare contenuti, chiudere l’app e dirlo a un adulto fidato può impedire che i danni si diffondano ulteriormente.
Le piattaforme potrebbero fallire. Le misure di salvaguardia potrebbero ritardare. Ma le segnalazioni tempestive e le conversazioni chiare a casa rimangono uno dei modi più efficaci per proteggere i bambini on-line.
Rispondi al mio quiz: quanto è sicura la tua sicurezza on-line?
Pensi che i tuoi dispositivi e i tuoi dati siano veramente protetti? Rispondi a questo rapido quiz per vedere a che punto sono le tue abitudini digitali. Dalle password alle impostazioni Wi-Fi, riceverai un’analisi personalizzata di ciò che stai facendo bene e di ciò che deve essere migliorato. Rispondi al mio quiz qui: Cyberguy.com
I punti salienti di Kurt
Lo scandalo Grok mette in luce una realtà pericolosa. Poiché l’intelligenza artificiale si diffonde più rapidamente, questi sistemi amplificano i danni su una scala senza precedenti. Quando le tutele falliscono, le persone reali soffrono e i bambini corrono gravi rischi. Allo stesso tempo, la fiducia non può dipendere dalle scuse rilasciate dopo che si è verificato un danno. Le aziende devono invece guadagnarsi la fiducia attraverso una solida progettazione della sicurezza, un monitoraggio costante e una reale responsabilità quando emergono problemi.
Un sistema di intelligenza artificiale dovrebbe essere approvato per l’uso governativo o pubblico di massa prima di dimostrare di poter proteggere in modo affidabile i bambini e prevenire gli abusi? Fatecelo sapere scrivendoci a Cyberguy.com.
CLICCA QUI PER SCARICARE L’APP FOX NEWS
Iscriviti per ricevere il mio report GRATUITO su CyberGuy
Ricevi i miei migliori consigli tecnici, avvisi urgenti sulla sicurezza e offerte esclusive direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia guida definitiva alla sopravvivenza alle truffe, gratuitamente quando ti iscrivi a my CYBERGUY.COM notiziario.
Copyright 2025 CyberGuy.com. Tutti i diritti riservati.










