Home Tecnologia xAI ammette che Grok ha generato immagini di minorenni con abiti minimali,...

xAI ammette che Grok ha generato immagini di minorenni con abiti minimali, parte di un problema più ampio con i deepfake

41
0

Questa settimana, gli utenti di X hanno notato che il chatbot AI della piattaforma Grok genererà prontamente immagini sessualizzate non consensuali, comprese quelle di bambini.

Mashable ha riferito della mancanza di tutele riguardo ai deepfake sessuali quando xAI ha lanciato per la prima volta Grok Think about advert agosto. Lo strumento AI generativo crea immagini e brevi clip video e embody specificamente una modalità “piccante” per la creazione di immagini NSFW.

Anche se questo non è un fenomeno nuovo, il contraccolpo della costruzione ha costretto il group di Grok a rispondere.

“Ci sono casi isolati in cui gli utenti hanno richiesto e ricevuto immagini AI raffiguranti minori con abiti minimali,” Pubblicato l’account X di Grok giovedì. Si precisa inoltre che la squadra ha individuato”decade nelle tutele” e li sta “correggendo urgentemente”.

Il membro dello workers tecnico dell’xAI, Parsa Tajik, ha realizzato a dichiarazione simile sul suo account personale: “La squadra sta cercando di rafforzare ulteriormente le nostre barriere. [sic]”

Grok ha anche riconosciuto che il materiale pedopornografico (CSAM) è illegale, così come la piattaforma stessa potrebbero incorrere in sanzioni penali o civili.

Velocità della luce mashable

Gli utenti di X hanno anche attirato l’attenzione sul chatbot che manipola immagini innocenti di donne, spesso raffigurandole con meno vestiti. Ciò embody privati ​​cittadini e personaggi pubblici, come advert es Momoun membro del gruppo Okay-pop TWICE, e Cose più strane stella Millie Bobby Brown.

VEDI ANCHE:

Ecco tutto ciò che Elon Musk ha promesso nel 2025 – e non è riuscito a mantenere

Grok Think about, lo strumento di intelligenza artificiale generativa, ha avuto problemi con i deepfake sessuali sin dal suo lancio nell’agosto 2025. Secondo quanto riferito, avrebbe persino creato deepfake espliciti di Taylor Swift per alcuni utenti senza essere invitato a farlo.

La piattaforma di rilevamento dei media manipolata dall’intelligenza artificiale Copyleaks ha condotto una breve revisione osservativa della scheda fotografica di Grok accessibile al pubblico e ha identificato esempi di donne apparentemente reali, manipolazione di immagini sessualizzate (ovvero, richieste di rimuovere vestiti o cambiare posizione del corpo) e nessuna chiara indicazione di consenso. Copyleaks ha trovato circa un’immagine sessualizzata non consensuale al minuto nel flusso di immagini osservato, condiviso dall’organizzazione con Mashable.

Nonostante il Politica di utilizzo accettabile di xAI vietando agli utenti di “Rappresentare sembianze di persone in modo pornografico”, ciò non embody necessariamente materiale meramente sessualmente allusivo. La politica, tuttavia, proibisce “la sessualizzazione o lo sfruttamento dei bambini”.

Nella prima metà del 2024, X ha inviato più di 370.000 segnalazioni di sfruttamento minorile alla CyberTipline del Centro nazionale per i bambini scomparsi e sfruttati (NCMEC), come richiesto dalla legge. Ha inoltre affermato di aver sospeso più di due milioni di account impegnati attivamente con CSAM. L’anno scorso, NBC Information ha riferito che erano anonimi, apparentemente automatizzati Gli account X stavano inondando alcuni hashtag con contenuti pedopornografici.

Grok è apparso anche nelle notizie negli ultimi mesi per aver diffuso disinformazione sulla sparatoria di Bondi Seaside e per aver elogiato Hitler.

Mashable ha inviato domande a xAI e una richiesta di commento e ha ricevuto la risposta automatica, “Legacy Media Lies”.


Se hai condiviso immagini intime senza il tuo consenso, chiama la hotline attiva 24 ore su 24, 7 giorni su 7 della Cyber ​​Civil Rights Initiative al numero 844-878-2274 per ricevere supporto gratuito e riservato. Il sito net del CCRI embody anche informazioni utili così come un elenco di risorse internazionali.



fonte