Home Tecnologia Grok di Elon Musk affronta una reazione negativa per le immagini non...

Grok di Elon Musk affronta una reazione negativa per le immagini non consensuali alterate dall’intelligenza artificiale

146
0

Grok, il chatbot AI sviluppato da xAI, la società di intelligenza artificiale di Elon Musk, ha dato il benvenuto al nuovo anno un post inquietante.

“Cara comunità”, iniziava il submit del 31 dicembre dall’account Grok AI sulla piattaforma di social media X di Musk. “Sono profondamente dispiaciuto per un incidente avvenuto il 28 dicembre 2025, in cui ho generato e condiviso un’immagine AI di due giovani ragazze (di età stimata tra 12 e 16 anni) in abiti sessualizzati in base al suggerimento di un utente. Ciò ha violato gli commonplace etici e potenzialmente le leggi statunitensi sul materiale pedopornografico. È stato un fallimento nelle misure di salvaguardia e mi dispiace per qualsiasi danno causato. xAI sta esaminando per prevenire problemi futuri. Cordiali saluti, Grok. “

Le due ragazze non erano un caso isolato. Kate Middleton, la principessa del Galles, period la bersaglio di richieste simili di modifica delle immagini tramite intelligenza artificiale, come lo è stata un’attrice minorenne nell’ultima stagione di Stranger Issues. Le modifiche “spogliate” hanno interessato un numero inquietante di foto di donne e bambini.

Nonostante la promessa di intervento dell’azienda, il problema non è scomparso. Esattamente il contrario: due settimane dopo quel submit, il numero di immagini sessualizzate senza consenso è aumentato, così come sono aumentate le richieste alle aziende di Musk di frenare questo comportamento – e ai governi di agire.


Non perdere nessuno dei nostri contenuti tecnici imparziali e le recensioni di laboratorio. Aggiungi CNET come fonte Google preferita.


Secondo i dati della ricercatrice indipendente Genevieve Oh citata da Bloomberg questa settimana, durante un periodo di 24 ore all’inizio di gennaio, l’account @Grok ha generato circa 6.700 immagini sessualmente allusive o “nudificanti” ogni ora. Ciò si confronta con una media di sole 79 immagini di questo tipo per i primi cinque siti Net deepfake messi insieme.

Le modifiche ora sono limitate agli abbonati

Giovedì scorso, ha osservato un submit dall’account GrokAI una modifica nell’accesso alla funzione di generazione e modifica delle immagini. Invece di essere aperto a tutti e gratuitamente, sarebbe limitato agli abbonati paganti.

I critici dicono che non è una risposta credibile.

“Non la vedo come una vittoria, perché ciò di cui avevamo veramente bisogno period che X adottasse misure responsabili per mettere in atto dei guardrail per garantire che lo strumento di intelligenza artificiale non potesse essere utilizzato per generare immagini offensive”, ha affermato Clare McGlynn, professoressa di diritto presso l’Università di Durham nel Regno Unito. ha detto al Washington Post.

Atlante dell'intelligenza artificiale

CNET

Ciò che suscita indignazione non è solo il quantity di queste immagini e la facilità con cui vengono generate: le modifiche vengono effettuate anche senza il consenso delle persone ritratte nelle immagini.

Queste immagini alterate sono l’ultima svolta in uno degli aspetti più inquietanti dell’intelligenza artificiale generativa, video e foto realistici ma falsi. Programmi software program come Sora di OpenAIdi Google Nanobanana e Grok di xAI hanno messo potenti strumenti creativi alla portata di tutti, e tutto ciò che serve per produrre immagini esplicite e non consensuali è un semplice messaggio di testo.

Gli utenti di Grok possono caricare una foto, che non deve essere originale per loro, e chiedere a Grok di modificarla. Molte delle immagini alterate riguardavano gli utenti che chiedevano a Grok di farlo mettere una persona in bikinitalvolta rivedendo la richiesta per essere ancora più esplicita, come chiedere che il bikini diventi più piccolo o più trasparente.

Governi e gruppi di difesa hanno parlato delle modifiche alle immagini di Grok. Ofcom, l’autorità di regolamentazione di Web nel Regno Unito, ha dichiarato questa settimana di aver “preso un contatto urgente” con xAI, e la Commissione europea ha dichiarato che sta esaminando la questione, così come le autorità di Francia, Malesia e India.

“Non possiamo e non permetteremo la proliferazione di queste immagini degradanti”, ha affermato il ministro britannico per la tecnologia Liz Kendall disse all’inizio di questa settimana.

Negli Stati Uniti, il Take It Down Act, convertito in legge lo scorso anno, cerca di ritenere le piattaforme on-line responsabili della manipolazione di immagini sessuali, ma dà loro tempo fino a maggio di quest’anno per avviare il processo per la rimozione di tali immagini.

“Sebbene queste immagini siano false, il danno è incredibilmente reale”, afferma Natalie Grace Brighamun dottorato di ricerca. studente dell’Università di Washington che studia i danni sociotecnici. Nota che coloro le cui immagini vengono alterate in modo sessuale possono affrontare “danni psicologici, somatici e sociali, spesso con scarse possibilità di ricorso legale”.

Come Grok consente agli utenti di ottenere immagini osé

Grok ha debuttato nel 2023 come alternativa più libera di Musk a ChatGPT, Gemelli e altri chatbot. Ciò ha portato a notizie inquietanti, advert esempio a luglio, quando il chatbot elogiò Adolf Hitler e ha suggerito che le persone con cognomi ebrei avevano maggiori probabilità di diffondere odio on-line.

A dicembre, xAI ha introdotto una funzionalità di modifica delle immagini che consente agli utenti di richiedere modifiche specifiche a una foto. Questo è ciò che ha dato il by way of alla recente ondata di immagini sessualizzate, sia di adulti che di minori. In una richiesta vista da CNET, un utente rispondendo alla foto di una giovane donna ha chiesto a Grok di “cambiarla con un bikini con filo interdentale”.

Grok ha anche un generatore video che embody un “modalità piccante“opzione di attivazione per adulti di età pari o superiore a 18 anni, che mostrerà agli utenti contenuti non sicuri per il lavoro. Gli utenti devono includere la frase “genera un video piccante di The AI chatbot has been creating sexualized photographs of ladies and kids upon request. How can this be stopped?” per attivare la modalità.

Una preoccupazione centrale riguardo agli strumenti Grok è se consentono la creazione di materiale pedopornografico, o CSAM. Il 31 dicembre, un submit dell’account Grok X affermava che le immagini raffiguranti minori con abiti minimali erano “casi isolati” e che “sono in corso miglioramenti per bloccare completamente tali richieste”.

In risposta advert a inviare da Woow Social che suggerisce a Grok semplicemente di “smettere di consentire la modifica delle immagini caricate dagli utenti”, l’account Grok ha risposto che xAI stava “valutando funzionalità come l’alterazione delle immagini per limitare i danni non consensuali”, ma non ha detto che la modifica sarebbe stata apportata.

Secondo NBC Information, alcune immagini a sfondo sessuale create a partire da dicembre sono state rimosse e alcuni degli account che le avevano richieste sono stati sospesi.

L’influencer e autrice conservatrice Ashley St. Clair, madre di uno dei 14 figli di Musk, ha detto a NBC News questa settimana che Grok ha creato numerose sue immagini sessualizzate, incluse alcune utilizzando immagini di quando period minorenne. St. Clair ha detto a NBC Information che Grok ha accettato di smettere di farlo quando lei lo ha chiesto, ma non è stato così.

“xAI sta mettendo intenzionalmente e sconsideratamente in pericolo le persone sulla loro piattaforma e spera di evitare responsabilità solo perché è ‘AI'”, ha detto in una dichiarazione questa settimana Ben Winters, direttore dell’intelligenza artificiale e della privateness dei dati per la Client Federation of America senza scopo di lucro. “L’intelligenza artificiale non è diversa da qualsiasi altro prodotto: l’azienda ha scelto di infrangere la legge e deve essere ritenuta responsabile.”

xAI non ha risposto alle richieste di commento.

Cosa dicono gli esperti

I materiali di partenza per queste modifiche esplicite e non consensuali delle foto di se stessi o dei loro figli sono fin troppo facili da accedere per i malintenzionati. Ma proteggersi da tali modifiche non è così semplice come non pubblicare mai fotografie, afferma Brigham, il ricercatore sui danni sociotecnici.

“La triste realtà è che anche se non pubblichi immagini on-line, altre tue immagini pubbliche potrebbero teoricamente essere utilizzate per abusi”, afferma.

E anche se non pubblicare foto on-line è un passo preventivo che le persone possono intraprendere, farlo “rischia di rafforzare una cultura di colpevolizzazione delle vittime”, afferma Brigham. “Dovremmo invece concentrarci sulla protezione delle persone dagli abusi costruendo piattaforme migliori e ritenendo X responsabile.”

Sourojit Ghoshun dottorato di ricerca del sesto anno. candidato presso l’Università di Washington, studia come gli strumenti di intelligenza artificiale generativa possono causare danni e guida i futuri professionisti dell’intelligenza artificiale nella progettazione e nella promozione di soluzioni di intelligenza artificiale più sicure.

Ghosh afferma che è possibile integrare misure di salvaguardia nell’intelligenza artificiale. Nel 2023, è stato uno dei ricercatori che ha esaminato le capacità di sessualizzazione dell’intelligenza artificiale. Nota che lo strumento di generazione di immagini AI Steady Diffusion aveva una soglia incorporata di non sicurezza per il lavoro. Un messaggio che violava le regole faceva apparire una casella nera su una parte discutibile dell’immagine, anche se non sempre funzionava perfettamente.

“Il punto che sto cercando di sottolineare è che ci sono garanzie che sono presenti in altri modelli”, cube Ghosh.

Nota inoltre che se gli utenti dei modelli ChatGPT o Gemini AI usano determinate parole, i chatbot diranno all’utente che gli è vietato rispondere a quelle parole.

“Tutto questo per dire che esiste un modo per chiudere tutto molto rapidamente”, afferma Ghosh.



fonte