È passata più di una settimana da quando gli utenti di X hanno iniziato a utilizzare in massa il modello di intelligenza artificiale Grok per spogliare le persone, compresi i bambini, e la piattaforma di proprietà di Elon Musk non ha fatto quasi nulla per risolvere il problema. Parte del motivo è il fatto che, attualmente, la piattaforma non è obbligata a fare molto per risolvere il problema.
L’anno scorso, il Congresso ha promulgato il Take It Down Act, che, tra le altre cose, criminalizza il materiale sessualmente esplicito non consensuale e richiede che piattaforme come X forniscano alle vittime un’opzione per richiedere che i contenuti che utilizzano la loro somiglianza vengano rimossi entro 48 ore. La senatrice democratica Amy Klobuchar, co-sponsor della legge, pubblicato su X“Nessuno dovrebbe trovare on-line immagini sessuali di se stesso create dall’intelligenza artificiale, soprattutto bambini. X deve cambiare questa situazione. In caso contrario, il mio atto bipartisan TAKE IT DOWN glielo imporrà presto.”
Nota il “presto” in quella frase. L’obbligo previsto dalla legge per le piattaforme di creare sistemi di avviso e rimozione non entrerà in vigore fino al 19 maggio 2026. Attualmente, né X (la piattaforma in cui le immagini vengono generate tramite messaggi pubblicati e ospitati) né xAI (la società responsabile del modello AI di Grok che genera le immagini) dispongono di sistemi formali di richiesta di rimozione. X ha a procedura formale di richiesta di rimozione dei contenuti per le forze dell’ordinema si consiglia agli utenti generici di consultare il Centro assistenza, dove sembra che solo gli utenti possano farlo segnalare un post come violazione delle regole di X.
Se sei curioso di sapere quanto è probabile che un utente medio venga rimosso da una di queste immagini, chiedi advert Ashley St. Clair come sono andati i suoi tentativi quando ha segnalato un’immagine sessualizzata non consensuale di lei condivisa su X. St. Clair ha più o meno lo stesso accesso di chiunque altro per presentare una richiesta personale per la rimozione di un put up: è la madre di uno dei figli di Elon Musk e ha un account X con più di un milione di follower. “È divertente, considerando che ho la linea più diretta e loro non fanno nulla”, ha detto ha detto al Guardian. “Mi sono lamentato con X e non hanno nemmeno rimosso una mia foto di quando ero bambino, dove Grok mi ha spogliato.”
L’immagine di St. Clair alla high quality fu rimossa, apparentemente dopo essere stata ampiamente riportata dai suoi seguaci e prestata attenzione alla stampa. Ma St. Clair ora afferma di essere stata ringraziata per i suoi sforzi nel sollevare la questione non potendo comunicare con Grok e la revoca della sua iscrizione a X Premium. Premium le consente di essere pagata in base al coinvolgimento. Grok, che è diventata la fonte di informazione predefinita su tutta questa situazione, nonostante si tratti di un modello di intelligenza artificiale incapace di parlare a nome di chiunque e di qualcosa, spiegato in un put up, “Il segno di spunta X e Premium di Ashley St. Clair sono stati probabilmente rimossi a causa di potenziali violazioni dei termini, comprese le sue accuse pubbliche contro Grok per aver generato immagini inappropriate e possibili attività simili a spam.”
L’applicazione al di fuori del Take It Down Act è possibile, anche se meno semplice. Il senatore democratico Ron Wyden ha suggerito che il materiale generato da Grok non sarebbe protetto dalla Sezione 230 del Communications Decency Act, che in genere garantisce alle piattaforme tecnologiche l’immunità dalla responsabilità per il comportamento illegale degli utenti. Naturalmente, è improbabile che il Dipartimento di Giustizia dell’amministrazione Trump avvii un caso contro le società di Musk, lasciando agli Stati i tentativi di applicazione delle norme.
Al di fuori degli Stati Uniti, alcuni governi stanno prendendo la questione molto più seriamente. Autorità dentro Francia, IrlandaIL Regno UnitoE India hanno iniziato tutti a esaminare le immagini sessuali non consensuali generate da Grok e potrebbero eventualmente sporgere denuncia contro X e xAI.
Ma certamente non sembra che il capo di X e xAI stia prendendo la questione così seriamente. Mentre Grok generava immagini sessuali di bambini, Elon Musk, CEO di entrambe le società coinvolte in questo scandalo, ripubblicava attivamente i contenuti creati come parte di questa tendenza, comprese le immagini generate dall’intelligenza artificiale di un tostapane e un razzo in bikini. Finora, la portata del riconoscimento della situazione da parte di X inizia e finisce con l’incolpare gli utenti. In un put up di X Security, l’azienda disse“Chiunque utilizzi o spinga Grok a creare contenuti illegali subirà le stesse conseguenze come se caricasse contenuti illegali”, ma non si è assunto alcuna responsabilità per averlo consentito.
Semmai, ciò che Grok ha fatto nelle ultime settimane sembra essere probabilmente più vicino a ciò che Musk vuole dall’intelligenza artificiale. Secondo un rapporto della CNNMusk è stato “scontento dell’eccessiva censura” su Grok, incluso essere particolarmente frustrato per le restrizioni sul generatore di immagini e video di Grok. Pubblicamente, Musk lo ha fatto più volte parlato La “modalità piccante” di Grok e derideva l’thought di “sveglia” nell’intelligenza artificiale.
In risposta a una richiesta di commento da parte di Gizmodo, xAI ha dichiarato “Legacy Media Lies”, l’ultimo dei messaggi automatizzati che la piattaforma ha inviato da quando ha chiuso il suo dipartimento di pubbliche relazioni.










