Home Tecnologia La tecnologia deepfake “Nudify” sta diventando sempre più oscura e pericolosa

La tecnologia deepfake “Nudify” sta diventando sempre più oscura e pericolosa

10
0

Apri il sito internet di un generatore di deepfake esplicito e ti verrà presentato un menu di orrori. Con solo un paio di clic, ti offre la possibilità di convertire una singola foto in un videoclip esplicito di otto secondi, inserendo le donne in situazioni sessuali grafiche dall’aspetto realistico. “Trasforma qualsiasi foto in una versione nuda con la nostra tecnologia AI avanzata”, afferma il testo sul sito internet.

Le opzioni per potenziali abusi sono ampie. Tra i 65 “modelli” di video sul sito internet ci sono una serie di video di “spogliarsi” in cui le donne raffigurate si tolgono i vestiti, ma ci sono anche scene video esplicite denominate “fuck machine deepthroat” e vari video di “semen”. Ogni video costa una piccola tassa per essere generato; l’aggiunta dell’audio generato dall’intelligenza artificiale costa di più.

Il sito Internet, che WIRED non nomina per limitare ulteriore esposizione, embrace avvisi che dicono che le persone dovrebbero caricare solo foto che hanno il consenso a trasformare con l’intelligenza artificiale. Non è chiaro se ci siano controlli per far rispettare questo.

Grok, il chatbot creato dalle aziende di Elon Musk, è stato utilizzato per creare migliaia di immagini di bikini “spogliate” o “nudificate” non consensuali, industrializzando e normalizzando ulteriormente il processo di molestie sessuali digitali. Ma è solo l’aspetto più visibile e tutt’altro che esplicito. Da anni cresce un ecosistema deepfake, che comprende dozzine di siti internet, bot e app, rendendo più semplice che mai l’automazione degli abusi sessuali basati su immagini, compresa la creazione di materiale pedopornografico (CSAM). Questo ecosistema di “nudificazione”, e il danno che provoca a donne e ragazze, è probabilmente più sofisticato di quanto molte persone credano.

“Non è più una striscia sintetica molto rozza”, afferma Henry Ajder, un esperto di deepfake che ha seguito la tecnologia per più di mezzo decennio. “Stiamo parlando di un grado di realismo molto più elevato di ciò che viene effettivamente generato, ma anche di una gamma di funzionalità molto più ampia.” Insieme, i servizi probabilmente guadagneranno milioni di dollari all’anno. “È una piaga sociale ed è una delle parti peggiori e più oscure di questa rivoluzione dell’intelligenza artificiale e della rivoluzione dei media sintetici a cui stiamo assistendo”, afferma.

Nell’ultimo anno, WIRED ha monitorato il modo in cui diversi servizi deepfake espliciti hanno introdotto nuove funzionalità e si sono rapidamente espansi per offrire la creazione di video dannosi. I modelli da immagine a video in genere ora necessitano solo di una foto per generare una breve clip. Un’analisi WIRED di oltre 50 siti internet “deepfake”, che probabilmente ricevono milioni di visualizzazioni al mese, mostra che quasi tutti ora offrono video espliciti e di alta qualità e spesso elencano dozzine di scenari sessuali in cui le donne possono essere rappresentate.

Nel frattempo, su Telegram, dozzine di canali e bot deepfake sessuali hanno regolarmente rilasciato nuove funzionalità e aggiornamenti software program, come various pose e posizioni sessuali. Advert esempio, nel giugno dello scorso anno, un servizio deepfake ha promosso una “modalità sessuale”, pubblicizzandola insieme al messaggio: “Prova vestiti diversi, le tue pose preferite, la tua età e altre impostazioni”. Un altro ha pubblicato che presto arriveranno “più stili” di immagini e video e che gli utenti potranno “creare esattamente ciò che immagini con le tue descrizioni” utilizzando istruzioni personalizzate per i sistemi di intelligenza artificiale.

“Non è semplicemente: ‘Vuoi spogliare qualcuno’. È come, ‘Ecco tutte queste various versioni fantasy.’ Sono le various pose. Sono le various posizioni sessuali”, cube l’analista indipendente Santiago Lakatos, che insieme ai media Indicatore ha studiato come i servizi “nudify” spesso utilizzano l’infrastruttura di grandi aziende tecnologiche e probabilmente hanno guadagnato molto denaro nel processo. “Ci sono versioni in cui puoi creare qualcuno [appear] incinta”, cube Lakatos.

Una revisione di WIRED ha rilevato che più di 1,4 milioni di account sono stati registrati su 39 bot e canali per la creazione di deepfake su Telegram. Dopo che WIRED ha chiesto a Telegram informazioni sui servizi, la società ha rimosso almeno 32 strumenti deepfake. “La pornografia non consensuale, compresi i deepfake e gli strumenti utilizzati per crearli, è severamente vietata dalle norme di Telegram.” termini di servizio“, afferma un portavoce di Telegram, aggiungendo che rimuove i contenuti quando vengono rilevati e ha rimosso 44 milioni di contenuti che violavano le sue politiche l’anno scorso.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here