Tendiamo a pensare all’App Retailer di Apple e al Google Play Retailer come a “giardini recintati” digitali: spazi sicuri e curati in cui i contenuti pericolosi o squallidi vengono filtrati molto prima che raggiungano i nostri schermi. Ma una nuova cupa analisi da parte del Progetto di trasparenza tecnologica (TTP) suggerisce che i muri presentino delle gravi crepe. Il rapporto rivela una realtà inquietante: entrambe le principali vetrine sono attualmente infestate da dozzine di app “nudify” basate sull’intelligenza artificiale. Questi non sono strumenti oscuri nascosti nel darkish internet; sono proprio lì allo scoperto, consentendo a chiunque di scattare una foto innocente di una persona e di spogliarla digitalmente dei vestiti senza il suo consenso.
All’inizio di quest’anno, la conversazione su questa tecnologia ha raggiunto il culmine quando l’intelligenza artificiale di Elon Musk, Grok, è stata sorpresa a generare immagini sessuali simili sulla piattaforma X. Ma mentre Grok è diventato il parafulmine dell’indignazione pubblica, l’indagine del TTP mostra che period solo la punta dell’iceberg. Una semplice ricerca di termini come “spogliarsi” o “nudificare” negli app retailer fa apparire un lungo elenco di software program progettati specificamente per creare pornografia deepfake non consensuale.
Le dimensioni di questo settore sono francamente sconcertanti
Non stiamo parlando di alcuni sviluppatori disonesti che riescono a sfuggire al gioco. Secondo i dati, queste app hanno collezionato complessivamente oltre 700 milioni di obtain. Hanno generato entrate stimate per 117 milioni di dollari. Ed ecco la scomoda verità: poiché Apple e Google in genere prendono una commissione sugli acquisti e sugli abbonamenti in-app, traggono effettivamente profitto dalla creazione di immagini sessuali non consensuali. Ogni volta che qualcuno paga per “spogliare” la foto di un compagno di classe, di un collega o di uno sconosciuto, i giganti della tecnologia ottengono la loro parte.
Il costo umano di questa tecnologia non può essere sopravvalutato. Questi strumenti trasformano in armi le foto ordinarie. Un selfie da Instagram o una foto da un annuario possono essere trasformati in materiale esplicito utilizzato per molestare, umiliare o ricattare le vittime. I gruppi di difesa lo gridano da anni, avvertendo che la “nudificazione tramite intelligenza artificiale” è una forma di violenza sessuale che prende di mira in modo sproporzionato le donne e, cosa spaventosa, i minori.
Allora perché sono ancora lì?
Sia Apple che Google hanno politiche rigorose sulla carta che vietano i contenuti pornografici e di sfruttamento. Il problema è l’applicazione. È diventato un gioco digitale di Whac-A-Mole. Quando esce un rapporto di alto profilo, le aziende potrebbero vietare alcune app specifiche, ma gli sviluppatori spesso si limitano a modificare il emblem, cambiare leggermente il nome e ricaricare esattamente lo stesso codice una settimana dopo. I sistemi di revisione automatizzata sembrano del tutto incapaci di tenere il passo con la rapida evoluzione dell’intelligenza artificiale generativa.

Per i genitori e gli utenti quotidiani, questo è un campanello d’allarme. Non possiamo più presumere che solo perché un’app si trova su uno retailer “ufficiale” sia sicura o etica. Man mano che gli strumenti di intelligenza artificiale diventano più potenti e di più facile accesso, le garanzie su cui facevamo affidamento in passato stanno venendo meno. Fino a quando non intervengono le autorità di regolamentazione – o finché Apple e Google non decidono di dare priorità alla sicurezza rispetto alle commissioni – le nostre somiglianze digitali rimangono fastidiosamente vulnerabili.









