Home Tecnologia Google e Apple hanno ospitato dozzine di app di nudità deepfake, rivela...

Google e Apple hanno ospitato dozzine di app di nudità deepfake, rivela un’indagine

22
0

Una nuova indagine afferma che gli app retailer di Apple e Google ospitavano dozzine di cosiddette app AI “nudify”, nonostante tali app violassero le regole delle aziende.

Il progetto Trasparenza (TTP), un gruppo affiliato alla Kennedy College of Authorities dell’Università di Harvard, ho trovato dozzine di app in entrambi gli store che rimuovono digitalmente i vestiti, rendendo i soggetti nudi o quasi nudi. Ha trovato 55 app di questo tipo nel Google Play Retailer e 47 nell’Apple App Retailer.

Ha scritto TTP:

“Le app identificate da TTP sono state scaricate complessivamente più di 705 milioni di volte in tutto il mondo e hanno generato entrate per 117 milioni di dollari, secondo AppMagic, una società di analisi delle app. Poiché Google e Apple si prendono una parte di tali entrate, traggono profitto direttamente dall’attività di queste app.”

Entrambi i giganti della tecnologia hanno risposto al rapporto TTP. Mela ha detto alla CNBC aveva rimosso 28 app identificate nel rapporto TTP, mentre Google ha dichiarato di aver “sospeso numerous app” pur sottolineando che le sue indagini erano in corso.

Tuttavia, il TTP conclude che entrambi gli App Retailer devono fare di più per fermare i deepfake non consensuali.

VEDI ANCHE:

I deepfake espliciti sono traumatici. Come affrontare il dolore.

“I risultati del TTP mostrano che Google e Apple non sono riusciti a tenere il passo con la diffusione delle app deepfake di intelligenza artificiale che possono ‘nudificare’ le persone senza il loro permesso”, afferma il rapporto. “Entrambi aziende dicono che si dedicano alla sicurezza e alla protezione degli utenti, ma ospitano una raccolta di app che possono trasformare una foto innocua di una donna in un’immagine offensiva e sessualizzata.”

Il rapporto del TTP arriva sulla scia della controversia che circonda Elon Musk e Grok di xAI, che è sotto indagine in diversi paesi per aver creato immagini sessualizzate e non consensuali. Un’indagine di Mashable ha scoperto che Grok non dispone di protezioni di sicurezza di base per prevenire i deepfake. Inoltre, i ricercatori affermano che Grok ha creato più di 3 milioni di immagini sessualizzate – tra cui più di 20.000 che sembravano raffigurare bambini – in un periodo di 11 giorni tra il 29 dicembre e l’8 gennaio.

Con l’alba dell’period dell’intelligenza artificiale, i deepfake sessuali continueranno a essere un grosso problema per le aziende tecnologiche che vanno avanti.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here