Ami la magia del fotoritocco AI ma odi consegnare il tuo volto inalterato a qualche server cloud. Una nuova tecnologia per la privateness di Ricercatori della Purdue University potrebbe darti il meglio di entrambi i mondi. Il metodo in attesa di brevetto maschera le parti sensibili di un’immagine sul tuo dispositivo prima che la foto raggiunga una piattaforma AI.
Viene caricata solo la versione mascherata, il che significa che lo strumento vede lo sfondo e i tuoi vestiti ma mai il tuo volto reale. Una volta ripristinata la modifica, la tecnologia fonde nuovamente l’space mascherata originale. Il risultato è una foto completamente modificata che sembra completamente naturale, senza che i tuoi dati biometrici siano esposti. Funziona anche con qualsiasi modello di intelligenza artificiale generativa commerciale, quindi non sono necessarie riqualificazioni o app speciali.
Come il mascheramento locale inganna l’intelligenza artificiale
L’approccio funziona in due fasi pulite. Prima del caricamento, tu o l’app tracciate un contorno dettagliato attorno alle regioni sensibili come il tuo viso. Quei pixel non lasciano mai il tuo telefono o pc. Solo il resto dell’immagine viene inviato allo strumento di modifying, che lo elabora normalmente.
Quando viene restituita la versione modificata, la tecnologia riallinea e fonde nuovamente il volto mascherato originale nel risultato finale utilizzando l’allineamento geometrico. I ricercatori Vaneet Aggarwal, Dipesh Tamboli e Vineet Punyamoorty lo hanno progettato specificatamente per funzionare con gli strumenti esistenti. Non avrai bisogno che aziende come OpenAI o Adobe cambino i loro modelli.
Perché i tuoi dati biometrici necessitano di protezione
Il rischio per la privateness qui è reale. Quando carichi una foto su un editor AI basato su cloud, invii insieme advert essa il tuo profilo biometrico completo. Colore degli occhi, peli del viso, fascia d’età, tutto diventa dati che la piattaforma può archiviare, addestrare o condividere. Perdi il controllo nel momento in cui premi il caricamento.

Le soluzioni various precedenti, come i filtri di sfocatura o di stilizzazione, interrompevano il processo di modifica o lasciavano abbastanza pixel per la ricostruzione dei modelli di intelligenza artificiale. Il staff ha convalidato il proprio sistema testando la capacità dei principali modelli di intelligenza artificiale di indovinare gli attributi delle immagini mascherate rispetto a quelle non mascherate. I risultati hanno mostrato un drammatico calo di precisione. In alcuni casi, la capacità dell’intelligenza artificiale di classificare cose come il colore degli occhi è diminuita di oltre l’80%.
Cosa succede dopo
La tecnologia è ancora in fase di ricerca, ma il staff ha pubblicato i suoi risultati in IEEE Transactions on Synthetic Intelligence. Hanno anche richiesto un brevetto tramite il Purdue Innovates Workplace of Expertise Commercialization, il che significa che l’università è ora alla ricerca di associate industriali per trasformarlo in prodotti reali.
I ricercatori stanno già espandendo il concetto oltre i volti. Vogliono proteggere immagini mediche, documenti d’identità e altri contenuti critici per la privateness. Per ora, se desideri questo livello di protezione, dovrai aspettare. Ma la porta per le licenze è aperta e le aziende interessate a integrare la tecnologia possono contattare direttamente l’università. I giorni in cui devi scegliere tra una grande modifica e la tua privateness potrebbero finire prima di quanto pensi.











