Home Tecnologia Si può fare causa alla Casa Bianca per un deepfake basato sull’intelligenza...

Si può fare causa alla Casa Bianca per un deepfake basato sull’intelligenza artificiale?

12
0

La settimana scorsa, l’avvocato per i diritti civili Nekima Levy Armstrong è stato arrestato dopo aver partecipato a una protesta in una chiesa a St. Paul, Minnesota, dove secondo quanto riferito il pastore aveva lavorato con l’ICE. La Casa Bianca ha condiviso un’immagine di Levy Armstrong dopo l’arresto che sembrava mostrarla mentre piangeva. Ma l’immagine è falsa, apparentemente alterata con l’intelligenza artificiale per farla sembrare angosciata o pentita. Il che solleva una nuova domanda interessante: cosa puoi fare se il governo più potente del mondo ti arresta con accuse inventate e poi condivide foto false di te? Hai qualche possibilità di ricorso?

Nekima Levy Armstrong e Chauntyll Allen, membro del consiglio scolastico di St. Paul, sono stati arrestati il ​​23 gennaio per aver violato la legge FACE, che proibisce i tentativi di intimidazione, minaccia o interferenza con i servizi nei luoghi di culto. Il video dell’arresto catturato dal marito di Levy Armstrong mostra gli agenti non solo che la registrano, ma le assicurano che il filmato non sarà utilizzato sui social media.

“Perché stai registrando?” chiese Levy Armstrong nel video di 7 minuti. “Ti chiederei di non registrare.”

“Non sarà su Twitter”, le ha detto l’agente non identificato. “Non sarà su niente del genere.”

Ma è stata pubblicata su Twitter, ora noto come X. La segretaria per la sicurezza nazionale Kristi Noem ha pubblicato un’immagine che mostra Levy Armstrong con un’espressione relativamente neutra: fiduciosa e stoica. Ma l’account X della Casa Bianca ha pubblicato qualcosa di diverso. Quel resoconto mostrava Levy Armstrong che piangeva, con le lacrime che le rigavano il viso. Molto probabilmente è stato creato con l’intelligenza artificiale. Lo ha detto il suo avvocato, Jordan Kushner Stampa associata che fosse diffamazione.

“È semplicemente scandaloso che la Casa Bianca inventi storie su qualcuno per cercare di screditarlo”, ha detto Kushner. “Period completamente calma, composta e razionale. Non c’period nessuno che piangeva. Quindi questa è solo un’oltraggiosa diffamazione.”

Gizmodo ha parlato con gli esperti per avere un’thought migliore di ciò che Levy Armstrong potrebbe fare dopo una mossa così vergognosa da parte della Casa Bianca. E il consenso sembra essere che qualsiasi tentativo di ottenere giustizia sarà complicato.

Eric Goldman, professore di diritto presso la Faculty of Legislation dell’Università di Santa Clara, ha sottolineato che il governo ha cercato di reprimere gli usi dannosi dell’intelligenza artificiale per travisare le persone, ma la Casa Bianca si volta e fa proprio questo, “modellando il comportamento peggiore che sta cercando di impedire ai suoi cittadini di impegnarsi”.

“È così scioccante vedere il governo diffondere un’immagine deliberatamente falsa senza affermare che la stava manipolando. Questo è ciò che chiamiamo propaganda governativa”, ha detto Goldman.

Goldman cube che ci sono diversi livelli in un’accusa di diffamazione che Levy Armstrong avrebbe bisogno di stabilire per avere successo.

“Dovrebbe dimostrare che c’period una falsa dichiarazione di fatto. E normalmente trattiamo le foto come dichiarazioni di fatto conclusive, che sono veritiere per quello che raffigurano, ma non mi sorprenderebbe se il governo sostenesse che si trattava di una parodia o che period così ovviamente falso che tutti sapevano che period falso e quindi non period una dichiarazione di fatto”, ha detto Goldman.

“Ora, questo è solo sofisma, giusto? Se la legge sulla diffamazione significasse qualcosa, si applicherebbe a una foto fittizia presentata come veritiera. Cioè, è quello che dovrebbe coprire. Eppure, il governo potrebbe benissimo vincere proprio sul primo elemento”, ha continuato Goldman.

Una dichiarazione di fatto deve anche danneggiare la reputazione di qualcuno, e questo è un altro ostacolo, secondo Goldman. Potremmo aspettarci che qualcuno pianga quando viene arrestato, il che significa che cube che è difficile sostenere che la sua reputazione è stata danneggiata. C’è anche la questione se sia un personaggio pubblico.

“Esiste una difesa del Primo Emendamento che limita le accuse di diffamazione. E hanno alzato il livello delle affermazioni che si applicano a questioni di interesse pubblico e personaggi pubblici. E direi che potenzialmente il soggetto della foto si qualificherebbe come personaggio pubblico e il suo arresto period chiaramente una questione di interesse pubblico”, ha detto Goldman.

Infine, dovrebbe dimostrare che il governo ha dimostrato “effettiva malizia” riguardo alla veridicità delle dichiarazioni rilasciate, nel senso che sapevano che ciò che stavano presentando period falso con l’intento di danneggiare la sua reputazione. “Ora, se romanza una foto e la presenti come vera, penso che potresti avere vera malizia”, ​​ha spiegato Goldman. “Tuttavia, non sono sicuro di come ciò funzionerebbe in questa circostanza.”

Il lungo e il breve? Goldman cube: “Non mi è chiaro che anche se fa causa, vince.”

Altri esperti legali con cui Gizmodo ha parlato hanno avuto più o meno la stessa risposta in fondo. Semplicemente non esiste un motivo abbastanza forte per giustificare la diffamazione. Il rimedio contro il governo che mente sulle persone è che i politici in carica vengano sostituiti.

“Abbiamo dato per scontato che se i politici pubblicano informazioni false, gli elettori li puniranno per questo”, ha detto Goldman. “E potrebbe esserci stato un tempo in cui period vero, ma quel modello è chiaramente scomposto.”

Non è chiaro quale generatore di immagini AI sia stato utilizzato per realizzare la foto in lacrime. Gizmodo ha testato vari chatbot IA per vedere che tipo di barriere potrebbero essere installate per questo genere di cose. Gemini di Google e ChatGPT di OpenAI l’hanno fatta piangere. Microsoft Co-Pilot ha rifiutato, così come Claude di Anthropic, spiegando: “Non posso modificare le immagini per aggiungere espressioni emotive manipolate alle foto di persone reali. Ciò potrebbe essere utilizzato per travisare qualcuno o creare contenuti fuorvianti”.

E che dire di Grok di xAI? Il servizio period inattivo quando abbiamo provato. Ma si può dire con certezza che Grok probabilmente ti lascerà far piangere le persone nel tentativo di ridicolizzarle, dato tutto il resto che Elon Musk ti permetterà di fare.

È un momento unico nella storia moderna degli Stati Uniti. Il governo americano è stato sorpreso a mentire ripetutamente su questioni grandi e piccole da quando esiste. Ma le bugie del secondo mandato del presidente Donald Trump sono così palesemente false da risultare quasi ridicole.

Kristi Noem domenica si è alzata davanti ai microfoni per chiamare Alex Pretti, l’uomo ucciso dagli agenti dell’ICE a Minneapolisun terrorista domestico. Ha detto che l’infermiera di terapia intensiva di 37 anni del VA si è presentata per “perpetuare la violenza”. Sarebbe divertente se non fosse così terrificante. Il governo mente impunemente e non gli importa che tutti noi possiamo vedere un uomo compassionevole e premuroso assassinato per strada da agenti dello stato mascherati.

Quando il governo va oltre le semplici parole, tentando di manipolare le immagini che vediamo con la falsità dell’intelligenza artificiale, in qualche modo ci sembra ancora peggio, come se fossimo sull’orlo di una società post-verità. Sfortunatamente, a molti elettori di Trump non sembra importare.

“Non credo che si sia discusso abbastanza dei deepfake basati sull’intelligenza artificiale utilizzati dalla propaganda governativa per mentire contro i propri elettori”, ha affermato Goldman. “E potremmo non avere risorse adeguate per punire il governo per tali abusi”.

“Non so quali siano i rimedi. Temo che non li abbiamo abbastanza forti, ma temo ancora di più che gli elettori ricompenseranno i politici per la propaganda abusiva. Questo potrebbe essere proprio ciò che significa possedere i liberal.”

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here