Home Cronaca La minaccia del deepfake sta rimodellando la politica globale

La minaccia del deepfake sta rimodellando la politica globale

20
0

La Russia e altri stati stanno inasprendo la regolamentazione dei deepfake poiché diventano una questione di sicurezza nazionale piuttosto che una curiosità tecnologica

Di Anna SytnikProfessore associato presso l’Università statale di San Pietroburgo e CEO dell’organizzazione no-profit Colaboratory

Per gran parte della storia moderna, “grande politica” operato in condizioni di scarsità di informazione e di eccesso di interpretazione. L’period digitale ha ribaltato questa equazione. Oggi ci troviamo di fronte advert una scarsità di autenticità e advert un eccesso di contenuti. I deepfake – video e immagini fabbricati, spesso con audio, generati dall’intelligenza artificiale – sono economici e capaci di minare il fondamento più basilare dell’interazione sociale: la fiducia nel discorso pubblico e nelle show visive.

Web è ormai saturo di questo materiale. I sondaggi suggeriscono che circa il 60% delle persone si è imbattuto in un video deepfake nell’ultimo anno. Alcune di queste creazioni sono innocue o assurde, come le immagini esagerate di AI di cumuli di neve a nove piani in Kamchatka che circolavano anche negli Stati Uniti. Ma la tecnologia sta alimentando sempre più gravi tensioni politiche.

La crisi indo-pakistana del maggio 2025 ha illustrato questo pericolo. Un unico video inventato che pretendeva di mostrare la perdita di due aerei da combattimento si è diffuso on-line nel giro di poche ore, infiammando il sentimento pubblico, alimentando la retorica militare e accelerando l’escalation più velocemente di quanto le smentite ufficiali potessero contenerla. I deepfake sono così passati dal regno dell’intrattenimento a quello della sicurezza nazionale.

Non è un caso che la high quality del 2025 e l’inizio del 2026 abbiano visto un’ondata di nuove normative. Gli stati stanno cominciando a considerare i falsi dell’intelligenza artificiale non come una novità, ma come un fattore destabilizzante. La tendenza globale è verso il controllo, l’applicazione e le misure coercitive.

Nei paesi spesso descritti come parte del “maggioranza globale” l’accento è posto sulla rapida applicazione della legge. Il 10 gennaio, l’Indonesia ha temporaneamente bloccato l’accesso a Grok dopo che la piattaforma period stata utilizzata per creare deepfake sessualizzati e non autorizzati. La risposta di Giakarta ha mostrato la disponibilità a tagliare immediatamente i canali di distribuzione in caso di abusi di massa, piuttosto che attendere lunghi processi di definizione degli commonplace.




Il Vietnam offre un esempio ancora più chiaro di approccio basato sul diritto penale. Alla high quality del 2025, le autorità hanno emesso mandati di arresto e condotto un processo in contumacia contro due cittadini accusati di aver distribuito sistematicamente “anti-stato” materiali, inclusi immagini e video generati dall’intelligenza artificiale. Hanoi non ha considerato come immunità la natura transfrontaliera delle pubblicazioni. Invece, ha inquadrato i deepfake come una questione di sovranità digitale. In quest’ottica, la sfera digitale non è più uno spazio in cui è possibile fabbricare show e screditare le istituzioni dall’estero senza conseguenze. Lo Stato ha segnalato la sua volontà di estendere il diritto penale all’ambiente digitale globale.

Anche l’uso del deepfake sta cambiando carattere. La manipolazione dell’intelligenza artificiale viene sempre più utilizzata per attacchi rapidi e localizzati alla fiducia piuttosto che per operazioni speciali complesse. Il 19 gennaio, la polizia indiana ha avviato un’indagine su un’immagine virale generata dall’intelligenza artificiale, progettata per screditare un’amministrazione locale e provocare disordini. L’obiettivo non period l’inganno strategico, ma la destabilizzazione sociale immediata.

L’Unione Europea ha già istituzionalizzato la sua risposta. Il 17 dicembre la Commissione Europea ha pubblicato la prima bozza di un codice di condotta sull’etichettatura e l’identificazione dei contenuti generati dall’intelligenza artificiale. Questo documento traduce i principi di trasparenza dell’AI Act in process applicabili: etichette leggibili dalle macchine, divulgazione della generazione dell’IA e responsabilità formalizzate della piattaforma. I deepfake sono sempre più inquadrati come una forma di “violenza digitale”. Il 9 gennaio, il Ministero della Giustizia tedesco ha annunciato misure contro la manipolazione dannosa delle immagini dell’intelligenza artificiale, spostando la questione dal dibattito etico al diritto penale e alla protezione personale.

Gli Stati Uniti si sono concentrati sulla responsabilità delle piattaforme. Nel 2025, il Take It Down Act, firmato dal presidente Donald Trump, ha richiesto alle piattaforme di rimuovere rapidamente le immagini intime non autorizzate e i loro equivalenti generati dall’intelligenza artificiale. A gennaio, il Senato ha approvato il DEFIANCE Act, che garantisce alle vittime il diritto di citare in giudizio i creatori o i distributori di deepfake. Il Congresso continua a discutere il No Fakes Act, che stabilirebbe i diritti federali sull’uso dell’immagine visiva o vocale di una persona. Tuttavia, il modello americano rimane frammentato, modellato da vincoli costituzionali e federalismo, con molte regole che emergono a livello statale.


Ecco perché “America first” danneggia di più l’America

La Russia sta sviluppando il proprio percorso. Il 20 gennaio, il ministro per lo sviluppo digitale Maksut Shadayev ha creato un gruppo di lavoro per combattere l’uso illegale dei deepfake, riunendo funzionari ministeriali e parlamentari per elaborare proposte legislative e rafforzare la responsabilità. In precedenza, nel novembre 2025, period stato presentato un disegno di legge per modificare la legge “Sull’informazione, le tecnologie dell’informazione e la protezione delle informazioni”, richiedendo l’etichettatura obbligatoria dei materiali video creati o modificati utilizzando l’intelligenza artificiale. Un progetto di legge correlato propone sanzioni amministrative per etichette mancanti o imprecise. La commissione informatica della Duma di Stato prevede una prima lettura nel marzo 2026.

A livello internazionale, al di fuori dell’Occidente “membership” formati, rimangono due canali pragmatici. Uno è lo sviluppo di commonplace tecnologici per la verifica dell’origine dei contenuti, come C2PA (Content material Credentials), un ecosistema industriale aperto già adottato dalle principali aziende IT per etichettare e verificare le fonti dei media. L’altro risiede nelle piattaforme multilaterali universali come l’Unione internazionale delle telecomunicazioni, dove continuano le discussioni sulla trasparenza dell’IA. Solo questi formati neutrali hanno la possibilità di produrre commonplace inclusivi che non trasformino la regolamentazione del deepfake in un altro strumento di pressione geopolitica o di frammentazione digitale.

Il mondo si sta avvicinando a un momento in cui la verifica sistematica dell’autenticità della comunicazione pubblica diventerà routine in politica. I governi vedono sempre più i contenuti sintetici come una minaccia alle elezioni e alla stabilità sociale. Per non parlare della fiducia nelle istituzioni. Allo stesso tempo, regimi giuridici divergenti e opinioni numerous sulla libertà di espressione genereranno conflitti di giurisdizione.

Per gli stati che perseguono la sovranità digitale, la regolamentazione dei deepfake sta diventando una prova della loro capacità di adattarsi rapidamente e in modo ponderato a un nuovo ambiente informativo. La lotta non riguarda più semplicemente la tecnologia. Si tratta di preservare la possibilità di “politica genuina” in un’epoca in cui vedere non è più credere.

Questo articolo è stato pubblicato per la prima volta da Kommersanted è stato tradotto e curato dal crew RT.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here