Home Tecnologia La disinformazione sulla guerra tra Stati Uniti e Iran prende il sopravvento...

La disinformazione sulla guerra tra Stati Uniti e Iran prende il sopravvento su Web

12
0

Prima che la polvere si posasse sulle rovine della scuola Shajareh Tayyebeh – una vittima dei recenti attacchi militari USA-Israele contro l’Iran, e che ha portato alla morti fino a 168 adulti e bambini – le persone stavano già coltivando il coinvolgimento on-line. Spezzoni di simulatori di volo digitali sono stati spacciati per filmati di operazioni in tempo reale, mentre immagini fuori contesto di corazzate e vecchi video di attacchi missilistici aerei sono stati riproposti per vendere agli utenti una storia di dominio iraniano. I contenuti modificati dall’intelligenza artificiale proliferavano.

Secondo gli esperti, i submit hanno accumulato centinaia di milioni di visualizzazioni in pochi giorni.

VEDI ANCHE:

L’intelligenza artificiale ha reso tutti noi bersagli di sorveglianza. Questo strumento ti aiuta a reagire.

Il numero crescente di submit virali – e la possibilità che ne compaiano ancora di più man mano che gli utenti guadagnavano denaro per le falsità virali – period abbastanza allarmante da spingere X a modificare le proprie politiche sulla disinformazione. A partire da ieri, X sospenderà gli utenti dal suo programma Creator Income Sharing se pubblicano contenuti generati dall’intelligenza artificiale che descrivono conflitti armati senza etichettarli come tali.

E nemmeno le ricerche su Google sono al sicuro dalla disinformazione in questi giorni.

La proliferazione della disinformazione digitale è il prodotto di una rete di bot e account di engagement farming, tutti con l’obiettivo condiviso di essere l’account più rumoroso e più cliccato nella stanza.

Alcuni sperano di ottenere influenza politica e sociale, altri vogliono solo i soldi. Nel frattempo, gli utenti, inclini al pregiudizio di conferma e alla dipendenza dalle fonti di notizie digitali, cadono ripetutamente vittime del loro racket. L’engagement farming, che non si limita più allo scambio di valuta tramite meme e clickbait, è diventato un gioco pericoloso e politicamente complicato.

Ciò che vedono gli utenti mentre infuria il conflitto tra Stati Uniti e Iran

I recenti submit di disinformazione attiva sul conflitto in Iran riguardano principalmente l’esagerazione della portata e del successo dei contrattacchi iraniani, spiegano gli esperti.

Una recente indagine di Cablato ha documentato centinaia di submit su X di Elon Musk che includevano filmati e foto fuorvianti – inclusi contenuti manipolati dall’intelligenza artificiale – o promuovevano false affermazioni sulla portata degli attacchi, molti dei quali sono stati pubblicati subito dopo gli attacchi missilistici. Un submit con più di 4 milioni di visualizzazioni affermava di mostrare missili balistici che sorvolavano Dubai, ma in realtà raffigurava un attacco iraniano a Tel Aviv nell’ottobre 2024. Un altro con più di 375.000 impressioni mostra un’immagine fittizia prima e dopo del complesso bombardato del chief iraniano assassinato Ali Hosseini Khamenei.

Secondo Wired, quasi tutti i submit sono stati condivisi da account di abbonati premium con segni di spunta blu, compresi i media finanziati dallo stato in Iran.

Come nei precedenti conflitti militari, gli account hanno anche tentato di spacciare filmati di videogiochi come clip di notizie verificate, comprese immagini manipolate dall’intelligenza artificiale di aerei da combattimento F-35 abbattuti e strappate da giochi di simulazione di volo. Le immagini sono state condivise su TikTok, alcune con collegamenti a operazioni di influenza russa, altre BBC riportato.

Oltre a filmati fuori contesto e contenuti fuorvianti, la BBC ha anche documentato una manciata di video completamente generati dall’intelligenza artificiale che hanno accumulato quasi 100 milioni di visualizzazioni totali, condivisi da quelli che la testata definisce famigerati “super-diffusori” di disinformazione.

Le immagini sono un buon modo per elaborare ciò che sta accadendo in guerra quando non riusciamo a comprendere la portata di questi conflitti.

– Sofia Rubinson, NewsGuard

UN rapporto dal cane da guardia della disinformazione NewsGuard ha anche raccontato un gruppo di utenti che condividono submit virali che fanno circolare false affermazioni di attacchi militari mirati contro roccaforti statunitensi e israeliane, utilizzando prevalentemente filmati riproposti e immagini di distruzione fuori contesto o completamente ricontestualizzate.

“[These videos] sono pubblicati da account anonimi che tendono a riferire su conflitti geopolitici. Si tratta di account noti a NewsGuard per aver diffuso affermazioni esagerate, di solito da una prospettiva filo-iraniana,” ha affermato Sofia Rubinson, redattore senior della e-newsletter Actuality Examine di NewsGuard e coautrice del rapporto. Da lì, spiega Rubinson, altri account con un seguito più ampio raccolgono e diffondono le false affermazioni.

Advert esempio, poche ore dopo le prime notizie sugli attacchi militari statunitensi in Iran, gli utenti di X hanno iniziato a ripubblicare l’immagine di una portaerei navale che affondava. Gli utenti hanno affermato che mostrava un recente attacco alla corazzata USS Abraham Lincoln nel Mar Arabico. Il comando centrale dell’esercito americano ha rilasciato una dichiarazione confutare l’affermazione quello stesso giorno. NewsGuard ha confermato che l’immagine mostrava effettivamente l’affondamento intenzionale della USS Oriskany avvenuto quasi 20 anni fa. L’affermazione è stata condivisa da resoconti di “notizie” non verificate e persino dal parlamentare keniano Peter Salasya. Il submit di Salasya è stato visto più di 6 milioni di volte.

Diversi account, incluso quello di Salasya, hanno condiviso un altro video che mostra presumibilmente la centrale nucleare israeliana di Dimona sotto assedio aereo. Il video ha collezionato centinaia di migliaia di impressioni sulle pagine anti-israeliane e filo-iraniane: una nota della comunità X ora appare sotto il video sulla pagina di Salasya, chiarendo che le immagini si riferiscono a un attacco del marzo 2017 a Balaklia, in Ucraina.

NewsGuard ha scoperto che tali submit hanno già raccolto almeno 21,9 milioni di visualizzazioni su X.

On-line sono circolati anche submit che inducono al timore di ritorsioni interne, tra cui un elenco non verificato di città degli Stati Uniti presumibilmente essere i principali obiettivi per le cellule dormienti iraniane: l’elenco sembra essere stato scritto nell’app Be aware di Apple.

La disinformazione non potrà che peggiorare

L’accelerazione dell’intelligenza artificiale generativa avanzata e le politiche di moderazione rilassate sulle piattaforme di social media hanno esacerbato una crisi di disinformazione on-line, hanno avvertito gli esperti.

In particolare negli ultimi mesi, anche durante la cattura del chief venezuelano Nicolas Maduro guidata dagli Stati Uniti, i ricercatori di NewsGuard hanno notato uno schema nella disinformazione on-line che emergeva nei periodi di ultime notizie.

“Le persone ora hanno una finestra più breve per l’intervallo tra il verificarsi di un evento e le immagini autentiche che escono dai media”, ha spiegato Rubinson. Per dirla in modo più schietto: gli utenti stanno perdendo la pazienza, abituati a un ambiente on-line in cui le informazioni sono solitamente a portata di mano.

Questi brevi periodi, o vuoti, tra le notizie dell’ultima ora e i video o le foto confermati diventano terreno fertile per i robotic della disinformazione e gli agricoltori che coltivano il coinvolgimento, afferma Rubinson. Minacciano anche di rafforzare il pensiero cospirativo – secondo cui, advert esempio, i principali mezzi di informazione nascondono le informazioni al pubblico – e di prestarsi al pregiudizio di conferma dell’utente stesso.

Il conflitto politico è particolarmente diffuso perché diffonde story disinformazione, che è a sua volta rafforzata da campagne di disinformazione attive da entrambe le parti del conflitto armato. I ricercatori hanno scoperto che a mancanza di vicinanza agli eventi rende più facile credere a informazioni fuori contesto o esagerate.

“È un tentativo di riempire questa nebbia di guerra”, ha detto Rubsinson. “Può essere davvero travolgente per le persone. Vogliono dargli un senso e le immagini sono un buon modo per elaborare ciò che sta accadendo in una guerra quando non riusciamo a comprendere la portata di questi conflitti”.

Questo diventa un problema ancora più grande man mano che le persone utilizzano sempre più piattaforme di social media come uniche fonti di notizie e poiché gli strumenti di verifica dei fatti precedentemente affidabili, comprese le semplici ricerche su Google, diventano sempre più inaffidabili.

VEDI ANCHE:

Il governo americano crea un sito net per aggirare i divieti europei sui contenuti

L’intelligenza artificiale sta danneggiando più che aiutando

I chatbot e la ricerca basati sull’intelligenza artificiale sono diventati parte integrante degli eventi di crisi del mondo reale, poiché gli utenti si rivolgono a loro verificatori di fatti in tempo reale. Rubinson ha affermato che quasi tutti gli X submit analizzati da NewsGuard includevano la stessa risposta: “@Grok è vero?”

Ma gli assistenti IA e i chatbot della piattaforma, incluso Grok di X, lo sono notoriamente inaffidabile nel diffondere e verificare le ultime notizie. Sono anche incoerenti nell’applicare le proprie piattaforme” politiche di moderazione. La BBC ha scoperto, advert esempio, che Grok ha verificato erroneamente le recenti immagini generate dall’intelligenza artificiale che raffigurano movimenti militari iraniani.

Secondo a secondo rapporto di NewsGuard pubblicato il 3 marzo, i riepiloghi di ricerca basati sull’intelligenza artificiale di Google hanno ripetuto affermazioni fuorvianti sul conflitto tra Stati Uniti e Iran quando sono stati suggeriti con ricerche di immagini inverse. Advert esempio, i ricercatori di NewsGuard hanno caricato un body di un video condiviso on-line in cui si affermava di mostrare la distruzione di un avamposto della CIA a Dubai. Il riepilogo AI di Google ha verificato la storia, scrivendo: “L’immagine mostra un incendio in un grattacielo residenziale a Dubai, negli Emirati Arabi Uniti, che si sarebbe verificato il 1 marzo 2026, a seguito di tensioni regionali…. Sono emersi rapporti contrastanti riguardo alla causa, con alcune fonti che menzionano un attacco di droni e altre che si riferiscono all’edificio come a una struttura di intelligence specifica.”

Il video in realtà mostra un incendio residenziale avvenuto nel 2015 nella città di Sharjah.

Gli esperti di sicurezza hanno lanciato un campanello d’allarme su questo argomento”Minacce alle informazioni dell’IA,” compresi gli strumenti di intelligenza artificiale utilizzati per generare e amplificare contenuti fuorvianti. Un rapporto del Regno Unito Centro per le tecnologie emergenti e la sicurezza suggerisce che il peggioramento del contesto informativo potrebbe rappresentare una minaccia esistenziale per la sicurezza pubblica, la sicurezza nazionale e la democrazia senza un intervento diretto.

Nel frattempo, civili e giornalisti sul campo in Iran stanno combattendo contro un quasi totale blackout di interneta seguito di una massiccia spinta da parte dell’amministrazione Trump e del suo alleato Elon Musk per fornire connessioni Web Starlink a coloro che sono sul campo. I cattivi attori, invece, sono fermi trovare la strada attraverso il blocco e di nuovo su siti come X.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here