L’immagine satellitare pubblicata da un organo di informazione iraniano sembrava reale: una base americana devastata in Qatar. Ma si trattava di un falso generato dall’intelligenza artificiale, a sottolineare la crescente minaccia della disinformazione basata sulla tecnologia durante la guerra.
L’ascesa dell’intelligenza artificiale generativa ha potenziato la capacità degli attori statali e dei propagandisti di fabbricare immagini satellitari convincenti durante i grandi conflitti, una tendenza che, secondo i ricercatori, comporta implicazioni per la sicurezza nel mondo reale.
Segui | Guerra Israele-Iran IN DIRETTA
Mentre infuria la guerra USA-Israele contro l’Iran, il Tehran Occasions, un quotidiano inglese allineato allo Stato, ha pubblicato su X un’immagine “prima contro dopo” che, secondo lui, mostrava apparecchiature radar statunitensi “completamente distrutte” in una base in Qatar.
In realtà si trattava di una versione manipolata dall’intelligenza artificiale di un’immagine di Google Earth dell’anno scorso di una base americana in Bahrein, hanno detto i ricercatori.
I sottili indizi visivi includevano una fila di auto parcheggiate in posizioni identiche sia nella foto satellitare autentica che nell’immagine manipolata.
Eppure la foto manipolata ha raccolto milioni di visualizzazioni mentre si diffondeva sui social media in più lingue, illustrando come gli utenti riescano sempre più a distinguere la realtà dalla finzione su piattaforme sature di immagini generate dall’intelligenza artificiale.
Brady Africk, un ricercatore di intelligence open supply, ha notato un “aumento delle immagini satellitari manipolate” che appaiono sui social media in seguito a grandi eventi tra cui la guerra in Medio Oriente.
“Molte di queste immagini manipolate hanno i tratti distintivi di una generazione IA imperfetta: angoli strani, dettagli sfocati e caratteristiche allucinate che non si allineano con la realtà”, ha detto Africk all’AFP.
“Altre sembrano essere un’immagine manipolata manualmente, spesso sovrapponendo indicatori di danno o un altro cambiamento su un’immagine satellitare che non aveva tali dettagli fin dall’inizio”, ha detto.
L’analista di guerra dell’informazione Tal Hagin ha segnalato un’altra immagine satellitare generata dall’intelligenza artificiale che pretendeva di mostrare che i jet israelo-americani avevano preso di mira la sagoma dipinta di un aereo a terra in Iran, mentre Teheran apparentemente aveva spostato aerei veri altrove.
Gli indizi rivelatori includevano coordinate senza senso incorporate nell’immagine falsa, che si diffondevano su siti tra cui Instagram, Threads e X.
AFP ha rilevato un SynthID, una filigrana invisibile intesa a identificare le immagini create utilizzando l’intelligenza artificiale di Google.
Le immagini satellitari fabbricate seguono l’emergere di account OSINT impostori, o intelligence open supply, sui social media che sembrano minare il lavoro di investigatori digitali credibili.
“A causa della nebbia della guerra, può essere molto difficile determinare il successo degli attacchi di un avversario. L’OSINT è arrivata come soluzione, utilizzando immagini satellitari pubbliche per aggirare la censura” all’interno di paesi come l’Iran, ha detto Hagin.
“Ma ora viene sfruttato dagli agenti di disinformazione”, ha aggiunto.
Segnalazioni di false immagini satellitari create o modificate utilizzando l’intelligenza artificiale hanno fatto seguito anche al conflitto Russia-Ucraina e alla guerra di quattro giorni tra India e Pakistan lo scorso anno.
“Le immagini satellitari manipolate, come altre forme di disinformazione, possono avere impatti nel mondo reale quando le persone agiscono in base alle informazioni che incontrano senza verificarne l’autenticità”, ha affermato Africk.
“Ciò può avere effetti che vanno dall’influenzare l’opinione pubblica su una questione importante, come se un paese debba o meno impegnarsi in un conflitto, all’impatto sui mercati finanziari”.
Nell’period dell’intelligenza artificiale, immagini satellitari autentiche advert alta risoluzione raccolte in tempo reale possono fornire ai decisori indizi vitali per valutare le minacce alla sicurezza e sfatare le falsità provenienti da fonti non verificate.
Durante un recente attacco militante all’aeroporto di Niamey in Niger, la società di intelligence satellitare Vantor ha affermato di aver rilevato immagini che circolano on-line che pretendono di mostrare il principale terminal civile in fiamme.
Le immagini satellitari dell’azienda hanno contribuito a confermare che le foto erano false, quasi certamente generate utilizzando l’intelligenza artificiale, ha detto all’AFP Tomi Maxted di Vantor.
“Quando un’immagine satellitare viene presentata come prova visiva nel contesto di una guerra, può facilmente influenzare il modo in cui le persone interpretano gli eventi”, ha detto all’AFP Bo Zhao, dell’Università di Washington.
Poiché le immagini generate dall’intelligenza artificiale diventano sempre più convincenti, è “importante che il pubblico si avvicini a tali contenuti visivi con cautela e consapevolezza critica”, ha affermato Zhao.
Pubblicato – 9 marzo 2026 09:04 IST








