La piattaforma di social media X è stata inondata di foto e video falsi da quando il presidente Donald Trump ha lanciato una nuova guerra contro l’Iran la scorsa settimana. Ma il capo del prodotto di X, Nikita Bier, ha annunciato martedì una nuova politica che spera disincentiverà gli account dalla condivisione di falsi generati dall’intelligenza artificiale. Almeno quando la motivazione della condivisione è puramente finanziaria.
“A partire da ora, gli utenti che pubblicano video di un conflitto armato generati dall’intelligenza artificiale, senza aggiungere la dichiarazione che è stato realizzato con l’intelligenza artificiale, saranno sospeso dalla Creator Income Sharing per 90 giorni”, ha scritto Bier martedì in a posta su X.
“Le successive violazioni comporteranno una sospensione permanente dal programma. Questo ci verrà segnalato da qualsiasi publish con una nota della neighborhood o se il contenuto contiene metadati (o altri segnali) da strumenti di intelligenza artificiale generativa”, ha continuato Bier.
Non è immediatamente chiaro se ci saranno requisiti su quanto grande dovrà apparire una divulgazione e se dovrà essere incorporata nel video o potrà essere semplicemente inclusa nel testo di un tweet. Ci sono molte scappatoie che gli account X utilizzano per l’imitazione, come creare un nome utente così lungo che la parola “parodia” appaia solo se si fa clic per visualizzare il profilo di un determinato account. Anche qui le potenziali scappatoie sembrano infinite.
Falsità della guerra USA-Iran
Foto e video falsi hanno ottenuto milioni di visualizzazioni negli ultimi giorni, da quando gli Stati Uniti e Israele hanno lanciato una guerra in Iran che ha ucciso il chief supremo Ayatollah Ali Khamenei e un gran numero di altri funzionari iraniani. E fino a martedì non ha mostrato segni di rallentamento.
Una delle immagini false includeva un pilota di caccia americano che fu abbattuto e presumibilmente scambiato per un iraniano da un kuwaitiano con una pipa. L’immagine embrace la filigrana SynthID di Google, il che significa che è stata creata utilizzando uno dei prodotti di intelligenza artificiale generativa di Google.
Se guardi da vicino, anche le persone nell’immagine lo sono mancano alcune ditaun classico segno di falsità da parte dell’intelligenza artificiale.
Parecchi diverso conti su X hanno anche condiviso filmati che mostrano Tel Aviv, Israele, mentre viene bombardata da razzi.
Ma il video ha diversi grossi segnali d’allarme che indicano che è stato generato con l’intelligenza artificiale, secondo il tracker di disinformazione della BBC Shayan Sardarizadeh. Le più evidenti potrebbero essere le auto per strada, che hanno forme bizzarre e non sembrano vere auto.
Ma c’è anche l’audio, che embrace qualcuno fuori campo che cube “Tel Aviv, non posso crederci”, in un modo innaturale che è semplicemente un po’ troppo perfetto se stai cercando di diffondere informazioni false su un luogo specifico.
Molti utenti X hanno chiesto a Grok di xAI se il video è reale e sembra che risponda costantemente di sì. Un utente che ha condiviso il video ha addirittura insistito sul fatto che doveva essere reale perché lo ha detto Grok.
#ULTIMAHORA
🚨CASTIGA IRÁN CON FURIA A TEL AVIVY si, si es actual, si gustan chequen con @grok… pic.twitter.com/oypZhe0OrE
— La Catrina Norteña (@catrina_nortena) 3 marzo 2026
Ma Grok è un pessimo verificatore di fatti e non si può fare affidamento su di te per dirti se un video è reale, così come non dovrebbe essere usato per nulla che coinvolga la storia della Seconda Guerra Mondiale. Dopotutto, questo è lo stesso MechaHitler.
Video etichettati erroneamente
Una domanda a cui X non ha risposto è se le immagini e i video fuorvianti che non sono necessariamente creati con l’intelligenza artificiale verranno demonetizzati. Perché ci sono molti altri modi per ingannare le persone sui social media in tempo di guerra.
Un popolare video falso diventato virale mostrava anche l’ambasciata americana in Arabia Saudita in fiamme. Lunedì l’ambasciata è stata colpita da due droni iraniani New York Timesma non è quello che viene raffigurato nel video.
ROTTURA 🚨
ESPLOSIONI SEGNALATE ALL’AMBASCIATA USA A RIYADH, ARABIA SAUDITA pic.twitter.com/eMQVdDICol
— Iran Occasions (@IranTimes9) 3 marzo 2026
In realtà, il video sopra è vecchio almeno di circa un mese ed è stato pubblicato su YouTube su 6 febbraio. Non ha nulla a che fare con la guerra attuale. Sebbene il video sembri reale, viene travisato come qualcosa accaduto di recente.
Un altro video period intitolato “Un aereo iraniano contro una nave americana. Posso guardarlo tutto il giorno”, accumulando oltre sette milioni di visualizzazioni. In realtà è il filmato di un videogioco. Creare un videoclip di filmati di gioco e presentarlo come eventi attuali qualificherà gli utenti X per la demonetizzazione? Non c’è alcun segno che sia stato creato utilizzando l’intelligenza artificiale, che è l’unica cosa menzionata da Bier nel suo tweet di martedì.
Un aereo iraniano contro una nave americana.
Posso guardarlo tutto il giorno 😂 pic.twitter.com/qjLH2rA8V1
— Joel Fischer 🇺🇸 (@realJoelFischer) 1 marzo 2026
Ancora un altro video che ha attirato molta attenzione mostrava presumibilmente il “quartier generale della CIA” a Dubai da cui usciva fumo dopo essere stato colpito dall’Iran. Un conto che pubblica spesso disinformazione ha affermato falsamente che le autorità degli Emirati Arabi Uniti stavano arrestando chiunque avesse condiviso il filmato. Ma il filmato in realtà è del 2015.
Sono emersi filmati del quartier generale della CIA a Dubai preso di mira questa mattina dall’Iran.
Gli Emirati Arabi Uniti stanno arrestando coloro che hanno diffuso il filmato. Ma non possono nasconderlo. pic.twitter.com/K3iPuvH4WU
— Ragazza siriana (@Partisangirl) 1 marzo 2026
Persone presumibilmente rispettabili possono lasciarsi coinvolgere nella condivisione di queste immagini e video falsi, come abbiamo visto più volte negli ultimi giorni. Bret Baier, conduttore di Fox Information condiviso il falso video dell’ambasciata e il governatore del Texas Greg Abbott condiviso il filmato del videogioco, anche se entrambi hanno cancellato i loro tweet.
Focolaio di disinformazione
X è il punto di riferimento per foto e video falsi ogni volta che arrivano notizie, che si tratti di guerra o di qualsiasi altro argomento. Elon Musk ha contribuito a peggiorare il problema della disinformazione dopo aver acquistato Twitter alla high-quality del 2022, invitando a tornare i teorici della cospirazione che erano stati precedentemente banditi dal sito e rimuovendo i cosiddetti segni di spunta di verifica legacy che aiutavano a dare agli utenti un’thought di chi potevano fidarsi. E poi la tecnologia dell’intelligenza artificiale generativa ha peggiorato ulteriormente il problema.
Musk ha anche introdotto il programma di compartecipazione alle entrate dei creatori che ha creato incentivi per gli utenti per ottenere la massima attenzione, indipendentemente dal fatto che qualcosa fosse vero o no. E lo stesso Musk spesso condivide cose che non sono vere o che sono AI, come i video Sydney Sweeney per promuovere Grok.
Musk non ha pesato personalmente sulla nuova politica per demonetizzare gli account che condividono contenuti AI senza divulgazione.
Gli incentivi di Musk
Il commentatore di estrema destra Matt Walsh ritiene che la nuova politica X non sia andata abbastanza lontano. “Perché non sospendere chiunque condivida contenuti IA senza rivelare che si tratta di IA?” ha chiesto Walsh in un tweet Martedì.
La risposta è probabile perché Musk immagina un mondo in cui tutto ciò che i consumatori guardano su X è generato dall’intelligenza artificiale. Il miliardario lo ha detto in numerous discussioni, anche con il podcaster Joe Rogan alla high-quality dell’anno scorso.
“La maggior parte di ciò che le persone consumeranno tra cinque o sei anni, forse prima, saranno solo contenuti generati dall’intelligenza artificiale. Quindi musica, video…” ha detto Musk interrompendosi.
Musk pensa che questa versione del futuro sia ciò che la gente vuole veramente – contenuti falsi che soddisfano i tuoi desideri – perché è così distaccato dall’umanità.
Come ha detto a Joe Rogan: “La maggior parte di ciò che le persone consumeranno tra cinque o sei anni, forse prima, sarà solo contenuto generato dall’intelligenza artificiale. Quindi musica, video…”
— Matt Novak (@paleofuture.bsky.social) 8 novembre 2025 alle 8:27
E che dire degli attori politici che condividono falsi?
Sembra un buon passo per demonetizzare gli account che condividono filmati AI su X che non sono adeguatamente etichettati, anche se è una mossa molto modesta. Ma ciò non farà altro che disincentivare gli utenti che condividono perché stanno cercando di accumulare visualizzazioni a scopo di lucro.
Che dire degli account condivisi per ragioni numerous, come cercare di influenzare l’opinione pubblica o i mercati delle scommesse al di fuori del controllo di X? O se condividessero solo per fare cazzate? Perché nell’period dell’intelligenza artificiale non ci sono praticamente ostacoli alla creazione di una scorta infinita di contenuti falsi, come Bier sembra aver riconosciuto martedì.
“Durante i tempi di guerra, è fondamentale che le persone abbiano accesso a informazioni autentiche sul campo. Con le tecnologie di intelligenza artificiale di oggi, è banale creare contenuti che possano fuorviare le persone”, ha twittato Bier.
X non ha risposto alle domande inviate through e mail martedì, il che non è una sorpresa. L’azienda ha una storia di ostilità nei confronti dei giornalisti da quando Musk ha acquistato Twitter. Gizmodo aggiornerà questo articolo se riceveremo risposta.












