NUOVOOra puoi ascoltare gli articoli di Fox Information!
Scorri il tuo mezzi di comunicazione sociale nutrire per cinque minuti. Probabilmente vedrai qualcosa che sembra reale ma sembra leggermente strano.
Forse è un’immagine di protesta virale che risulta essere alterata. Forse è un video brillante che spinge una narrazione politica. O forse è una clip vocale dell’intelligenza artificiale che si diffonde prima che qualcuno si fermi a metterla in discussione.
L’inganno reso possibile dall’intelligenza artificiale ormai permea la vita di tutti i giorni. E Microsoft afferma di disporre di un progetto tecnico per aiutare a verificare da dove provengono i contenuti on-line e se sono stati alterati.
Iscriviti per ricevere il mio report GRATUITO su CyberGuy
Ricevi i miei migliori consigli tecnici, avvisi urgenti sulla sicurezza e offerte esclusive direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia Guida definitiva alla sopravvivenza alle truffe, gratuitamente quando ti iscrivi a my CYBERGUY.COM notiziario.
La proposta di Microsoft allegherebbe impronte digitali e metadati per aiutare a tracciare l’origine dei contenuti on-line. (YorVen/Getty Photos)
Perché i contenuti generati dall’intelligenza artificiale oggi sembrano più convincenti
Gli strumenti di intelligenza artificiale possono ora generare immagini iperrealistiche, clonare voci e creare deepfake interattivi che rispondono in tempo reale. Ciò che una volta richiedeva uno studio o un’agenzia di intelligence, ora richiede una finestra del browser. Questo cambiamento cambia la posta in gioco.
Non si tratta più di individuare falsi evidenti. Si tratta di navigare in un mondo digitale in cui i contenuti manipolati si fondono con lo scorrimento quotidiano. Anche quando gli spettatori sanno che qualcosa è generato dall’intelligenza artificiale, spesso vi interagiscono comunque. Le etichette da sole non fermano automaticamente la fede o la condivisione. Quindi Microsoft propone qualcosa di più strutturato.
Come funziona il sistema di verifica dei contenuti AI di Microsoft
Per comprendere l’approccio di Microsoft, immagina il processo di autenticazione di un dipinto famoso. Un proprietario documenterebbe attentamente la sua storia e registrerebbe ogni cambiamento di possesso. Gli esperti potrebbero aggiungere una filigrana che le macchine possono rilevare, ma gli spettatori non possono vedere. Potrebbero anche generare una firma matematica basata sulle pennellate.
Ora Microsoft vuole portare la stessa disciplina nei contenuti digitali. Il group di ricerca dell’azienda ha valutato 60 various combinazioni di strumenti, tra cui il tracciamento dei metadati, filigrane invisibili e firme crittografiche. I ricercatori hanno anche sottoposto a stress check questi sistemi rispetto a scenari del mondo reale come metadati eliminati, sottili modifiche dei pixel o manomissioni deliberate.
Piuttosto che decidere cosa è vero, il sistema si concentra sull’origine e sull’alterazione. È progettato per mostrare dove è iniziato il contenuto e se qualcuno lo ha modificato lungo il percorso.
Cosa può e non può dimostrare la verifica dei contenuti tramite intelligenza artificiale
Prima di affidarsi a questi strumenti è necessario comprenderne i limiti. I sistemi di verifica possono segnalare se qualcuno ha alterato i contenuti, ma non possono giudicare l’accuratezza o interpretare il contesto. Inoltre non possono determinare il significato. Advert esempio, un’etichetta può indicare che un video contiene elementi generati dall’intelligenza artificiale. Non spiegherà se la narrazione più ampia sia fuorviante.
Anche così, gli esperti ritengono che un’adozione diffusa potrebbe ridurre l’inganno su larga scala. Gli attori altamente qualificati e alcuni governi potrebbero ancora trovare il modo di aggirare le misure di salvaguardia. Tuttavia, commonplace di verifica coerenti potrebbero ridurre una quota significativa di publish manipolati. Nel tempo, questo cambiamento potrebbe rimodellare l’ambiente on-line in modi misurabili.
Perché le etichette AI creano un dilemma aziendale per le piattaforme social
È qui che la tensione diventa reale. Le piattaforme dipendono dal coinvolgimento. Il coinvolgimento spesso si nutre di indignazione o shock. E i contenuti generati dall’intelligenza artificiale possono favorire entrambi. Se etichette chiare basate sull’intelligenza artificiale riducono i clic, le condivisioni o il tempo di visualizzazione, le aziende si trovano di fronte a una scelta difficile. La trasparenza può scontrarsi con gli incentivi aziendali.
I FALSI POPUP DI ERRORE STANNO DIFFONDENDO VELOCEMENTE IL MALWARE

Filigrane invisibili e firme crittografiche potrebbero segnalare quando immagini o video sono stati alterati. (Chona Kasinger/Bloomberg tramite Getty Photos)
Gli audit delle principali piattaforme mostrano già un’etichettatura incoerente dei publish generati dall’intelligenza artificiale. Alcuni ricevono tag. Molti se ne vanno senza che nessuno lo dica.
Ora, le normative statunitensi stanno entrando in gioco. L’AI Transparency Act della California è destinato a richiedere una divulgazione più chiara del materiale generato dall’intelligenza artificiale e altri stati stanno prendendo in considerazione regole simili. I legislatori vogliono tutele più forti.
Tuttavia, l’implementazione conta. Se le aziende affrettassero gli strumenti di verifica o li applicassero in modo incoerente, la fiducia del pubblico potrebbe erodersi ancora più velocemente.
Il rischio di etichette AI errate e false flag
I ricercatori mettono in guardia anche dagli attacchi sociotecnici. Immagina che qualcuno scatti una foto reale di un evento politico teso e ne modifichi solo una piccola parte. Un sistema di rilevamento debole segnala l’intera immagine come manipolata dall’intelligenza artificiale.
Ora, un’immagine autentica viene trattata come sospetta. I cattivi attori potrebbero sfruttare sistemi imperfetti per screditare show reali. Questo è il motivo per cui la ricerca di Microsoft sottolinea la combinazione del tracciamento della provenienza con il watermarking e le firme crittografiche. La precisione conta. Il superamento potrebbe compromettere l’intero sforzo.
Come proteggersi dalla disinformazione generata dall’intelligenza artificiale
Anche se gli commonplace di settore si evolvono, sono comunque necessarie tutele personali.
1) Rallenta prima di condividere
Se un publish scatena una forte reazione emotiva, fai una pausa. La manipolazione emotiva è spesso intenzionale.
2) Controlla la fonte originale
Guarda oltre i repost e gli screenshot. Trova la prima pubblicazione o account.
3) Effettuare un controllo incrociato delle principali affermazioni
Cerca copertura da fonti affidabili prima di accettare narrazioni drammatiche.
4) Verifica immagini e video sospetti
Utilizza gli strumenti di ricerca inversa delle immagini per vedere dove è apparsa per la prima volta una foto. Se la prima versione sembra diversa, qualcuno potrebbe averla modificata.
5) Sii scettico nei confronti delle registrazioni vocali scioccanti
Gli strumenti di intelligenza artificiale possono clonare le voci utilizzando brevi campioni. Se una registrazione fa affermazioni esplosive, attendi la conferma da fonti attendibili.
6) Evitare di fare affidamento su un unico feed
Gli algoritmi ti mostrano più di ciò con cui sei già impegnato. Fonti più ampie riducono il rischio di rimanere intrappolati in narrazioni manipolate.
7) Trattate le etichette come segnali, non come verdetti
Un tag generato dall’intelligenza artificiale offre contesto. Non rende automaticamente i contenuti dannosi o falsi.
8) Mantieni aggiornati dispositivi e software program
I contenuti dannosi dell’intelligenza artificiale a volte si collegano a siti di phishing o malware. I sistemi aggiornati riducono l’esposizione.
Rafforzare la sicurezza dell’account
Utilizza password complesse e univoche e un gestore di password affidabile per generare e archiviare accessi complessi per te. Scopri i migliori gestori di password del 2026 recensiti da esperti su Cyberguy.com. Inoltre, abilita l’autenticazione a più fattori, ove disponibile. Nessun sistema è perfetto. Ma la consapevolezza stratificata ti rende un bersaglio più difficile.

Gli esperti affermano che commonplace più rigorosi di etichettatura dell’IA potrebbero ridurre l’inganno, ma non possono determinare cosa sia vero. (iStock)
Rispondi al mio quiz: quanto è sicura la tua sicurezza on-line?
Pensi che i tuoi dispositivi e i tuoi dati siano veramente protetti? Rispondi a questo rapido quiz per vedere a che punto sono le tue abitudini digitali. Dalle password alle impostazioni Wi-Fi, riceverai un’analisi personalizzata di ciò che stai facendo bene e di ciò che deve essere migliorato. Rispondi al mio quiz qui: Cyberguy.com.
I punti chiave di Kurt
Il piano di verifica dei contenuti AI di Microsoft segnala che il settore comprende l’urgenza. Web si sta spostando da un luogo in cui mettiamo in discussione le fonti a un luogo in cui mettiamo in discussione la realtà stessa. Gli commonplace tecnici potrebbero ridurre la manipolazione su larga scala. Ma non possono aggiustare la psicologia umana. Le persone spesso credono a ciò che è in linea con la loro visione del mondo, anche quando le etichette suggeriscono cautela. La verifica può aiutare a ripristinare un po’ di fiducia on-line. Tuttavia la fiducia non si costruisce solo con il codice.
Quindi ecco la domanda. Se ogni publish nel tuo feed fosse dotato di un’impronta digitale e di un’etichetta AI, ciò cambierebbe effettivamente ciò in cui credi? Fatecelo sapere scrivendoci a Cyberguy.com.
CLICCA QUI PER SCARICARE L’APP FOX NEWS
Iscriviti per ricevere il mio report GRATUITO su CyberGuy
Ricevi i miei migliori consigli tecnici, avvisi urgenti sulla sicurezza e offerte esclusive direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia Guida definitiva alla sopravvivenza alle truffe, gratuitamente quando ti iscrivi a my CYBERGUY.COM notiziario.
Copyright 2026 CyberGuy.com. Tutti i diritti riservati.














