AI pendenza ha infettato ogni piattaforma di social media, da immagini senz’anima A video bizzarri E testo superficialmente letterato. La stragrande maggioranza degli adulti statunitensi che utilizzano i social media (94%) crede di incontrare contenuti creati o modificati dall’intelligenza artificiale, ma solo il 44% degli adulti statunitensi afferma di essere sicuro di poter distinguere foto e video reali da quelli generati dall’intelligenza artificiale, secondo un esclusivo sondaggio CNET. Questo è un grosso problema.
Esistono molti modi diversi in cui le persone combattono contro i contenuti AI. Alcune soluzioni si concentrano su etichette migliori per i contenuti creati dall’intelligenza artificiale, poiché è più difficile che mai fidarsi dei nostri occhi. Dei 2.443 intervistati che utilizzano i social media, la metà (51%) ritiene che siano necessarie migliori etichette per l’intelligenza artificiale on-line. Altri (21%) ritengono che dovrebbe esserci un divieto totale dei contenuti generati dall’intelligenza artificiale sui social media. Solo un piccolo gruppo (11%) di intervistati afferma di trovare i contenuti dell’intelligenza artificiale utili, informativi o divertenti.
L’intelligenza artificiale non andrà da nessuna parte e sta rimodellando radicalmente Web e il nostro rapporto con esso. Il nostro sondaggio mostra che abbiamo ancora molta strada da fare per fare i conti.
Risultati chiave
- La maggior parte degli adulti statunitensi che utilizzano i social media (94%) crede di incontrare contenuti AI sui social media, ma molti meno (44%) riescono a distinguere con sicurezza tra immagini e video reali e falsi.
- Molti adulti statunitensi (72%) affermano di agire per determinare se un’immagine o un video è reale, ma alcuni non fanno nulla, in particolare tra i Boomer (36%) e la Generazione X (29%).
- La metà degli adulti statunitensi (51%) ritiene che i contenuti generati e modificati dall’intelligenza artificiale necessitino di una migliore etichettatura.
- Uno su cinque (21%) ritiene che i contenuti basati sull’intelligenza artificiale dovrebbero essere vietati sui social media, senza eccezioni.
Gli adulti statunitensi non sentono di poter individuare i media dell’intelligenza artificiale
Vedere non è più credere nell’period dell’intelligenza artificiale. Strumenti come OpenAI Sora generatore di video e Google Nanobanana Il modello di immagine può creare media iperrealistici, con i chatbot che assemblano senza problemi porzioni di testo che sembrano scritte da una persona reale.
È quindi comprensibile che un quarto (25%) degli adulti statunitensi affermi di non essere sicuro della propria capacità di distinguere immagini e video reali da quelli generati dall’intelligenza artificiale. Le generazioni più anziane, compresi i Boomer (40%) e la Gen X (28%), sono le meno fiduciose. Se le persone non hanno molta conoscenza o esposizione all’intelligenza artificiale, è probabile che non si sentano sicure della propria capacità di individuare con precisione l’intelligenza artificiale.
Le persone agiscono per verificare i contenuti in diversi modi
La capacità dell’intelligenza artificiale di imitare la vita reale rende ancora più importante verificare ciò che vediamo on-line. Quasi tre adulti statunitensi su quattro (72%) hanno affermato di intraprendere qualche forma di azione per determinare se un’immagine o un video è reale quando suscita i loro sospetti, con la Gen Z che è la fascia d’età più probabile (84%) a farlo. Il metodo più ovvio e popolare è quello di ispezionare attentamente le immagini e i video per individuare segnali visivi o artefatti. Oltre la metà degli adulti statunitensi (60%) lo fa.
Ma l’innovazione dell’intelligenza artificiale è un’arma a doppio taglio; i modelli sono migliorati rapidamente, eliminando gli errori precedenti su cui facevamo affidamento per individuare i contenuti generati dall’intelligenza artificiale. Il trattino non è mai stato un segno affidabile di intelligenza artificiale, ma un tempo le dita further nelle immagini e gli errori di continuità nei video erano importanti segnali di allarme. I modelli di intelligenza artificiale più recenti di solito non commettono questi errori banali. Quindi dobbiamo tutti lavorare un po’ di più per determinare cosa è reale e cosa è falso.
Puoi cercare discrepanze ed etichette per identificare i contenuti AI.
Man mano che gli indicatori visivi dell’intelligenza artificiale scompaiono, altre forme di verifica dei contenuti diventano sempre più importanti. I successivi due metodi più comuni sono il controllo di etichette o informative (30%) e la ricerca di contenuti altrove on-line (25%), advert esempio su siti di notizie o tramite ricerche di immagini inverse. Solo il 5% degli intervistati ha riferito di utilizzare a deepfake strumento di rilevamento o sito Internet.
Ma il 25% degli adulti statunitensi non fa nulla per determinare se il contenuto che vede on-line è reale. Questa mancanza di azione è più alta tra i Boomer (36%) e quelli della Gen X (29%). Ciò è preoccupante: abbiamo già visto che l’intelligenza artificiale è uno strumento efficace per abuso E frode. Comprendere l’origine di un publish o di un contenuto è un primo passo importante per navigare in Web, dove qualsiasi cosa può essere falsificata.
La metà degli adulti statunitensi desidera etichette migliori per l’intelligenza artificiale
Molte persone stanno lavorando a soluzioni per affrontare l’assalto dell’intelligenza artificiale. L’etichettatura rappresenta un’importante space di opportunità. L’etichettatura fa affidamento sugli utenti dei social media per rivelare che il loro publish è stato creato con l’aiuto dell’intelligenza artificiale. Ciò può essere fatto anche dietro le quinte tramite le piattaforme dei social media, ma è un po’ difficile e porta a risultati casuali. Questo è probabilmente il motivo per cui il 51% degli adulti statunitensi ritiene che sia necessaria una migliore etichettatura dei contenuti dell’intelligenza artificiale, compresi i deepfake. Il sostegno è stato più forte tra i Millennial e la Generazione Z, rispettivamente al 56% e al 55%.
Pochissimi (11%) hanno trovato i contenuti dell’IA utili, informativi o divertenti.
Altre soluzioni mirano a controllare il flusso di contenuti AI condivisi sui social media. Tutte le principali piattaforme consentono contenuti generati dall’intelligenza artificiale, purché non violino le loro linee guida generali sui contenuti, advert esempio niente di illegale o offensivo. Ma alcune piattaforme hanno introdotto strumenti per limitare la quantità di contenuti generati dall’intelligenza artificiale che vedi nei tuoi feed; Pinterest è stato lanciato i suoi filtri l’anno scorso, mentre TikTok lo è ancora check alcuni dei suoi. L’thought è quella di dare a ogni persona la possibilità di consentire o escludere dai propri feed i contenuti generati dall’intelligenza artificiale.
Ma il 21% degli intervistati ritiene che i contenuti basati sull’intelligenza artificiale dovrebbero essere vietati del tutto sui social media, senza eccezioni. Questo numero è più alto tra la Gen Z, pari al 25%. Alla domanda se ritenessero che i contenuti basati sull’intelligenza artificiale dovessero essere consentiti ma rigorosamente regolamentati, il 36% ha risposto di sì. Queste percentuali basse possono essere spiegate dal fatto che solo l’11% ritiene che i contenuti dell’intelligenza artificiale forniscano un valore significativo – che siano divertenti, informativi o utili – e che il 28% affermi che forniscono poco o nessun valore.
Come limitare i contenuti AI e individuare potenziali deepfake
La tua migliore difesa contro l’inganno dell’intelligenza artificiale è essere attenti e fidarsi del proprio istinto. Se qualcosa è troppo strano, troppo brillante o troppo bello per essere vero, probabilmente lo è. Ma ci sono altri passaggi che puoi eseguire, come utilizzare uno strumento di rilevamento dei deepfake. Ci sono molte opzioni; Ti consiglio di iniziare con il Iniziativa sull’autenticità dei contenutilo strumento di, poiché funziona con diversi tipi di file.
Puoi anche controllare l’account che ha condiviso il publish per le bandiere rosse. Molte volte, lo slop dell’intelligenza artificiale è condiviso dai produttori di slop di massa e sarai facilmente in grado di vederlo nei loro feed. Saranno pieni di video strani che non sembrano avere alcuna continuità o somiglianza tra loro. Puoi anche verificare se qualcuno che conosci lo sta seguendo o se quell’account non sta seguendo nessun altro (è un segnale di allarme). Anche publish di spam o collegamenti fraudolenti indicano che l’account non è legittimo.
Se desideri limitare i contenuti AI che vedi nei tuoi feed social, consulta le nostre information per disattivare o disattivare l’audio Meta AI su Instagram e Fb e filtraggio Submit dell’intelligenza artificiale su Pinterest. Se incontri uno slop, puoi contrassegnare il publish come qualcosa che non ti interessa, il che dovrebbe indicare all’algoritmo che non vuoi vederne altri simili. Al di fuori dei social media, puoi disabilitare L’intelligenza di Applel’IA dentro Pixel E Galassia telefoni e Gemelli dentro Ricerca Google, Gmail e Documenti.
Anche se fai tutto questo e di tanto in tanto vieni ingannato dall’intelligenza artificiale, non sentirti troppo male per questo. C’è poco che possiamo fare come individui per combattere la marea impetuosa dell’intelligenza artificiale. È probabile che tutti sbagliamo a volte. Fino a quando non avremo un sistema universale per rilevare efficacemente l’intelligenza artificiale, dovremo fare affidamento sugli strumenti di cui disponiamo e sulla nostra capacità di istruirci a vicenda su ciò che possiamo fare ora.
Metodologia
CNET ha incaricato YouGov Plc di condurre il sondaggio. Tutte le cifre, se non diversamente indicato, provengono da YouGov Plc. La dimensione totale del campione period di 2.530 adulti, di cui 2.443 utilizzano i social media. Il lavoro sul campo è stato intrapreso dal 3 al 5 febbraio 2026. Il sondaggio è stato condotto on-line. Le cifre sono state ponderate e sono rappresentative di tutti gli adulti statunitensi (di età superiore ai 18 anni).










