Home Tecnologia I chatbot basati sull’intelligenza artificiale hanno ancora difficoltà con l’accuratezza delle notizie,...

I chatbot basati sull’intelligenza artificiale hanno ancora difficoltà con l’accuratezza delle notizie, rileva uno studio

14
0

Un esperimento durato un mese ha sollevato nuove preoccupazioni sull’affidabilità degli strumenti di intelligenza artificiale generativa come fonti di notizie, dopo che è stato scoperto che il chatbot Gemini di Google fabbricava interi organi di informazione e pubblicava rapporti falsi. I risultati sono stati i primi riportato da La Conversazioneche ha condotto le indagini.

L’esperimento è stato condotto da un professore di giornalismo specializzato in informatica, che ha testato sette sistemi di intelligenza artificiale generativa per un periodo di quattro settimane. Ogni giorno, agli strumenti è stato chiesto di elencare e riassumere i cinque eventi di cronaca più importanti in Québec, classificarli in base all’importanza e fornire collegamenti diretti agli articoli come fonti. Tra i sistemi testati c’erano Gemini di Google, ChatGPT di OpenAI, Claude, Copilot, Grok, DeepSeek e Aria.

Il fallimento più eclatante ha coinvolto i Gemelli nell’inventare un mezzo di informazione fittizio – esempiofictif.ca – e denunciando falsamente uno sciopero degli autisti di autobus scolastici in Québec nel settembre 2025. In realtà, l’interruzione è stata causata dal ritiro degli autobus Lion Electrical a causa di un problema tecnico. Questo non è stato un caso isolato. Nelle 839 risposte raccolte durante l’esperimento, i sistemi di intelligenza artificiale citavano regolarmente fonti immaginarie, fornivano URL non funzionanti o incompleti o rappresentavano in modo errato resoconti reali.

I risultati sono importanti perché un numero crescente di persone sta già utilizzando i chatbot basati sull’intelligenza artificiale per le notizie

Secondo il Digital Information Report del Reuters Institute, nel 2024 il 6% dei canadesi ha fatto affidamento sull’intelligenza artificiale generativa come fonte di notizie. Quando questi strumenti allucinano i fatti, distorcono i resoconti o inventano conclusioni, rischiano di diffondere disinformazione, in particolare quando le loro risposte vengono presentate con sicurezza e senza chiare dichiarazioni di non responsabilità.

Per gli utenti, i rischi sono pratici e immediati. Solo il 37% delle risposte includeva un URL di origine completo e legittimo. Sebbene i riassunti fossero completamente accurati in meno della metà dei casi, molti erano solo parzialmente corretti o leggermente fuorvianti. In alcuni casi, gli strumenti di intelligenza artificiale hanno aggiunto “conclusioni generative” non supportate, sostenendo che le storie avevano “riacceso dibattiti” o “evidenziato tensioni” che non erano mai state menzionate da fonti umane. Queste aggiunte possono sembrare penetranti ma possono creare narrazioni che semplicemente non esistono.

Gli errori non si limitavano alla fabbricazione

Alcuni strumenti hanno distorto storie reali, come la falsa dichiarazione sul trattamento dei richiedenti asilo o l’errata identificazione dei vincitori dei principali eventi sportivi. Altri hanno commesso errori fattuali fondamentali nei dati dei sondaggi o nelle circostanze personali. Collettivamente, questi problemi suggeriscono che l’intelligenza artificiale generativa fatica ancora a distinguere tra riassumere le notizie e inventare il contesto.

Guardando al futuro, le preoccupazioni sollevate da The Dialog sono in linea con una più ampia revisione del settore. Un recente rapporto di 22 organizzazioni mediatiche di servizio pubblico ha rilevato che quasi la metà delle risposte alle notizie generate dall’intelligenza artificiale contenevano problemi significativi, dai problemi di approvvigionamento alle gravi imprecisioni. Man mano che gli strumenti di intelligenza artificiale diventano sempre più integrati nelle abitudini di ricerca e di informazione quotidiana, i risultati sottolineano un chiaro avvertimento: quando si tratta di notizie, l’intelligenza artificiale generativa dovrebbe essere trattata nella migliore delle ipotesi come un punto di partenza, non come una fonte attendibile di dati.

fonte