I giganti della tecnologia come Meta, Google e X stanno investendo molto in strumenti di intelligenza artificiale progettati per rilevare notizie false. Sembra rassicurante, ma secondo un nuovo studio dell’Università di Montréal, questi strumenti presentano alcuni gravi inconvenienti nascosti dietro numeri di precisione che sembrano impressionanti.
Dottorato di ricerca Dorsaf Sallami ha esaminato le fake news sull’intelligenza artificiale sistemi di rilevamento e hanno scoperto che in realtà non verificano nulla. Calcolano le probabilità in base ai dati di addestramento. Consideralo meno come un giornalista che verifica una storia e più come uno specchio che riflette tutto ciò che viene mostrato, compresi gli stessi pregiudizi e punti ciechi.
Secondo Dorsaf Sallami, un sistema che ottiene un punteggio di precisione del 95% in un ambiente di laboratorio può ancora fallire nel mondo reale, e questo divario è un problema serio.
Il problema dei pregiudizi di cui nessuno parla
Al di là della precisione, Sallami ha scoperto che molti di questi sistemi portano con sé pregiudizi incorporati che passano in gran parte inosservati. Alcuni modelli hanno maggiori probabilità di segnalare le donne come fonti di disinformazione. Altri sono prevenuti nei confronti delle fonti non occidentali o riproducono pregiudizi politici.
C’è anche un problema più profondo riguardo al modo in cui questi sistemi vengono addestrati. Fanno affidamento su etichette di organizzazioni di controllo dei fatti, molte delle quali mancano di trasparenza e alcune delle quali sono attività a scopo di lucro. L’intero sistema è costruito su fondamenta traballanti.
A ciò si aggiunge l’ascesa di strumenti come ChatGPT che rendono i contenuti falsi più facili che mai da produrre, e i sistemi di rilevamento addestrati anche solo pochi mesi fa possono rapidamente diventare obsoleti.
Un approccio migliore
La soluzione di Sallami è Aletheia, un’estensione del browser che spiega perché il contenuto potrebbe essere sospetto invece di limitarsi a dire se è vero o falso. Nei take a look at, ha raggiunto un’affidabilità dell’85%, superando molti strumenti esistenti. Ciò che lo rende diverso è la sua filosofia. Invece di emetterti un verdetto e aspettarti che tu ti fidi di esso, Aletheia mostra il suo lavoro.
Estrae show da fonti on-line disponibili, le presenta in un linguaggio semplice e consente agli utenti di prendere la decisione finale. Embrace anche un feed dwell dei recenti reality examine e un discussion board della neighborhood in cui gli utenti possono condividere e discutere i risultati. La conclusione è semplice: l’intelligenza artificiale dovrebbe assistere il tuo giudizio, non sostituirlo.













