Home Tecnologia Sciami di disinformazione alimentati dall’intelligenza artificiale stanno arrivando per la democrazia

Sciami di disinformazione alimentati dall’intelligenza artificiale stanno arrivando per la democrazia

272
0

“Stiamo entrando in una nuova fase di guerra informativa sulle piattaforme di social media in cui i progressi tecnologici hanno reso obsoleto il classico approccio dei bot”, afferma Jonas Kunst, professore di comunicazione alla BI Norwegian Enterprise College e uno dei coautori del rapporto.

Per gli esperti che hanno trascorso anni a monitorare e combattere le campagne di disinformazione, il documento presenta un futuro terrificante.

“E se l’intelligenza artificiale non fosse solo un’informazione allucinante, ma migliaia di chatbot di intelligenza artificiale lavorassero insieme per dare una parvenza di sostegno dal basso dove non ce n’period? Questo è il futuro immaginato da questo articolo: allevamenti di troll russi sotto l’effetto di steroidi”, afferma Nina Jankowicz, ex zar della disinformazione dell’amministrazione Biden e ora amministratore delegato dell’American Daylight Mission.

I ricercatori affermano che non è chiaro se questa tattica sia già utilizzata perché gli attuali sistemi in atto per tracciare e identificare comportamenti non autentici coordinati non sono in grado di rilevarli.

“A causa della loro sfuggente caratteristica di imitare gli esseri umani, è molto difficile individuarli effettivamente e valutare fino a che punto sono presenti”, afferma Kunst. “Non abbiamo accesso alla maggior parte [social media] piattaforme perché le piattaforme sono diventate sempre più restrittive, quindi è difficile ottenere un’thought approfondita. Tecnicamente è sicuramente possibile. Siamo abbastanza sicuri che sia in fase di take a look at.”

Kunst ha aggiunto che è probabile che questi sistemi abbiano ancora una certa supervisione umana mentre vengono sviluppati e prevede che, sebbene potrebbero non avere un impatto massiccio sulle elezioni di metà mandato degli Stati Uniti del 2026 a novembre, molto probabilmente verranno implementati per interrompere le elezioni presidenziali del 2028.

Gli account indistinguibili dagli umani sulle piattaforme di social media sono solo uno dei problemi. Inoltre, la capacità di mappare i social community su larga scala consentirà, secondo i ricercatori, a coloro che coordinano le campagne di disinformazione di indirizzare gli agenti verso comunità specifiche, garantendo il maggiore impatto.

“Dotati di tali capacità, gli sciami possono posizionarsi per ottenere il massimo impatto e adattare i messaggi alle credenze e agli stimoli culturali di ciascuna comunità, consentendo un focusing on più preciso rispetto a quello delle botnet precedenti”, scrivono.

Tali sistemi potrebbero essenzialmente auto-migliorarsi, utilizzando le risposte ai loro submit come suggestions per migliorare il ragionamento al effective di trasmettere meglio un messaggio. “Con segnali sufficienti, potrebbero eseguire milioni di take a look at microA/B, propagare le varianti vincenti alla velocità della macchina e iterare molto più velocemente degli esseri umani”, scrivono i ricercatori.

Per combattere la minaccia posta dagli sciami di intelligenza artificiale, i ricercatori suggeriscono l’istituzione di un “Osservatorio sull’influenza dell’intelligenza artificiale”, composto da persone provenienti da gruppi accademici e organizzazioni non governative che lavorano per “standardizzare le show, migliorare la consapevolezza situazionale e consentire una risposta collettiva più rapida piuttosto che imporre sanzioni reputazionali dall’alto verso il basso”.

Un gruppo non incluso è quello dei dirigenti delle stesse piattaforme di social media, principalmente perché i ricercatori ritengono che le loro aziende incentivano l’impegno rispetto a tutto il resto, e quindi hanno pochi incentivi a identificare questi sciami.

“Diciamo che gli sciami di intelligenza artificiale diventano così frequenti che non puoi fidarti di nessuno e le persone abbandonano la piattaforma”, afferma Kunst. “Certo, questo mette a rischio il modello. Se si limitassero advert aumentare il coinvolgimento, per una piattaforma è meglio non rivelarlo, perché sembra che ci sia più coinvolgimento, più pubblicità viste, questo sarebbe positivo per la valutazione di una certa azienda.”

Oltre alla mancanza di azione da parte delle piattaforme, gli esperti ritengono che ci siano pochi incentivi a coinvolgere i governi. “L’attuale panorama geopolitico potrebbe non essere favorevole agli ‘Osservatori’ che monitorano essenzialmente le discussioni on-line”, afferma Olejnik. Jankowicz è d’accordo: “La cosa più spaventosa di questo futuro è che c’è pochissima volontà politica di affrontare i danni creati dall’intelligenza artificiale, il che significa [AI swarms] potrebbe presto diventare realtà”.

fonte