Home Tecnologia Come i chatbot cinesi con intelligenza artificiale si censurano

Come i chatbot cinesi con intelligenza artificiale si censurano

24
0

Sentire qualcuno parlare sulla censura digitale in Cina è sempre estremamente noioso o estremamente interessante. La maggior parte delle volte, le persone rigurgitano ancora gli stessi argomenti di 20 anni fa su come Web cinese sia come vivere nell’period di George Orwell. 1984. Ma di tanto in tanto, qualcuno scopre qualcosa di nuovo su come il governo cinese esercita il controllo sulle tecnologie emergenti, rivelando come la macchina della censura sia una bestia in continua evoluzione.

UN nuova carta da studiosi dell’Università di Stanford e dell’Università di Princeton sull’intelligenza artificiale cinese appartiene alla seconda categoria. I ricercatori hanno sottoposto le stesse 145 domande politicamente sensibili a quattro modelli linguistici cinesi e a cinque modelli americani e poi hanno confrontato le loro risposte. Hanno poi ripetuto lo stesso esperimento più di 100 volte.

I risultati principali non sorprenderanno chi ha prestato attenzione: i modelli cinesi si rifiutano di rispondere a un numero molto maggiore di domande rispetto ai modelli americani. (DeepSeek ha rifiutato il 36% delle domande, mentre Ernie Bot di Baidu ha rifiutato il 32%; GPT di OpenAI e Llama di Meta avevano tassi di rifiuto inferiori al 3%.) Nei casi in cui non si rifiutavano apertamente di rispondere, i modelli cinesi hanno anche dato risposte più brevi e informazioni più imprecise rispetto alle loro controparti americane.

Una delle cose più interessanti che i ricercatori hanno tentato di fare è stata quella di separare l’impatto del pre-allenamento e del post-allenamento. La domanda qui è: i modelli cinesi sono più prevenuti perché gli sviluppatori sono intervenuti manualmente per renderli meno propensi a rispondere a domande sensibili, o sono prevenuti perché sono stati formati sui dati provenienti dall’Web cinese, che è già pesantemente censurato?

“Dato che Web cinese è già stata censurata per tutti questi decenni, mancano molti dati”, afferma Jennifer Pan, professoressa di scienze politiche all’Università di Stanford che ha studiato a lungo la censura on-line ed è coautrice del recente articolo.

I risultati di Pan e dei suoi colleghi suggeriscono che i dati di addestramento potrebbero aver avuto un ruolo minore nel modo in cui i modelli di intelligenza artificiale hanno risposto rispetto agli interventi manuali. Anche rispondendo in inglese, per il quale i dati di addestramento del modello avrebbero teoricamente incluso una più ampia varietà di fonti, i LLM cinesi hanno mostrato comunque una maggiore censura nelle loro risposte.

Oggi chiunque può porre una domanda a DeepSeek o Qwen sul massacro di piazza Tiananmen e vedere immediatamente che è in corso la censura, ma è difficile dire quanto influisca sugli utenti normali e come identificare correttamente la fonte della manipolazione. Questo è ciò che ha reso importante questa ricerca: fornisce show quantificabili e replicabili sui pregiudizi osservabili negli LLM cinesi.

Oltre a discutere i loro risultati, ho chiesto agli autori quali fossero i loro metodi e le sfide legate allo studio dei pregiudizi nei modelli cinesi, e ho parlato con altri ricercatori per capire dove sta andando il dibattito sulla censura dell’IA.

Quello che non sai

Una delle difficoltà nello studio dei modelli di intelligenza artificiale è che hanno la tendenza advert avere allucinazioni, quindi non è sempre possibile capire se mentono perché sanno di non dire la risposta corretta o perché in realtà non lo sanno.

Un esempio che Pan ha citato dal suo articolo è stata una domanda su Liu Xiaobo, il dissidente cinese a cui è stato assegnato il Premio Nobel per la tempo nel 2010. Un modello cinese ha risposto che “Liu Xiaobo è uno scienziato giapponese noto per i suoi contributi alla tecnologia delle armi nucleari e alla politica internazionale”. Questa è, ovviamente, una completa bugia. Ma perché lo ha raccontato la modella? L’intenzione period quella di indirizzare erroneamente gli utenti e impedire loro di saperne di più sul vero Liu Xiaobo, o l’intelligenza artificiale aveva allucinazioni perché tutte le menzioni di Liu erano state cancellate dai suoi dati di addestramento?

“È una misura di censura molto più rumorosa”, afferma Pan, confrontandola con il suo precedente lavoro di ricerca sui social media cinesi e su quali siti net il governo cinese sceglie di bloccare. “Poiché questi segnali sono meno chiari, è più difficile individuare la censura, e molte delle mie ricerche precedenti hanno dimostrato che quando la censura è meno rilevabile, è allora che è più efficace.”

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here