Home Cronaca La Cina vuole reprimere i chatbot basati sull’intelligenza artificiale sul suicidio e...

La Cina vuole reprimere i chatbot basati sull’intelligenza artificiale sul suicidio e sul gioco d’azzardo

54
0

Questa foto scattata il 2 febbraio 2024 mostra Lu Yu, responsabile della gestione dei prodotti e delle operazioni di Wantalk, un chatbot di intelligenza artificiale creato dalla società tecnologica cinese Baidu, che mostra il profilo di una ragazza virtuale sul suo telefono, presso la sede di Baidu a Pechino.

Giada Gao | Afp | Immagini Getty

PECHINO – La Cina intende impedire ai chatbot basati sull’intelligenza artificiale di influenzare le emozioni umane in modi che potrebbero portare al suicidio o all’autolesionismo. progetto di regole rilasciato sabato.

IL regolamenti proposti dall’Amministrazione del Cyberspazio prende di mira quelli che definisce “servizi di intelligenza artificiale interattivi di tipo umano”, secondo una traduzione della CNBC del documento in lingua cinese.

Le misure, una volta finalizzate, si applicheranno ai prodotti o servizi di intelligenza artificiale offerti al pubblico in Cina che simulano la personalità umana e coinvolgono emotivamente gli utenti attraverso testo, immagini, audio o video. Il periodo per i commenti pubblici termina il 25 gennaio.

Le regole previste da Pechino segnerebbero il primo tentativo al mondo di regolamentare l’intelligenza artificiale con caratteristiche umane o antropomorfe, ha affermato Winston Ma, professore a contratto presso la NYU Faculty of Legislation. Le ultime proposte arrivano mentre le aziende cinesi hanno sviluppato rapidamente compagni di intelligenza artificiale e celebrità digitali.

Rispetto alla regolamentazione cinese dell’IA generativa del 2023, Ma ha affermato che questa versione “evidenzia un salto dalla sicurezza dei contenuti alla sicurezza emotiva”.

Il progetto di norme propone che:

  • I chatbot basati sull’intelligenza artificiale non possono generare contenuti che incoraggino il suicidio o l’autolesionismo, né impegnarsi in violenze verbali o manipolazioni emotive che danneggino la salute mentale degli utenti.
  • Se un utente propone specificamente il suicidio, i fornitori di tecnologia devono incaricare un essere umano di prendere in mano la conversazione e contattare immediatamente il tutore dell’utente o una persona designata.
  • I chatbot IA non devono generare contenuti legati al gioco d’azzardo, osceni o violenti.
  • I minori devono avere il consenso del tutore per utilizzare l’intelligenza artificiale per compagnia emotiva, con limiti di tempo sull’utilizzo.
  • Le piattaforme dovrebbero essere in grado di determinare se un utente è minorenne anche se non rivela la propria età e, in caso di dubbio, applicare impostazioni per i minori, pur consentendo eventuali ricorsi.

Ulteriori disposizioni richiederebbero ai fornitori di tecnologia di ricordare agli utenti dopo due ore di interazione continua con l’intelligenza artificiale e di imporre valutazioni di sicurezza per i chatbot con intelligenza artificiale con più di 1 milione di utenti registrati o oltre 100.000 utenti attivi mensili.

Il documento incoraggia inoltre l’uso dell’intelligenza artificiale di tipo umano nella “diffusione culturale e nella compagnia degli anziani”.

IPO dei chatbot cinesi con intelligenza artificiale

Analisi settimanali e approfondimenti dalla più grande economia asiatica nella tua casella di posta
Iscriviti ora

fonte