Home Tecnologia Bozza di regole cinesi sull’intelligenza artificiale che delineano i “valori socialisti fondamentali”...

Bozza di regole cinesi sull’intelligenza artificiale che delineano i “valori socialisti fondamentali” per i simulatori di personalità umana basati sull’intelligenza artificiale

46
0

Come riportato per la prima volta da Bloombergla Commissione centrale cinese per gli affari del cyberspazio ha pubblicato sabato un documento che delinea regole proposte per i sistemi di IA antropomorfi. La proposta prevede una sollecitazione di commenti da parte del pubblico entro il 25 gennaio 2026.

Le regole sono scritte in termini generali, non legali. Hanno chiaramente lo scopo di comprendere i chatbot, anche se questo non è un termine utilizzato nel documento, e il documento sembra anche più ampio nel suo ambito rispetto alle semplici regole per i chatbot. Copre comportamenti e valori generali per i prodotti di intelligenza artificiale che interagiscono emotivamente con le persone utilizzando simulazioni di personalità umane fornite tramite “testo, immagini, audio o video”.

I prodotti in questione dovrebbero essere allineati ai “valori socialisti fondamentali”, afferma il documento.

Gizmodo ha tradotto il documento in inglese con Google Gemini. Gemini e Bloomberg hanno entrambi tradotto la frase “社会主义核心价值观” come “valori socialisti fondamentali”.

Secondo queste regole, tali sistemi dovrebbero identificarsi chiaramente come IA e gli utenti devono essere in grado di cancellare la propria cronologia. I dati delle persone non verrebbero utilizzati per addestrare modelli senza consenso.

Il documento propone di vietare alle personalità dell’IA di:

  • Mettere in pericolo la sicurezza nazionale, diffondere voci e incitare quelle che definisce “attività religiose illegali”.
  • Diffondere oscenità, violenza o criminalità
  • Produrre diffamazioni e insulti
  • False promesse o materiale che danneggia le relazioni
  • Incoraggiare l’autolesionismo e il suicidio
  • Manipolazione emotiva che persuade le persone a prendere decisioni sbagliate
  • E sollecitare informazioni sensibili

Ai fornitori non sarebbe consentito creare chatbot che creano intenzionalmente dipendenza o sistemi destinati a sostituire le relazioni umane. Altrove, le regole proposte dicono che deve esserci un pop-up allo scoccare delle due ore per ricordare agli utenti di fare una pausa in caso di utilizzo della maratona.

Questi prodotti devono anche essere progettati per captare stati emotivi intensi e affidare la conversazione a un essere umano se l’utente minaccia di autolesionismo o suicidio.

fonte