Home Tecnologia La Cina sta elaborando la prima normativa di questo tipo sulla sicurezza...

La Cina sta elaborando la prima normativa di questo tipo sulla sicurezza emotiva per l’intelligenza artificiale

97
0

La Cina sta elaborando nuove e più extreme normative sull’intelligenza artificiale che potrebbero mettere il Paese sulla buona strada per diventare il primo a regolamentare le ripercussioni emotive dei compagni chatbot.

VEDI ANCHE:

ChatGPT sta cambiando il panorama dell’aborto

Dettagliato in una nuova bozza di proposta scritta dall’amministrazione cinese del cyberspazio e tradotto dalla CNBCla politica richiederebbe il consenso del tutore affinché i minori possano interagire con compagni di chatbot, nonché una verifica approfondita dell’età. Ai chatbot con intelligenza artificiale non sarebbe consentito generare contenuti legati al gioco d’azzardo, osceni o violenti, né impegnarsi in conversazioni su suicidio, autolesionismo o altri argomenti che potrebbero danneggiare la salute mentale di un utente. Inoltre, i “fornitori” di tecnologia devono istituire protocolli di escalation che colleghino i moderatori umani agli utenti in difficoltà e segnalino le conversazioni rischiose ai tutori.

Le autorità di regolamentazione cinesi affermano che l’obiettivo è quello di concentrarsi non solo sulla sicurezza dei contenuti ma anche sulla sicurezza emotiva, compreso il monitoraggio delle chat per la dipendenza emotiva e la dipendenza.

Velocità della luce mashable

Si tratta di una delle prime leggi progettate per controllare specificamente gli strumenti di intelligenza artificiale antropomorfa, dicono gli esperti. A tal effective, le regole si applicheranno a qualsiasi strumento di intelligenza artificiale progettato per “simulare la personalità umana e coinvolgere emotivamente gli utenti attraverso testo, immagini, audio o video”, riferisce la CNBC.

VEDI ANCHE:

Fai in modo che il 2026 sia l’anno in cui tuo figlio spegnerà il suo dispositivo

Le norme proposte dalla Cina rispecchiano numerous disposizioni contenute in una legge sull’intelligenza artificiale della California recentemente approvata, nota come SB 243, firmata dal governatore Gavin Newsom in ottobre. La legge richiede restrizioni più forti sui contenuti, promemoria per gli utenti che stanno parlando con un’intelligenza artificiale non umana, nonché protocolli di emergenza per le discussioni sul suicidio. Alcuni esperti hanno criticato il disegno di legge perché non è andato abbastanza lontano per proteggere gli utenti minori, lasciando spazio alle aziende tecnologiche per eludere la supervisione.

Nel frattempo, l’amministrazione Trump ha bloccato l’ulteriore regolamentazione dell’IA a livello statale a favore di un “quadro nazionale sulla sicurezza dell’IA”. L’ordine esecutivo trattiene i finanziamenti federali per le infrastrutture agli stati che rafforzano la supervisione dell’IA. I chief federali sostengono che una maggiore regolamentazione dell’intelligenza artificiale bloccherà l’innovazione interna e metterà gli Stati Uniti dietro la Cina nella percepita corsa globale all’intelligenza artificiale.

fonte