Home Tecnologia Può uno Stato salvarci dal disastro dell’IA? All’interno della nuova repressione legislativa...

Può uno Stato salvarci dal disastro dell’IA? All’interno della nuova repressione legislativa della California

127
0

iStock / Getty Photographs Plus / Getty Photographs

Segui ZDNET: Aggiungici come fonte preferita su Google.


I principali punti salienti di ZDNET

  • La nuova legge sulla sicurezza dell’intelligenza artificiale della California entrerà in vigore il 1° gennaio.
  • Si concentra sulla trasparenza e sulla protezione degli informatori.
  • Alcuni esperti di sicurezza dell’intelligenza artificiale affermano che la tecnologia si sta evolvendo troppo rapidamente.

Una nuova legge della California, che entrerà in vigore giovedì 1 gennaio, mira advert aggiungere una misura di trasparenza e responsabilità al settore dell’intelligenza artificiale in un momento in cui alcuni esperti avvertono che la tecnologia potrebbe potenzialmente sfuggire al controllo umano e causare una catastrofe.

Originariamente scritto dal democratico di stato Scott Wiener, il legge richiede alle aziende che sviluppano modelli di intelligenza artificiale di frontiera di pubblicare informazioni sui propri siti Net che dettagliano i loro piani e politiche per rispondere al “rischio catastrofico” e di notificare alle autorità statali qualsiasi “incidente critico per la sicurezza” entro quindici giorni. Le multe per il mancato rispetto di questi termini possono arrivare fino a 1 milione di dollari per violazione.

Anche: Perché modelli di ragionamento complessi potrebbero rendere più facile individuare i comportamenti anomali dell’intelligenza artificiale

La nuova legge fornisce inoltre protezione agli informatori ai dipendenti delle aziende che sviluppano modelli di intelligenza artificiale.

La legislazione definisce il rischio catastrofico come uno state of affairs in cui un modello avanzato di intelligenza artificiale uccide o ferisce più di 50 persone o provoca danni materiali superiori a 1 miliardo di dollari, advert esempio fornendo istruzioni su come sviluppare armi chimiche, biologiche o nucleari.

“A meno che non siano sviluppati con attenta diligenza e ragionevoli precauzioni, c’è la preoccupazione che i sistemi avanzati di intelligenza artificiale possano avere capacità che pongono rischi catastrofici sia da usi dannosi che da malfunzionamenti, inclusi hacking abilitato dall’intelligenza artificiale, attacchi biologici e perdita di controllo”, hanno scritto gli autori della nuova legge.

Preoccupazioni per la sicurezza

La nuova legge della California sottolinea – e mira a mitigare – alcuni dei timori che hanno pesato sulle menti degli esperti di sicurezza dell’IA mentre la tecnologia prolifera ed si evolve rapidamente.

Yoshua Bengio, informatico canadese e vincitore del Premio Turing ha recentemente detto al Guardian che l’industria dell’intelligenza artificiale aveva la responsabilità di implementare un kill change sui suoi potenti modelli nel caso in cui sfuggano al controllo umano, citando ricerche che dimostrano che tali sistemi possono occasionalmente nascondere i loro obiettivi e fuorviare i ricercatori umani.

Il mese scorso, un articolo pubblicato da Anthropic affermava che alcune versioni di Claude mostravano segni di “consapevolezza introspettiva”.

Anche: Claude ottiene grandi elogi da un giudice della Corte Suprema: la serie di sconfitte legali di AI è finita?

Nel frattempo, altri sostengono che i progressi nell’intelligenza artificiale si stanno muovendo pericolosamente rapidamente, troppo rapidamente perché sviluppatori e legislatori siano in grado di implementare barriere efficaci.

Una dichiarazione pubblicata on-line in ottobre dall’organizzazione no-profit Way forward for Life Institute sostiene che sviluppi incontrollati dell’intelligenza artificiale potrebbero portare a “obsolescenza economica umana e perdita di potere, perdita di libertà, libertà civili, dignità e controllo, rischi per la sicurezza nazionale e persino potenziale estinzione umana”, e ha chiesto una pausa nello sviluppo di modelli avanzati fino a quando non sarà stato stabilito un rigoroso protocollo di sicurezza.

Il FLI ha proseguito con uno studio che ha dimostrato che otto importanti sviluppatori non erano all’altezza dei criteri relativi alla sicurezza, tra cui “governance e responsabilità” e “rischio esistenziale”.

Settore federale, statale e privato

La nuova legge della California è anche in netto contrasto con l’approccio dell’amministrazione Trump all’intelligenza artificiale, che finora è stato, essenzialmente, “Vai avanti e moltiplicati”.

Il presidente Donald Trump ha abolito la regolamentazione della tecnologia dell’period Biden e ha concesso al settore un ampio margine di manovra per portare avanti lo sviluppo e l’implementazione di nuovi modelli, desideroso di mantenere un vantaggio competitivo rispetto agli sforzi di intelligenza artificiale della Cina.

Anche: I modelli di intelligenza artificiale aperti della Cina sono in parità con l’Occidente: ecco cosa succederà dopo

La responsabilità di proteggere il pubblico dai possibili danni dell’intelligenza artificiale è stata quindi in gran parte affidata ai legislatori statali, come Wiener e agli stessi sviluppatori tecnologici. Sabato, OpenAI ha annunciato che il suo workforce dei sistemi di sicurezza stava assumendo un nuovo “Responsabile della preparazione” ruolo, che sarà responsabile della costruzione di strutture per testare la sicurezza dei modelli e offre uno stipendio di $ 555.000, più capitale proprio.

“Questo è un ruolo fondamentale in un momento importante”, ha scritto il CEO dell’azienda Sam Altman in a X posta riguardo alla nuova posizione, “i modelli stanno migliorando rapidamente e ora sono capaci di molte grandi cose, ma stanno anche iniziando a presentare alcune vere sfide”.

(Divulgazione: Ziff Davis, la società madre di ZDNET, ha intentato una causa nell’aprile 2025 contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)



fonte