Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- Sono in vigore due principali leggi statali sull’IA poiché la regolamentazione federale sull’IA rimane poco chiara.
- Trump ha rinnovato gli attacchi alla legislazione statale sull’intelligenza artificiale.
- I ricercatori sono ancora insoddisfatti delle leggi attuali.
Siamo a poche settimane dall’inizio del 2026 e l’amministrazione Trump deve ancora proporre una legislazione sull’IA a livello federale.
Allo stesso tempo, sono entrate in vigore leggi sulla sicurezza dell’intelligenza artificiale, prime nel loro genere in California e New York, entrambi stati ben posizionati per influenzare le aziende tecnologiche. Ma un ordine esecutivo di dicembre e la conseguente activity pressure hanno rinnovato gli attacchi alle leggi statali sull’IA. Cosa significano in pratica le nuove leggi e possono sopravvivere al controllo a livello federale?
Inoltre: 5 modi in cui norme e regolamenti possono aiutarti a guidare la tua innovazione nell’intelligenza artificiale
SB-53 e la legge RAISE
California SB-53la nuova legge sulla sicurezza dell’intelligenza artificiale entrata in vigore il 1° gennaio, impone agli sviluppatori di modelli di pubblicizzare come attenueranno i maggiori rischi posti dall’intelligenza artificiale e di riferire sugli incidenti di sicurezza che coinvolgono i loro modelli (o incorrere in multe fino a 1 milione di dollari se non lo fanno). Sebbene non sia così approfondita come la legislazione statale precedentemente tentata, la nuova legge è praticamente l’unica in un panorama di IA altamente non regolamentato. Più recentemente, si è unito a Legge SOLLEVAMENTOapprovata a New York alla high-quality di dicembre, che è simile alla legge della California.
Il RAISE Act, in confronto, stabilisce anche i requisiti di segnalazione per gli incidenti di sicurezza che coinvolgono modelli di tutte le dimensioni, ma prevede una soglia di multa massima di 3 milioni di dollari dopo la prima violazione da parte di un’azienda. Mentre l’SB 53 impone alle aziende di notificare allo Stato un incidente di sicurezza entro 15 giorni, RAISE richiede la notifica entro 72 ore.
Inoltre: l’atto di bilanciamento dell’intelligenza artificiale che la tua azienda non può permettersi di armeggiare nel 2026
L’SB 1047, una versione precedente dell’SB 53, avrebbe richiesto ai laboratori di intelligenza artificiale di testare modelli di sicurezza che costavano oltre 100 milioni di dollari e di sviluppare un meccanismo di spegnimento, o kill change, per controllarli nel caso si fossero comportati male. Quel disegno di legge è fallito di fronte alle argomentazioni secondo cui avrebbe soffocato la creazione di posti di lavoro e l’innovazione, una risposta comune agli sforzi di regolamentazione, soprattutto da parte dell’attuale amministrazione.
SB 53 utilizza una mano più leggera. Come il RAISE Act, si rivolge alle aziende con un fatturato annuo lordo superiore a 500 milioni di dollari, una soglia che esenta molte startup di intelligenza artificiale più piccole dai requisiti di rendicontazione e documentazione della legge.
“È interessante che ci sia questa soglia di entrate, soprattutto da quando c’è stata l’introduzione di molti modelli di intelligenza artificiale più snelli che possono ancora impegnarsi in molte elaborazioni, ma possono essere implementati da aziende più piccole”, ha detto a ZDNET l’avvocato per la protezione dei dati Lily Li, fondatrice di Metaverse Legislation. Ha osservato che il governatore Gavin Newsom ha posto il veto all’SB-1047, in parte, perché imporrebbe costi che inibiscono la crescita alle aziende più piccole, una preoccupazione ripresa anche dai gruppi di lobbying.
Inoltre: sei preoccupato che l’intelligenza artificiale possa portarti by way of il lavoro remoto? Sei al sicuro per ora, questo studio dimostra
“Penso che sia più motivato politicamente che necessariamente guidato dalle differenze nel potenziale danno o impatto dell’intelligenza artificiale in base alle dimensioni dell’azienda o alla dimensione del modello”, ha affermato a proposito della soglia.
Rispetto a SB-1047, SB-53 si concentra più sulla trasparenza, sulla documentazione e sulla segnalazione che sul danno reale. La legge crea requisiti per barriere attorno ai rischi catastrofici: attacchi informatici, chimici, biologici, radiologici e nucleari, lesioni personali, aggressioni o situazioni in cui gli sviluppatori perdono il controllo di un sistema di intelligenza artificiale.
Rinnovati limiti alla legislazione statale sull’IA
L’attuale amministrazione e le aziende che si oppongono alla regolamentazione sulla sicurezza dell’IA, soprattutto a livello federale, affermano che rallenterebbe lo sviluppo, danneggerebbe i posti di lavoro nel settore tecnologico e cederebbe terreno nella corsa all’IA a paesi come la Cina.
L’11 dicembre, il presidente Trump ha firmato un ordine esecutivo affermando una rinnovata intenzione di centralizzare le leggi sull’intelligenza artificiale a livello federale per garantire che le aziende statunitensi siano “libere di innovare senza una regolamentazione ingombrante”. L’ordinanza sostiene che “un’eccessiva regolamentazione statale ostacola questo imperativo” creando un mosaico di leggi various, alcune delle quali sostiene “sono sempre più responsabili di richiedere alle entità di incorporare pregiudizi ideologici nei modelli”.
Inoltre: il Senato rimuove il divieto sulle normative statali sull’intelligenza artificiale dal disegno di legge fiscale di Trump
Ha inoltre annunciato una activity pressure per il contenzioso sull’intelligenza artificiale per contestare le leggi statali che non sono coerenti con un “quadro politico nazionale minimamente oneroso per l’intelligenza artificiale”. Ciò rinnova il tentativo del Congresso della scorsa property di vietare agli stati di approvare regolamenti sull’intelligenza artificiale per 10 anni, il che avrebbe trattenuto i fondi per la banda larga e le infrastrutture di intelligenza artificiale agli stati che non si fossero conformati. La moratoria è stata sconfitta in maniera schiacciante, preservando temporaneamente il diritto degli Stati di legiferare sull’IA nel loro territorio.
La settimana scorsa, Lo ha riferito CBS News che il Dipartimento di Giustizia stava formando la activity pressure. Una nota interna esaminata da CBS Information afferma che la activity pressure sarà guidata dal procuratore generale degli Stati Uniti Pam Bondi o da un altro incaricato.
Detto questo, Li non si aspetta che la nuova activity pressure abbia un impatto sostanziale sulla regolamentazione statale, almeno in California.
“La activity pressure per il contenzioso sull’intelligenza artificiale si concentrerà sulle leggi che sono incostituzionali ai sensi della clausola del commercio dormiente e del Primo Emendamento, anticipate dalla legge federale o altrimenti illegali”, ha detto a ZDNET. “Il decimo emendamento, tuttavia, riserva esplicitamente i diritti agli stati se non c’è una legge federale, o se non c’è prelazione sulle leggi statali da parte di una legge federale.”
Inoltre: la guerra dell’intelligenza artificiale al lavoro frenetico è un killer della creatività? Cosa dicono gli esperti
Oltre a nuova richiesta di informazioni (RFI) del Heart for AI Requirements and Innovation (CAISI) – ex AI Security Institute – sui rischi per la sicurezza degli agenti di intelligenza artificiale, l’amministrazione non sembra aver offerto un sostituto per le leggi statali.
“I requisiti federali HIPAA consentono agli stati di approvare leggi statali sulla privateness sanitaria più rigorose”, ha affermato Li. “Qui non esiste una legge federale sull’IA che possa prevalere su molte delle leggi statali, e il Congresso ha respinto i precedenti tentativi di aggiungere la prelazione federale sull’IA alla legislazione passata.”
Tutele aggiuntive e limiti
L’SB-53 della California richiede inoltre alle società di intelligenza artificiale di proteggere gli informatori. Ciò ha colpito Li, il quale ha osservato che, a differenza di altre parti della legge, che si rispecchiano nella legge UE e per le quali molte aziende sono quindi già preparate, la protezione degli informatori è unica nel settore tecnologico.
“Non ci sono stati molti casi nel campo dell’intelligenza artificiale, ovviamente, perché è una novità”, ha detto Li. “Penso che questa sia una preoccupazione maggiore per molte aziende tecnologiche, perché c’è così tanto fatturato nel settore tecnologico e non si sa come sarà il mercato. Questo è un altro aspetto di cui le aziende sono preoccupate come parte del processo di licenziamento.”
Ha aggiunto che i requisiti di rendicontazione dell’SB 53 rendono le aziende più preoccupate nella creazione di materiale che potrebbe essere utilizzato in azioni legali collettive.
Inoltre: perché pagherai di più per l’intelligenza artificiale nel 2026 e 3 suggerimenti per risparmiare denaro da provare
Gideon Futerman, associato di progetti speciali presso il Heart for AI Security, non ritiene che l’SB 53 avrà un impatto significativo sulla ricerca sulla sicurezza.
“Ciò non cambierà molto la situazione quotidiana, soprattutto perché la legge UE sull’intelligenza artificiale richiede già queste informazioni”, ha spiegato. “L’SB-53 non impone alcun nuovo onere.”
Nessuna delle due leggi richiede che i laboratori di intelligenza artificiale facciano testare i loro modelli da terze parti, sebbene il RAISE Act di New York imponga controlli annuali da parte di terzi al momento della stesura di questo articolo. Tuttavia, Futerman considera i progressi dell’SB 53.
“Ciò dimostra che la regolamentazione della sicurezza dell’IA è possibile e ha uno slancio politico. La quantità di lavoro reale sulla sicurezza in corso oggi è ancora molto al di sotto di quanto è necessario”, ha affermato. “Le aziende che corrono per costruire un’intelligenza artificiale superintelligente, pur ammettendo che questi sistemi potrebbero comportare rischi a livello di estinzione, non capiscono ancora veramente come funzionano i loro modelli.”
Dove questo lascia la sicurezza dell’IA
“Il livello di regolamentazione dell’SB-53 non è nulla in confronto ai pericoli, ma è un degno primo passo verso la trasparenza e la prima applicazione del rischio catastrofico negli Stati Uniti. Questo è dove avremmo dovuto essere anni fa”, ha detto Futerman.
Indipendentemente dalle normative statali e federali, Li ha affermato che la governance è già diventata una priorità più alta per le società di intelligenza artificiale, guidate dai loro profitti. I clienti aziendali stanno spingendo la responsabilità sugli sviluppatori e gli investitori tengono conto della privateness, della sicurezza informatica e della governance nelle loro decisioni di finanziamento.
Inoltre: 5 modi per far crescere la tua attività con l’intelligenza artificiale, senza mettere da parte i tuoi dipendenti
Tuttavia, ha affermato che molte aziende stanno semplicemente volando sotto il radar delle autorità di regolamentazione finché possono.
“La trasparenza da sola non rende i sistemi sicuri, ma è un primo passo cruciale”, ha affermato Futerman. Spera che la futura legislazione colmi le restanti lacune nella strategia di sicurezza nazionale.
“Ciò embrace il rafforzamento dei controlli sulle esportazioni e il tracciamento dei chip, il miglioramento dell’intelligence sui progetti di intelligenza artificiale di frontiera all’estero e il coordinamento con altre nazioni sulle applicazioni militari dell’intelligenza artificiale per prevenire un’escalation involontaria”, ha aggiunto.










