Home Cronaca Anthropic fa causa all’amministrazione Trump cercando di annullare la designazione di “rischio...

Anthropic fa causa all’amministrazione Trump cercando di annullare la designazione di “rischio della catena di fornitura”.

15
0

Il segretario alla Difesa Pete Hegseth e altri funzionari hanno insistito pubblicamente che Anthropic dovesse accettare “tutti gli usi leciti” di Claude e hanno minacciato di essere puniti se Anthropic non si fosse conformato. File | Credito fotografico: Reuters

Anthropic ha citato in giudizio l’amministrazione Trump, chiedendo ai tribunali federali di annullare la decisione del Pentagono di designare la società di intelligenza artificiale come un “rischio nella catena di fornitura” per il suo rifiuto di consentire l’uso militare illimitato della sua tecnologia.

Anthropic ha intentato due trigger legali separate lunedì (9 marzo 2026), una presso il tribunale federale della California e un’altra presso la corte d’appello federale di Washington, DC, ciascuna contestando diversi aspetti delle azioni del Pentagono contro la società.

Editoriale | Bullismo contro Anthropic: la società di intelligenza artificiale Anthropic contro il governo degli Stati Uniti

La scorsa settimana il Pentagono ha formalmente designato l’azienda tecnologica di San Francisco come un rischio per la catena di fornitura dopo un’insolita disputa pubblica su come il suo chatbot AI Claude potrebbe essere utilizzato in guerra.

“Queste azioni sono senza precedenti e illegali”, afferma la causa di Anthropic. “La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua libertà di parola protetta. Nessuno statuto federale autorizza le azioni intraprese in questo caso. Anthropic si rivolge alla magistratura come ultima risorsa per rivendicare i propri diritti e fermare l’illegale campagna di ritorsione dell’esecutivo.”

Il Dipartimento della Difesa ha rifiutato di commentare lunedì (9 marzo 2026), citando una politica di non commentare le questioni in corso.

Anthropic ha affermato di voler limitare l’utilizzo della sua tecnologia per due usi di alto livello: sorveglianza di massa degli americani e armi completamente autonome. Il segretario alla Difesa Pete Hegseth e altri funzionari hanno insistito pubblicamente affinché la società accettasse “tutti gli usi leciti” di Claude e hanno minacciato sanzioni se Anthropic non si fosse conformata.

Designare l’azienda come un rischio legato alla catena di fornitura interrompe il lavoro di difesa di Anthropic utilizzando un’autorità progettata per impedire agli avversari stranieri di danneggiare i sistemi di sicurezza nazionale. Period la prima volta che si sapeva che il governo federale utilizzava la designazione contro una società statunitense.

Il presidente degli Stati Uniti Donald Trump ha anche detto che ordinerà alle agenzie federali di smettere di usare Claude, anche se ha concesso al Pentagono sei mesi per eliminare gradualmente un prodotto che è profondamente radicato nei sistemi militari classificati, compresi quelli utilizzati nella guerra con l’Iran.

La causa di Anthropic menziona anche altre agenzie federali, compresi i dipartimenti del Tesoro e dello Stato, dopo che i funzionari hanno ordinato ai dipendenti di smettere di utilizzare i servizi di Anthropic.

Anche mentre si oppone alle azioni del Pentagono, Anthropic ha cercato di convincere le imprese e altre agenzie governative che la sanzione dell’amministrazione Trump è limitata e colpisce solo gli appaltatori militari quando utilizzano Claude per lavorare per il Dipartimento della Difesa.

Rendere chiara questa distinzione è fondamentale per Anthropic, società privata perché la maggior parte dei suoi 14 miliardi di dollari di entrate previste quest’anno provengono da aziende e agenzie governative che utilizzano Claude per la codifica dei pc e altri compiti. Più di 500 clienti pagano advert Anthropic almeno 1 milione di dollari all’anno per Claude; secondo un recente annuncio di investimento, ha valutato la società a 380 miliardi di dollari.

Anthropic ha dichiarato in una dichiarazione lunedì (9 marzo 2026) che “la richiesta di controllo giurisdizionale non cambia il nostro impegno di lunga knowledge a sfruttare l’intelligenza artificiale per proteggere la nostra sicurezza nazionale, ma questo è un passo necessario per proteggere la nostra attività, i nostri clienti e i nostri associate”.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here