Lunedì Anthropic ha intentato due azioni legali contro il Dipartimento della Difesa degli Stati Uniti per la sua designazione come un “rischio nella catena di approvvigionamento per la sicurezza nazionale” che impedirebbe alla società di intelligenza artificiale di ottenere contratti con il governo statunitense e la inserirerebbe nella lista nera tra gli altri appaltatori della difesa.
Il Pentagono ha etichettato la società di intelligenza artificiale come un rischio per la catena di approvvigionamento dopo aver rifiutato di accettare nuovi termini che avrebbero consentito al governo degli Stati Uniti di utilizzare il suo modello di intelligenza artificiale Claude per la sorveglianza nazionale di massa e lo sviluppo di armi completamente autonome.
“Queste azioni sono senza precedenti e illegali”, denuncia Anthropic Leggere. “La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua parola protetta. Nessuno statuto federale autorizza le azioni intraprese qui.”
Le trigger, che sono state depositate presso la Corte Distrettuale del Distretto Settentrionale della California e presso la Corte d’Appello della Circoscrizione DC, secondo il New York Timeselencano quasi tre dozzine di imputati, comprese intere agenzie governative che utilizzavano Claude, nonché i capi di quelle agenzie.
“La richiesta di controllo giurisdizionale non cambia il nostro impegno di lunga information a sfruttare l’intelligenza artificiale per proteggere la nostra sicurezza nazionale, ma questo è un passo necessario per proteggere la nostra attività, i nostri clienti e i nostri associate”, ha affermato in una nota un portavoce di Anthropic. “Continueremo a perseguire ogni percorso verso la risoluzione, compreso il dialogo con il governo”.
Anthropic ha precedentemente spiegato che le sue obiezioni alla sorveglianza interna e ai divieti sull’uso di Claude per armi completamente autonome riguardano in gran parte preoccupazioni relative all’abilità tecnica. L’azienda ha avanzato un argomento simile nelle sue azioni legali lunedì, spiegando che Anthropic non ha mai testato Claude per questi usi e che i guardrail sono radicati nella comprensione da parte dell’azienda dei suoi rischi e limiti, insieme alla fede nella Costituzione degli Stati Uniti.
“Anthropic ha collaborato con il Dipartimento della Guerra [sic] sulle modifiche alle sue restrizioni d’uso per facilitare il lavoro del Dipartimento con Claude, in riconoscimento delle missioni uniche del Dipartimento. Ma Anthropic ha sempre mantenuto il suo impegno nei confronti di queste due specifiche restrizioni, anche nel suo lavoro con il Dipartimento di Guerra”, ha scritto la società nelle sue azioni legali.
Le azioni legali di Anthropic erano previste da quando il presidente Donald Trump e il segretario alla Difesa Pete Hegseth hanno minacciato per la prima volta di invocare il Protection Manufacturing Act per costringere Anthropic a eseguire i suoi ordini o di essere etichettato come un rischio per la catena di approvvigionamento, una designazione mai applicata a un’azienda statunitense. Il CEO di Anthropic, Dario Amodei, ha incontrato Hegseth il 24 febbraio, ma il Pentagono non ha formalmente etichettato Anthropic come un rischio per la catena di fornitura fino al 5 marzo. Le azioni legali includono screenshot di publish di Trump su Reality Social e di Hegseth su X, nonché collegamenti a tweet di membri del governo, come il Segretario del Tesoro. Scott Bessent.
Nelle sue trigger legali, Anthropic sostiene che il Dipartimento della Difesa ha tutto il diritto di vigilare sui rischi della catena di approvvigionamento, ma ha la responsabilità di farlo nel modo meno restrittivo. Anthropic scrive che il Dipartimento della Difesa “aveva un’opzione semplice e non restrittiva che avrebbe pienamente servito story interesse: rescindere il contratto e assumere uno sviluppatore diverso”. Invece, il Pentagono ha adottato una risposta punitiva per rendere l’azienda tossica.
Ci sono alcune questioni legali spinose su cosa significhi essere etichettato come un rischio per la catena di fornitura, inclusa la questione se ciò significhi che advert altre società non-public che intrattengono rapporti commerciali con il governo federale è vietato utilizzare il software program di Anthropic a qualsiasi titolo. Qualunque sia la lettera della legge, lo sono stati gli appaltatori della difesa come Lockheed Martin tagliare i legami comunque con Anthropic.
Il Pentagono ha elaborato nuove linee guida sull’intelligenza artificiale che imporrebbero alle aziende di consentire ai militari di impegnarsi in “qualsiasi uso legale” dei loro modelli, secondo il Tempi finanziari. La definizione di “legittimo” è ovviamente molto flessibile per il regime di Trump, dato che di fatto non c’è nessuno che li ritenga responsabili quando infrangono la legge.
“Le conseguenze di questo caso sono enormi”, si legge nelle trigger legali. “Il governo federale ha reagito contro un importante sviluppatore di intelligenza artificiale di frontiera per aver aderito al suo punto di vista protetto su un argomento di grande importanza pubblica – la sicurezza dell’intelligenza artificiale e le limitazioni dei propri modelli di intelligenza artificiale – in violazione della Costituzione e delle leggi degli Stati Uniti”.
Diversi osservatori tecnologici hanno sostenuto che danneggiare Anthropic danneggia la competitività degli Stati Uniti e dà alla Cina un vantaggio nella corsa per costruire i sistemi di intelligenza artificiale più avanzati. E lunedì Anthropic ha sostenuto un argomento simile nelle sue azioni legali.
“Gli imputati stanno cercando di distruggere il valore economico creato da una delle società non-public in più rapida crescita al mondo, che è chief nello sviluppo responsabile di una tecnologia emergente di vitale importanza per la nostra nazione”, si legge nelle trigger legali. “Le Challenged Actions infliggono danni immediati e irreparabili advert Anthropic; advert altri la cui parola sarà fredda; a coloro che beneficiano del valore economico che l’azienda può continuare a creare; e a un pubblico globale che merita un dialogo e un dibattito robusti su cosa significa l’intelligenza artificiale per la guerra e la sorveglianza”.
Anthropic non ha risposto immediatamente a una richiesta di commento lunedì mattina. Gizmodo aggiornerà questo articolo quando riceveremo risposta.












