Anthropic ha mantenuto la promessa di contestare il Dipartimento della Difesa (DOD) in tribunale dopo che l’agenzia lo ha etichettato come un rischio per la catena di approvvigionamento alla tremendous della scorsa settimana.
Il creatore di Claude ha presentato due denunce contro il DOD lunedì in California e Washington, DC, dopo un conflitto durato settimane tra Anthropic e il DOD sulla questione se i militari dovessero avere accesso illimitato ai sistemi di intelligenza artificiale di Anthropic. Anthropic aveva due linee rosse ferme: non voleva che la sua tecnologia fosse utilizzata per la sorveglianza di massa degli americani e non credeva di essere pronta advert alimentare armi completamente autonome senza che gli esseri umani prendessero decisioni su bersagli e spari.
Il segretario alla Difesa Pete Hegseth ha sostenuto che il Pentagono dovrebbe avere accesso ai sistemi di intelligenza artificiale per “qualsiasi scopo legale” e che non dovrebbe essere limitato da un appaltatore privato.
Un’etichetta di rischio della catena di approvvigionamento è solitamente riservata agli avversari stranieri e richiede a qualsiasi azienda o agenzia che collabora con il Pentagono di certificare che non utilizza i modelli di Anthropic. Sebbene various società non-public stiano ancora lavorando con Anthropic, l’azienda è pronta a perdere gran parte dei suoi affari all’interno del governo.
Anthropic ha definito le azioni del DOD “senza precedenti e illegali” e accusa l’amministrazione di ritorsioni in una denuncia depositata presso il tribunale federale di San Francisco. “La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua libertà di parola protetta”, si legge nella causa.
Il discorso protetto a cui fa riferimento Anthropic è la sua convinzione sui “limiti dei propri servizi di intelligenza artificiale e su importanti questioni di sicurezza dell’intelligenza artificiale”, secondo la causa. L’amministrazione, compreso il segretario alla Difesa Hegseth e il presidente Trump, ha criticato Anthropic e il suo amministratore delegato Dario Amodei definendoli “svegli” e “radicali” per le richieste dell’azienda di misure di sicurezza e trasparenza dell’IA più forti.
Nella causa, Anthropic ha sostenuto che il governo non deve essere d’accordo con le sue opinioni o utilizzare i suoi prodotti, ma non può utilizzare il potere dello stato per punire o sopprimere l’espressione di Anthropic.
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
Anthropic ha inoltre sostenuto che “nessuno statuto federale autorizza le azioni intraprese in questo caso”, sostenendo che la designazione del rischio della catena di approvvigionamento da parte del Dipartimento della Difesa è stata emessa “senza l’osservanza delle process richieste dal Congresso”. La legge generalmente richiede alle agenzie di condurre una valutazione del rischio, informare l’azienda presa di mira e consentirle di rispondere, prendere una decisione scritta sulla sicurezza nazionale e informare il Congresso prima di escludere un fornitore dalle catene di approvvigionamento federali.
L’azienda accusa inoltre il presidente di operare al di fuori dei limiti dell’autorità concessa dal Congresso quando gli è stato concesso diretto ogni agenzia federale di smettere immediatamente di usare la tecnologia di Anthropic, in seguito alla dichiarazione di Amodei che non si sarebbe mosso sulla sua linea dura. In seguito alle dichiarazioni rilasciate sia dal presidente Trump che dal segretario Hegseth, la Basic Providers Administration – l’agenzia federale che gestisce i contratti e gli acquisti governativi – ha risolto il contratto “OneGov” di Anthropic, ponendo tremendous alla disponibilità dei servizi Anthropic per tutti e tre i rami del governo federale.
“Gli imputati stanno cercando di distruggere il valore economico creato da una delle società non-public in più rapida crescita al mondo”, si legge nella causa. “Le Challenged Actions infliggono danni immediati e irreparabili advert Anthropic; advert altri la cui parola sarà fredda; a coloro che beneficiano del valore economico che l’azienda può continuare a creare; e a un pubblico globale che merita un dialogo e un dibattito robusti su cosa significa l’intelligenza artificiale per la guerra e la sorveglianza”.
Come parte della sua denuncia, Anthropic ha chiesto alla corte di sospendere immediatamente la designazione del Dipartimento della Difesa mentre il caso procede e, infine, di invalidare e bloccare permanentemente il governo dall’applicarla.
“La richiesta di controllo giurisdizionale non cambia il nostro impegno di lunga knowledge a sfruttare l’intelligenza artificiale per proteggere la nostra sicurezza nazionale, ma questo è un passo necessario per proteggere la nostra attività, i nostri clienti e i nostri companion”, ha affermato in una nota un portavoce di Anthropic. “Continueremo a perseguire ogni percorso verso la risoluzione, compreso il dialogo con il governo”.
Anthropic ha presentato un reclamo separato presso la Corte d’Appello del Circuito DC perché la legge federale sugli appalti consente alle aziende di impugnare le designazioni di rischio della catena di approvvigionamento. La petizione chiede alla corte di rivedere e annullare la decisione del Dipartimento della Difesa di designare la società come un rischio per la catena di fornitura per la sicurezza nazionale. Nella denuncia, Anthropic ha sostenuto che la mossa period illegale, di ritorsione e eseguita in modo improprio ai sensi della legge federale sugli appalti.
Questa storia è stata aggiornata con maggiori dettagli e notizie che Anthropic ha intentato una causa separata presso la Corte d’Appello del Circuito DC.












