Martedì sera il Dipartimento della Difesa degli Stati Uniti ha affermato che Anthropic rappresenta un “rischio inaccettabile per la sicurezza nazionale”, segnando la prima confutazione dell’agenzia alle azioni legali del laboratorio di intelligenza artificiale che contestano la decisione del segretario alla Difesa Pete Hegseth del mese scorso di etichettare l’azienda come un rischio per la catena di approvvigionamento. Nell’ambito delle sue denunce, Anthropic aveva chiesto al tribunale di bloccare temporaneamente il DOD dal far rispettare la sua etichetta.
Il nocciolo dell’argomentazione del DOD, formulato in a Archivio di 40 pagine in un tribunale federale della California, c’è la preoccupazione che Anthropic possa “tentare di disabilitare la sua tecnologia o alterare preventivamente il comportamento del suo modello” prima o durante “operazioni di guerra” se l’azienda “ritiene che le sue ‘linee rosse’ aziendali siano state superate.”
L’property scorsa Anthropic ha firmato un contratto da 200 milioni di dollari con il Pentagono per implementare la sua tecnologia all’interno di sistemi classificati. Nelle negoziazioni successive sui termini del contratto, Anthropic ha affermato che non voleva che i suoi sistemi di intelligenza artificiale fossero utilizzati per la sorveglianza di massa degli americani e che la tecnologia non period pronta per l’uso per prendere di mira o sparare con armi letali. Il Pentagono ha contestato che una società privata non dovrebbe dettare il modo in cui i militari utilizzano la tecnologia.
In risposta, un portavoce di Anthropic ha fatto riferimento alla dichiarazione di high quality febbraio del CEO Dario Amodei: “Anthropic comprende che il Dipartimento della Guerra, e non le aziende non-public, prende le decisioni militari. Non abbiamo mai sollevato obiezioni a particolari operazioni militari né tentato di limitare l’uso della nostra tecnologia in modo advert hoc.”
Chris Mattei, un avvocato specializzato in questioni relative al Primo Emendamento ed ex avvocato del Dipartimento di Giustizia, ha dichiarato a TechCrunch che non sono state condotte indagini a sostegno delle preoccupazioni del DOD secondo cui Anthropic potrebbe potenzialmente disabilitare o alterare i suoi modelli di intelligenza artificiale durante le operazioni di guerra. Senza queste show, l’argomentazione del dipartimento non riesce a spiegare adeguatamente come la posizione negoziale di Anthropic lo abbia reso un “avversario”, ha sostenuto Mattei.
“Il governo si affida completamente a congetture e speculazioni per giustificare un passo legale molto, molto serio intrapreso contro Anthropic”, ha detto Mattei. Ha aggiunto che il dipartimento non è riuscito a “articolare una motivazione credibile o addirittura comprensibile per cui il rifiuto di Anthropic di accettare una disposizione su ‘tutti gli usi leciti’ lo ha reso un rischio per la catena di approvvigionamento rispetto a un fornitore con cui il DOD semplicemente non voleva fare affari.”
Molte organizzazioni si sono espresse contro il trattamento riservato dal DOD all’Anthropic, sostenendo che il dipartimento avrebbe potuto semplicemente rescindere il suo contratto. Various aziende e dipendenti tecnologici, tra cui OpenAI, Google e Microsoft, nonché gruppi per i diritti legali hanno presentato memorie amicus a sostegno di Anthropic.
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
Nelle sue trigger legali, Anthropic ha accusato il DOD di violare i diritti del Primo Emendamento e di punire la società su basi ideologiche.
“In molti modi, le argomentazioni insensate del governo sono di per sé la prova migliore che la condotta dell’amministrazione è stata chiaramente una punizione di ritorsione per il rifiuto di Anthropic di accettare i termini del governo, che, contrariamente al mandato del governo, è una forma di espressione protetta”, ha detto Mattei a TechCrunch.
L’udienza sulla richiesta di Anthropic di un’ingiunzione preliminare è fissata per martedì prossimo.
Un portavoce di Anthropic ha dichiarato a TechCrunch che la sua decisione di richiedere un controllo giurisdizionale non cambia il suo “impegno di lunga information nello sfruttare l’intelligenza artificiale per proteggere la nostra sicurezza nazionale”, ma che è un “passo necessario” per proteggere la propria attività, clienti e accomplice.
Questo articolo è stato aggiornato per includere informazioni di Chris Mattei, un avvocato specializzato in diritti costituzionali, e commenti da Anthropic.












