Il Dipartimento della Difesa (DOD) ha notificato ufficialmente alla management di Anthropic che l’azienda e i suoi prodotti sono stati classificati come a rischio nella catena di fornitura, Bloomberg riferisce, citando un alto funzionario del dipartimento.
La designazione arriva dopo settimane di conflitto tra il laboratorio di intelligenza artificiale e il DOD. Il CEO di Anthropic, Dario Amodei, ha rifiutato di consentire ai militari di utilizzare i suoi sistemi di intelligenza artificiale per la sorveglianza di massa degli americani o di alimentare armi completamente autonome senza che gli esseri umani assistano nelle decisioni di focusing on o di fuoco. Il Dipartimento ha sostenuto che l’uso dell’intelligenza artificiale non dovrebbe essere limitato da un appaltatore privato.
Le designazioni dei rischi della catena di fornitura sono generalmente riservate agli avversari stranieri. L’etichetta richiede che qualsiasi azienda o agenzia che collabori con il Pentagono certifichi di non utilizzare i modelli di Anthropic.
La scoperta del Pentagono minaccia di sconvolgere sia l’azienda che le sue stesse operazioni. Anthropic è stato l’unico laboratorio di intelligenza artificiale di frontiera con sistemi pronti per la classificazione. L’esercito americano si affida attualmente a Claude nella sua campagna in Iran, in cui le forze americane utilizzano strumenti di intelligenza artificiale per gestire rapidamente i dati per le loro operazioni. Secondo Bloomberg, Claude è uno dei principali strumenti installati nel Maven Sensible System di Palantir, su cui fanno affidamento gli operatori militari in Medio Oriente.
Etichettare Anthropic come un rischio per la catena di approvvigionamento a causa di questo disaccordo è una mossa senza precedenti da parte del Dipartimento, affermano diversi critici. Dean Ball, ex consigliere AI di Trump alla Casa Bianca, lo ha fatto riferito alla designazione come “sonaglio mortale” della repubblica americana, il governo ha abbandonato la chiarezza strategica e il rispetto a favore di un tribalismo “delinquente” che tratta gli innovatori nazionali peggio degli avversari stranieri.
Centinaia di dipendenti di OpenAI e Google hanno esortato il DOD a ritirare la sua designazione e hanno invitato il Congresso a respingere quello che potrebbe essere percepito come un uso inappropriato dell’autorità contro un’azienda tecnologica americana. Hanno anche esortato i loro chief a restare uniti per continuare a rifiutare le richieste del DOD di utilizzare i loro modelli di intelligenza artificiale per la sorveglianza di massa interna e “uccidere autonomamente le persone senza supervisione umana”.
TechCrunch ha contattato Anthropic per un commento.
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
Nel mezzo della controversia, OpenAI ha stretto un accordo con il Dipartimento per consentire ai militari di utilizzare i suoi sistemi di intelligenza artificiale per “tutti gli scopi legali”. Alcuni della compagnia dipendenti hanno espresso preoccupazione per la formulazione ambigua dell’accordo, che potrebbe portare esattamente al tipo di usi che Anthropic stava cercando di evitare.
Amodei ha definito le azioni del DOD “ritorsive e punitive” e secondo quanto riferito ha affermato che il suo rifiuto di lodare o fare donazioni al presidente Trump ha contribuito alla disputa con il Pentagono. Il presidente di OpenAI Greg Brockman è stato un convinto sostenitore di Trump, recentemente ha donato $ 25 milioni al MAGA Inc. Super PAC.











