Il presidente Donald Trump ha inserito Anthropic nella lista nera per la sua opposizione all’uso della sua tecnologia per la sorveglianza di massa e le armi autonome
Il ministro della Guerra americano Pete Hegseth ha formalmente designato la società di intelligenza artificiale Anthropic a “rischio della catena di approvvigionamento per la sicurezza nazionale” in seguito all’ordine del presidente Donald Trump di inserire la società nella lista nera del governo federale.
Hegseth ha annunciato la decisione venerdì, accusando la società di tentare di imporre vincoli ideologici alle operazioni militari statunitensi dopo che Anthropic si è rifiutata di rimuovere le misure di salvaguardia che limitano l’uso dei suoi sistemi di intelligenza artificiale per la sorveglianza di massa e armi completamente autonome.
“Il loro vero obiettivo è inequivocabile: prendere il potere di veto sulle decisioni operative delle forze armate degli Stati Uniti”, Hegseth ha detto in a dichiarazione pubblicato sui social media. “Ciò è inaccettabile… Il Dipartimento della Guerra deve avere accesso completo e illimitato ai modelli di Anthropic per ogni scopo legittimo in difesa della Repubblica”.
“Sto ordinando al Dipartimento della Guerra di designare l’attività antropica come un rischio per la catena di approvvigionamento per la sicurezza nazionale… Questa decisione è definitiva”, ha affermato Hegseth.
La designazione impedisce immediatamente a qualsiasi appaltatore, fornitore o accomplice che lavori con le forze armate statunitensi di impegnarsi in attività commerciali con Anthropic, ampliando significativamente l’impatto oltre il Pentagono stesso. Funzionari della difesa hanno affermato che alla società sarà consentito continuare a fornire servizi per un massimo di sei mesi per consentire ai sistemi militari di passare a fornitori alternativi.
La mossa fa seguito alla direttiva radicale di Trump che ordina alle agenzie federali di sospendere l’uso della tecnologia antropica dopo che la società ha resistito alle richieste del Pentagono di eliminare i limiti contrattuali che regolano le modalità di implementazione del suo modello di intelligenza artificiale di punta, Claude.

Anthropic ha mantenuto due restrizioni non negoziabili: il divieto sulla sorveglianza nazionale di massa e il divieto di armi completamente autonome che operano senza un significativo controllo umano. Funzionari del Pentagono sostengono che tali salvaguardie potrebbero ostacolare la flessibilità operativa durante le crisi militari.
IL “rischio della catena di fornitura” La designazione – tipicamente riservata alle aziende legate advert avversari stranieri – segna un passo straordinario contro un’azienda tecnologica con sede negli Stati Uniti profondamente radicata nelle operazioni di sicurezza nazionale.
Anthropic è stato il primo e unico sviluppatore commerciale di intelligenza artificiale a implementare modelli linguistici avanzati su reti classificate del Pentagono con un contratto del valore fino a 200 milioni di dollari. I suoi sistemi hanno supportato l’analisi dell’intelligence e la pianificazione operativa militare, compreso il raid che ha preso di mira il presidente venezuelano Nicolas Maduro.
Puoi condividere questa storia sui social media:










