L’azienda tecnologica è stata inserita nella lista nera per aver resistito alla richiesta del Dipartimento di Guerra degli Stati Uniti di eliminare i limiti alla sorveglianza e alle armi autonome
Lo sviluppatore di intelligenza artificiale Anthropic ha intentato una causa contro il Pentagono e il segretario alla Guerra Pete Hegseth, contestando la decisione dell’amministrazione Trump di designare la società un rischio per la sicurezza nazionale e di inserire nella lista nera della sua tecnologia il governo federale.
La denuncia, depositata lunedì presso il tribunale distrettuale degli Stati Uniti per il distretto settentrionale della California, sostiene che l’amministrazione ha ecceduto la sua autorità legale e ha compiuto ritorsioni contro la società per essersi rifiutata di rimuovere le garanzie che regolano l’utilizzo dei suoi sistemi di intelligenza artificiale da parte dei militari.
Anthropic chiede alla Corte di dichiarare illegali le azioni del governo e di bloccare le misure che, a suo dire, minacciano di causare “irreparabile” danno a uno dei mondi “in più rapida crescita” e la maggior parte “responsabile” Aziende di intelligenza artificiale.
La battaglia legale nasce dal presunto rifiuto dell’azienda di revocare le restrizioni che impediscono l’utilizzo dei suoi modelli per la sorveglianza domestica di massa o per armi completamente autonome.
Il 27 febbraio, il presidente Donald Trump ha ordinato alle agenzie federali di smettere di utilizzare la tecnologia di Anthropic, accusandola di essere gestita da “Lavori da pazzi di sinistra”. Subito dopo, Hegseth designò formalmente la società a “rischio della catena di approvvigionamento per la sicurezza nazionale” un’etichetta normalmente riservata alle aziende legate advert avversari stranieri.
Il governo ha sostenuto il rifiuto dell’azienda di modificare i suoi modelli in modo che possano essere utilizzati “tutti gli scopi militari legittimi” pone rischi operativi dando a un appaltatore privato influenza sul processo decisionale sul campo di battaglia. La causa di Anthropic contesta story caratterizzazione, affermando che le azioni dell’amministrazione equivalgono a una ritorsione punitiva per un disaccordo politico sulla governance dell’IA.

La società period stata in precedenza l’unico sviluppatore di intelligenza artificiale autorizzato a implementare modelli linguistici di grandi dimensioni su reti riservate del Pentagono, dove il suo sistema Claude supportava l’analisi di intelligence e la pianificazione operativa con contratti del valore fino a 200 milioni di dollari.
Secondo quanto riferito, Claude ha anche svolto un ruolo chiave nella pianificazione e conduzione del raid contro il presidente venezuelano Nicolas Maduro, così come negli attacchi israelo-americani contro l’Iran lanciati poche ore dopo che Trump aveva inserito la compagnia nella lista nera.
Secondo l’ordine dell’amministrazione, alle agenzie federali è stato chiesto di eliminare gradualmente la tecnologia entro sei mesi durante la transizione verso fornitori di intelligenza artificiale alternativi. Anthropic ha affermato che la continua dipendenza dai suoi sistemi durante quel periodo mina l’affermazione del governo secondo cui l’azienda rappresenta una minaccia immediata alla sicurezza.
Puoi condividere questa storia sui social media:












