Il presidente Donald Trump venerdì ha chiesto alle agenzie federali statunitensi di smettere di usare l’intelligenza artificiale Claude di Anthropic dopo che la società ha rifiutato di concedere al Dipartimento della Difesa il permesso di usarla per la sorveglianza interna di massa o per sistemi d’arma completamente autonomi.
Il presidente pubblicato sulla piattaforma Reality Social, di sua proprietà, che sta ordinando al governo federale di “CESSARE IMMEDIATAMENTE” l’uso degli strumenti di Anthropic, affermando che ci sarà un’eliminazione graduale di sei mesi per agenzie come il Dipartimento della Difesa. Ha anche denunciato Anthropic definendola una “AZIENDA DI SINISTRA RADICALE, SVEGLIA”. Il publish segna l’ultimo passo di una resa dei conti che si è intensificata in modo significativo questa settimana tra Anthropic e il governo federale.
Claude è ampiamente utilizzata in tutto il Pentagono, anche nei sistemi classificati, ma l’amministrazione Trump ha cercato di utilizzare la tecnologia per “qualsiasi scopo legale”. Anthropic ha insistito nel suo contratto esistente affinché la tecnologia non venga utilizzata per la sorveglianza di massa degli americani o in sistemi di armi offensive autonome senza enter umano.
All’inizio di questa settimana, il segretario alla Difesa Pete Hegseth ha dichiarato il CEO di Anthropic, Dario Amodei che avrebbe invocato poteri raramente utilizzati per costringere Anthropic a lasciare che il Pentagono usasse Claude per qualsiasi scopo legale o per etichettare la società come un rischio per la catena di approvvigionamento, mettendone a repentaglio l’uso da parte del governo o degli appaltatori della difesa. Hegseth ha dato advert Anthropic una scadenza venerdì per conformarsi.
Lo ha detto l’amministratore delegato di Anthropic Dario Amodei in a dichiarazione a cui l’azienda, fondata con l’obiettivo dichiarato della sicurezza dell’intelligenza artificiale, “non può in buona coscienza aderire [the Pentagon’s] richiesta” di rimuovere le disposizioni contrattuali secondo le quali Claude non può essere utilizzato in sistemi d’arma completamente autonomi o per la sorveglianza domestica.
Per saperne di più: Le telecamere advert anello di Amazon approfondiscono la sorveglianza della polizia e del governo
Preoccupazioni per l’intelligenza artificiale e la sorveglianza di massa
Amodei ha espresso preoccupazione per il fatto che la legge non sia stata all’altezza del potenziale di sorveglianza di massa degli americani. Il governo può già acquistare informazioni come la cronologia di navigazione degli americani e le registrazioni dei movimenti individuali senza mandato, ma l’intelligenza artificiale alza la posta in gioco. “La potente intelligenza artificiale rende possibile assemblare questi dati sparsi e individualmente innocui in un quadro completo della vita di ogni persona, automaticamente e su vasta scala”, ha scritto.
Michael Pastor, preside dei programmi di diritto tecnologico presso la New York Legislation Faculty, ha affermato in una e-mail che è tipico nel diritto contrattuale che le persone coinvolte cerchino chiarezza sui termini. “Anthropic ha ragione a insistere su cosa significhi ‘per scopi leciti'”, ha detto. “Se il Pentagono non è disposto a chiarire se utilizzerà la tecnologia di Anthropic per la sorveglianza interna di massa, ciò alza le bandiere che Anthropic sembra giustificato a sventolare.”
Secondo quanto riferito, Claude di Anthropic è il sistema di intelligenza artificiale più utilizzato dalle forze armate statunitensi. Le various potrebbero includere strumenti di OpenAI, Google o xAI di Elon Musk.
In una nota interna riportato dal Wall Street Journal Venerdì, il CEO di OpenAI Sam Altman avrebbe detto ai dipendenti che la società ha le stesse linee rosse di Anthropic: nessuna sorveglianza domestica di massa o armi offensive autonome. Altman ha affermato di ritenere che tali guardrail possano essere gestiti attraverso requisiti tecnici, come la richiesta di distribuzione dei modelli nel cloud. (Divulgazione: Ziff Davis, la società madre di CNET, nel 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)
I dipendenti di Google e OpenAI hanno diffuso un petizione chiedendo alle loro aziende di schierarsi con Anthropic nel rifiutarsi di consentire l’uso di modelli di intelligenza artificiale per la sorveglianza di massa nazionale o di sistemi di armi letali completamente autonomi. La petizione afferma che il Pentagono sta “cercando di dividere ciascuna azienda con il timore che l’altra ceda. Questa strategia funziona solo se nessuno di noi sa dove stanno gli altri”.
Proprio come nella tecnologia di consumo, i sistemi di intelligenza artificiale hanno visto un’adozione diffusa nei casi governativi e militari. Questi strumenti hanno visto le loro capacità crescere in modo significativo solo negli ultimi anni e il ritmo del cambiamento non è rallentato. La regolamentazione e la supervisione dell’IA non hanno tenuto il passo. L’intelligenza artificiale ha amplificato i potenziali danni della sorveglianza aziendale o governativa rendendola più semplice ed economica.
Pastor ha affermato che questa disputa potrebbe avere conseguenze significative sull’influenza che i governi e le aziende tecnologiche hanno l’uno contro l’altro quando le loro opinioni sull’uso appropriato della tecnologia si scontrano. “Gli antropici potrebbero ritenere che cedere qui apra un vaso di Pandora di usi per i quali Claude potrebbe essere impiegato”, ha detto.













