Le ultime due settimane sono state caratterizzate da uno scontro tra l’amministratore delegato di Anthropic, Dario Amodei, e il segretario alla Difesa Pete Hegseth, in cui i due si sono scontrati sull’uso dell’intelligenza artificiale da parte dei militari.
Anthropic rifiuta di consentire che i suoi modelli di intelligenza artificiale vengano utilizzati per la sorveglianza di massa degli americani o per armi completamente autonome che conducono attacchi senza enter umano. Allo stesso tempo, il Segretario Hegseth ha sostenuto che il Dipartimento della Difesa non dovrebbe essere limitato dalle regole di un fornitore, sostenendo che qualsiasi “uso legale” della tecnologia dovrebbe essere consentito.
Giovedì, Amodei ha segnalato pubblicamente che Anthropic non si arrende, nonostante le minacce che di conseguenza la sua azienda potrebbe essere designata come rischiosa per la catena di approvvigionamento. Ma con il ciclo delle notizie che si muove velocemente, vale la pena rivisitare esattamente la posta in gioco nella lotta.
Fondamentalmente, questa lotta riguarda chi controlla i potenti sistemi di intelligenza artificiale: le aziende che li costruiscono o il governo che vuole implementarli.
Di cosa si preoccupa Anthropic?
Come abbiamo detto sopra, Anthropic non vuole che i suoi modelli di intelligenza artificiale vengano utilizzati per la sorveglianza di massa degli americani o per armi autonome senza che gli esseri umani siano coinvolti nelle decisioni di focusing on e fuoco. Gli appaltatori tradizionali della difesa in genere hanno poca voce in capitolo su come verranno utilizzati i loro prodotti, ma Anthropic ha sostenuto fin dall’inizio che la tecnologia AI comporta rischi unici e quindi richiede tutele uniche. Dal punto di vista dell’azienda, la questione è come mantenere tali garanzie quando la tecnologia viene utilizzata dai militari.
L’esercito americano fa già affidamento su sistemi altamente automatizzati, alcuni dei quali letali. Storicamente la decisione di usare la forza letale è stata lasciata agli esseri umani, ma ci sono poche restrizioni legali sull’uso militare delle armi autonome. Il Dipartimento della Difesa non vieta categoricamente i sistemi d’arma completamente autonomi. Secondo a Direttiva DOD del 2023i sistemi di intelligenza artificiale possono selezionare e ingaggiare obiettivi senza intervento umano, purché soddisfino determinati customary e superino la revisione da parte di alti funzionari della difesa.
Questo è esattamente ciò che rende Anthropic nervoso. La tecnologia militare è segreta per natura, quindi se l’esercito americano stesse adottando misure per automatizzare il processo decisionale letale, potremmo non saperlo finché non sarà operativo. E se utilizzasse i modelli di Anthropic, potrebbe essere considerato un “uso legale”.
Evento Techcrunch
Boston, MA
|
9 giugno 2026
La posizione di Anthropic non è che tali usi debbano essere definitivamente esclusi dal tavolo. È che i suoi modelli non sono ancora abbastanza capaci da supportarli in modo sicuro. Immaginate un sistema autonomo che identifica erroneamente un obiettivo, intensifica un conflitto senza l’autorizzazione umana o prende una decisione letale in una frazione di secondo che nessuno può annullare. Metti un’intelligenza artificiale meno capace a capo delle armi e otterrai una macchina molto veloce e molto sicura che non è in grado di effettuare chiamate advert alto rischio.
L’intelligenza artificiale ha anche il potere di potenziare la sorveglianza legale dei cittadini americani in misura preoccupante. Secondo le attuali leggi statunitensi, la sorveglianza dei cittadini americani è già possibile, sia attraverso la raccolta di messaggi di testo, e-mail e altre comunicazioni. L’intelligenza artificiale cambia l’equazione consentendo il rilevamento automatizzato di modelli su larga scala, la risoluzione delle entità tra set di dati, il punteggio predittivo del rischio e l’analisi comportamentale continua.
Cosa vuole il Pentagono?
La tesi del Pentagono è che dovrebbe essere in grado di utilizzare la tecnologia di Anthropic per qualsiasi uso lecito ritenga necessario, piuttosto che essere limitato dalle politiche interne di Anthropic su cose come le armi autonome o la sorveglianza.
Più specificamente, il Segretario Hegseth ha sostenuto che il Dipartimento della Difesa non dovrebbe essere limitato dalle regole di un fornitore e che si impegnerebbe in un “uso legale” della tecnologia.
Lo ha detto in una conferenza stampa Sean Parnell, il principale portavoce del Pentagono Giovedì X post che il dipartimento non ha alcun interesse a condurre una sorveglianza interna di massa o a dispiegare armi autonome.
“Ecco cosa chiediamo: consentire al Pentagono di utilizzare il modello di Anthropic per tutti gli scopi legittimi”, ha detto Parnell. “Questa è una richiesta semplice e di buon senso che impedirà advert Anthropic di mettere a repentaglio operazioni militari critiche e di mettere potenzialmente a rischio i nostri combattenti. Non permetteremo a NESSUNA azienda di dettare i termini su come prendiamo le decisioni operative”.
Ha aggiunto che Anthropic ha tempo fino alle 17:01 ET di venerdì per decidere. “Altrimenti, interromperemo la nostra partnership con Anthropic e li considereremo un rischio per la catena di fornitura per DOW”, ha affermato.
Nonostante la posizione del Dipartimento della Difesa che semplicemente non crede che dovrebbe essere limitato dalle politiche di utilizzo di un’azienda, le preoccupazioni del Segretario Hegseth su Anthropic a volte sono sembrate collegate a rimostranze culturali. In un discorso negli uffici di SpaceX e xAI a gennaioHegseth si scagliò contro “woke AI” in un discorso che alcuni videro come un’anteprima della sua faida con Anthropic.
“L’intelligenza artificiale del Dipartimento di Guerra non verrà svegliata”, ha detto Hegseth. “Stiamo costruendo armi e sistemi pronti alla guerra, non chatbot per una sala facoltà della Ivy League.”
E adesso?
Il Pentagono ha minacciato di dichiarare Anthropic un “rischio per la catena di fornitura” – cosa che di fatto impedisce advert Anthropic di fare affari con il governo – o di invocare il Protection Manufacturing Act (DPA) per costringere l’azienda advert adattare il suo modello alle esigenze militari. Hegseth ha dato advert Anthropic tempo fino alle 17:01 di venerdì per rispondere. Ma con la scadenza che si avvicina, nessuno può immaginare se il Pentagono riuscirà a mantenere la sua minaccia.
Questa non è una lotta da cui entrambe le parti possono facilmente allontanarsi. Sachin Seth, un VC di Trousdale Ventures che si concentra sulla tecnologia della difesa, afferma che un’etichetta di rischio della catena di fornitura per Anthropic potrebbe significare “luci spente” per l’azienda.
Tuttavia, ha detto, se Anthropic venisse ritirato dal Dipartimento della Difesa, potrebbe essere un problema di sicurezza nazionale.
“[The Department] dovrebbero aspettare dai sei ai 12 mesi prima che OpenAI o xAI raggiungano il ritardo “, ha detto Seth a TechCrunch. “Ciò lascia una finestra fino a un anno in cui potrebbero lavorare non con il modello migliore, ma con il secondo o il terzo migliore.”
xAI si sta preparando per diventare classificato e sostituire Anthropic, ed è giusto dire che questo proprietario La retorica di Elon Musk sul fatto che la società non avrebbe problemi a dare al Dipartimento della Difesa il controllo totale sulla sua tecnologia. Recente rapporti indicano che OpenAI potrebbe attenersi alle stesse linee rosse di Anthropic.











