Il rapporto tra uno dei produttori di modelli di intelligenza artificiale più redditizi e potenti della Silicon Valley, Anthropic, e il governo degli Stati Uniti ha raggiunto un punto di rottura venerdì 27 febbraio 2026.
Il presidente Donald J. Trump e la Casa Bianca pubblicato sui social media ordinando a tutte le agenzie federali di cessare immediatamente di utilizzare la tecnologia di Anthropic, il produttore della potente famiglia di modelli di intelligenza artificiale Claude, dopo, secondo quanto riferito, mesi di rinegoziazione di un contratto di meno di due anni. Seguendo l’esempio del Presidente, Il segretario alla Guerra Pete Hegseth ha detto che avrebbe dato istruzioni al Dipartimento della Guerra per designare Anthropic un “rischio nella catena di fornitura per la sicurezza nazionale”, una lista nera tradizionalmente riservata advert avversari stranieri come Huawei o Kaspersky Lab.
La mossa pone high quality di fatto al contratto militare da 200 milioni di dollari di Anthropic e fissa una dura scadenza di sei mesi affinché il Dipartimento della Guerra possa cancellare Claude dai suoi sistemi.
Ma ultimamente gli affari di Anthropic sono andati a gonfie vele il solo servizio Claude Code decolla in una divisione ARR da oltre 2,5 miliardi di dollari meno di un anno dopo il lancio e ha appena annunciato a Serie G da 30 miliardi di dollari con una valutazione di 380 miliardi di dollari all’inizio di questo mese e lo ha fatto, più o meno da solo ha stimolato massicci cali azionari nel settore SaaS rilasciando plug-in e competenze per specifiche funzioni aziendali e di settore verticalizzato, tra cui risorse umane, progettazione, ingegneria, operazioni, analisi finanziaria, funding banking, ricerca azionaria, personal fairness e gestione patrimoniale.
Ironicamente, le aziende SaaS di tutti i settori e settori come Salesforce, Spotify, Novo Nordisk, Thompson Reuters e altre stanno segnalando alcuni dei maggiori vantaggi in termini di produttività e prestazioni grazie ai migliori benchmark di Anthropic, ai modelli Claude AI altamente capaci ed efficaci. Non è esagerato affermare che Anthropic è tra i laboratori di intelligenza artificiale di maggior successo negli Stati Uniti e nel mondo.
Allora perché ora viene considerato un “rischio nella catena di fornitura per la sicurezza nazionale?”
Perché il Pentagono designa Anthropic un “rischio nella catena di approvvigionamento per la sicurezza nazionale” e perché proprio adesso?
La rottura nasce da una disputa fondamentale su “tutti gli usi leciti”. Il Pentagono ha chiesto l’accesso illimitato a Claude per qualsiasi missione ritenuta legale, nel frattempo L’amministratore delegato di Anthropic, Dario Amodei, ha rifiutato di cedere su due specifiche “linee rosse”: l’uso dei suoi modelli per la sorveglianza di massa dei cittadini americani e armi letali completamente autonome.
Hegseth ha definito il rifiuto “arroganza e tradimento”, mentre Amodei ha sostenuto che tali barriere sono essenziali per prevenire “un’escalation involontaria o il fallimento della missione”.
La ricaduta è immediata; il Dipartimento della Guerra ha ordinato a tutti gli appaltatori e associate di interrompere immediatamente la conduzione di attività commerciali con Anthropic in modo efficace, sebbene il Pentagono stesso abbia una finestra di 180 giorni per passare a fornitori “più patriottici”.
Il vuoto lasciato da Anthropic è già stato riempito dai suoi principali rivali. Il CEO di OpenAI Sam Altman ha appena annunciato un accordo con il Pentagono ciò embody due “principi di sicurezza” dal suono simile, anche se non è ancora chiaro se siano lo stesso tipo di linguaggio contrattuale. All’inizio della giornata, OpenAI ha annunciato a l’incredibile round di investimenti da 110 miliardi di dollari guidato da Amazon, Nvidia e SoftBank.
Secondo quanto riferito, xAI di Elon Musk ha firmato un accordo per consentire l’utilizzo del suo modello Grok in sistemi altamente classificati, avendo accettato lo customary “tutti gli usi leciti” che Anthropic ha rifiutato, ma si cube che scarsamente valutati tra i lavoratori governativi e militari già utilizzandolo.
Nel frattempo, Anthropic ha dichiarato la sua intenzione di contestare la designazione in tribunale e ha incoraggiato i propri clienti commerciali a continuare a utilizzare i suoi prodotti e servizi advert eccezione del lavoro militare.
Cosa significa per le imprese: l’imperativo dell’interoperabilità
Per i decisori tecnici delle imprese, il “Divieto antropico” è un chiaro appello che trascende la politica specifica dell’amministrazione Trump. Indipendentemente dal fatto che tu sia d’accordo con la posizione etica di Anthropic (come me) o con la posizione del Pentagono, il punto fondamentale è lo stesso: l’interoperabilità dei modelli è più importante che mai.
Se l’intero flusso di lavoro dell’agente o lo stack rivolto al cliente è codificato nell’API di un singolo fornitore, non sarai abbastanza agile o flessibile da soddisfare le richieste di un mercato in cui alcuni potenziali clienti, come l’esercito o il governo statunitense, vogliono che tu utilizzi o eviti modelli specifici come condizioni dei tuoi contratti con loro.
La mossa più prudente in questo momento non è necessariamente quella di premere il pulsante “Elimina” su Claude, che rimane il modello migliore della categoria per la codifica e il ragionamento sfumato, ma assicurarsi di avere un “heat standby”.
Ciò significa utilizzare livelli di orchestrazione e formati di immediate standardizzati che consentono di alternare tra Claude, GPT-4o e Gemini 1.5 Professional senza un massiccio degrado delle prestazioni. Se non puoi cambiare fornitore in uno dash di 24 ore, la tua catena di fornitura è fragile.
Diversifica la tua offerta di IA
Mentre i giganti statunitensi lottano per ottenere il favore del Pentagono, il mercato si sta frammentando in modi che offrono coperture sorprendenti.
Google Gemini ha visto il suo picco azionario in seguito alla notizia, e la nuova massiccia infusione di liquidità di OpenAI da parte di Amazon (ex fedele alleato antropico) segnala un consolidamento del potere.
Tuttavia, non trascurare le different “aperte” e internazionali. Alle aziende statunitensi piace Airbnb ha già fatto scalpore puntando su modelli open source cinesi a basso costo come Qwen di Alibaba per alcune funzioni del servizio clienti, citando costi e flessibilità.
Sebbene i modelli cinesi comportino una serie di rischi geopolitici probabilmente maggiori, per alcune imprese fungono da valida copertura contro l’attuale volatilità del mercato interno statunitense.
Più realisticamente per la maggior parte, il passaggio verso l’internet hosting interno tramite birre domestiche come la serie GPT-OSS di OpenAI, Granite di IBM, Llama di Meta, i modelli Trinity di Arcee, Olmo di AI2, i modelli LFM2 più piccoli di Liquid AI o altri pesi open supply advert alte prestazioni è la polizza assicurativa definitiva. Strumenti di benchmarking di terze parti come Analisi artificiale E Pinchbench può aiutare le aziende a decidere quali modelli soddisfano i propri criteri di costo e prestazioni nelle attività e nei carichi di lavoro che vengono implementati.
Eseguendo modelli localmente o in un cloud privato e ottimizzandoli sui tuoi dati proprietari, isolerai la tua azienda dalle guerre dei “Termini di servizio” e dalle liste nere federali.
Anche se un modello secondario è leggermente inferiore in termini di prestazioni di riferimento, averlo pronto per l’espansione previene un blackout totale se il tuo fornitore primario viene improvvisamente “assediato” da ritorsioni del governo. È semplicemente un buon affare: devi diversificare la tua offerta.
La nuova due diligence
In qualità di chief aziendale, la tua lista di controllo della due diligence si è appena ampliata grazie a una unstable lotta tra il settore federale e quello privato.
Il punto è chiaro: se intendi mantenere affari con le agenzie federali, devi essere in grado di certificare loro che i tuoi prodotti non sono costruiti su nessun singolo fornitore di modelli proibiti, per quanto improvvisa story designazione possa cadere.
In definitiva, questa è una lezione di ridondanza strategica. L’period dell’intelligenza artificiale avrebbe dovuto riguardare la democratizzazione dell’intelligence, ma attualmente sembra una classica battaglia sugli appalti della difesa e sul potere esecutivo.
Proteggi i tuoi fornitori di backup e diversificati, costruisci per la portabilità e non lasciare che i tuoi “agenti” diventino un danno collaterale nella guerra tra il governo e una specifica azienda.
Che tu sia motivato dal sostegno ideologico all’antropologia o dalla spietata protezione dei profitti, il percorso da seguire è lo stesso: diversificare, disaccoppiare ed essere pronti a entrare e uscire rapidamente.
L’interoperabilità dei modelli è appena diventata il nuovo “must-have” aziendale.













