In un X post venerdì seraSam Altman ha annunciato che la sua azienda, OpenAI, aveva appena “raggiunto un accordo con il Dipartimento di Guerra per implementare i nostri modelli nella loro rete riservata”. Il tempismo è allo stesso tempo sorprendente e significativo, rendendo Altman una sorta di manifesto dell’intelligenza artificiale in guerra.
Ore prima, al principale concorrente di OpenAI, Anthropic, period stato detto che i suoi prodotti avevano ricevuto una sorta di lista nera dal Pentagono, una designazione di “rischio nella catena di approvvigionamento per la sicurezza nazionale”. Anthropic ha dichiarato “linee rosse” sull’uso della sua tecnologia per la sorveglianza di massa e armi completamente autonome, e il Pentagono lo trova inaccettabile. Quindi, secondo il Segretario alla Guerra Pete Hegsethnessuna azienda che collabora con il Pentagono “può condurre alcuna attività commerciale con Anthropic”.
Come nota Axiosresta da vedere la rubrica legale del Pentagono per la designazione, e la designazione di rischio della catena di fornitura è solitamente riservata alle aziende con sede e potenzialmente sostenitori di paesi ritenuti ostili agli Stati Uniti. In ogni caso, la mossa corrisponde al modello ben consolidato di Trump 2.0 di colpire qualsiasi partito che scontenta l’amministrazione con la mazza più grande e appuntita disponibile, e lasciare che i tribunali decidano in seguito se l’uso di una determinata mazza fosse valido o meno.
Ma la perdita di Anthropic è, almeno teoricamente, il guadagno di Sam Altman. Per sostenere un po’, l’esistenza stessa di Anthropic è uno schiaffo in faccia advert Altman, poiché Anthropic è stato creato in primo luogo essenzialmente come spin-off di OpenAI, presumibilmente dedicato a normal di etica e sicurezza che Amodei e il suo team hanno percepito che OpenAI non aveva rispettato. Quindi gli spot pubblicitari del Tremendous Bowl in cui Anthropic distruggeva OpenAI in modo non così subdolo non erano, a quanto pare, il prodotto di una rivalità amichevole. Altman e il fondatore e amministratore delegato di Anthropic, Dario Amodei, non riescono a nascondere la loro apparente animosità reciproca. Durante un servizio fotografico per i chief dell’intelligenza artificiale in India all’inizio di questo mese, i due rifiutarono vistosamente di intrecciare le mani.
Come ha già notato il mio collega di Gizmodo AJ Dellinger, le osservazioni trapelate di Sam Altman apparentemente programmate per andare d’accordo con l’accordo con il Pentagono di OpenAI mostrano che Altman tenta di afferrare una sorta di posizione morale simile a quella di Amodei sulla sorveglianza e sui killbot autonomi. Ma qualsiasi affermazione del genere da parte di Altman è già stata respinta come pura spacconata dal Dipartimento di Stato ed ex funzionario del DOGE Jeremy Lewin, che pubblicato su X che i principi dichiarati di Altman erano, in pratica, solo qualche sciocchezza di benessere aggiunta all’accordo che in realtà dava a OpenAI, lascia intendere fortemente Lewin, potere zero per impedire al Pentagono di fare quello che vuole con i modelli di OpenAI. A differenza di Anthropic, l’azienda ha “raggiunto la risposta patriottica e corretta qui”, scrive Lewin.
Ma le perplessità di Altman sulle “linee rosse” di Anthropic erano già contraddette nello spirito dalle osservazioni fatte all’inizio di questo mese su Anthropic. nel suo lungo post su X sulle meschine pubblicità di Anthropic per il Super Bowl (vale la pena leggerlo per intero perché è un esempio di esistenza da corridor of fame Non pazzo).
Innanzitutto, la parte migliore delle pubblicità di Anthropic: sono divertenti e ho riso.
Ma mi chiedo perché Anthropic dovrebbe optare per qualcosa di così chiaramente disonesto. Il nostro principio più importante per la pubblicità cube che non faremo esattamente questo; ovviamente non pubblicheremo mai annunci nel modo Anthropic…
— Sam Altman (@sama) 4 febbraio 2026
Nel lamentarsi della pubblicità, Altman fa una lunga deviazione per parlare, essenzialmente, della stessa cosa che ha fatto arrabbiare il Pentagono. L’azienda di Amodei, cube Altman, “vuole controllare ciò che le persone fanno con l’intelligenza artificiale”. Inoltre, cube, “impediscono alle aziende che non apprezzano di utilizzare i loro prodotti di codifica (inclusi noi), [and] vogliono scrivere loro stessi le regole per ciò per cui le persone possono e non possono usare l’intelligenza artificiale”.
Qualunque sia il termine che desideri utilizzare per la strategia di Anthropic, è stato straordinariamente efficace dal punto di vista aziendale. Se il 2025 fosse L’anno del successo dell’intelligenza artificiale di Googleil 2026 è stato, finora, quello di Anthropic, con l’hype attorno al suo prodotto di punta, Claude Code, che ha causato il versione aziendale del terremoto ChatGPT del 2022. Le mosse quotidiane di Anthropic hanno definito l’agenda di Wall Avenue durante tutto l’anno. Questo mese, Antropico ha superato OpenAI in termini di denaro totale raccolto.
Ma, piuttosto stranamente, Altman ha anche assunto una posizione dal suono populista nel suo sfogo anti-antropopico al Tremendous Bowl, in cui ha affermato che “Anthropic serve un prodotto costoso ai ricchi”. Ciò è effettivamente privo di significato poiché OpenAI e Anthropic fanno pagare entrambi gli abbonamenti e l’accesso alle API. Ma Altman sembra posizionare ChatGPT supportato da pubblicità e forse qualche futura versione supportata da pubblicità del suo prodotto di codifica, Codex, come versioni democratiche e normali di questi prodotti, e in contrasto con Anthropic che è per “persone ricche”. La sua inquadratura prevista potrebbe non essere quella che il pubblico assorbe.
Per essere chiari, qui la realtà e la percezione potrebbero trovarsi su due binari completamente diversi. Il Pentagono nega che le motivazioni addotte da Anthropic siano il nocciolo della questione. “Questo non ha nulla a che fare con la sorveglianza di massa e l’uso di armi autonome. Il Pentagono ha dato solo ordini legittimi”, ha dichiarato ufficialmente il Pentagono anonimo. secondo quanto riferito, ha detto a CBS News. Inoltre, Antropico regole autoimposte che ne limitano la capacità di espansione sono stati rivisti martedì in linee guida flessibili.
Quindi non c’è motivo di credere nella narrativa secondo cui il prodotto Anthropic ha un “anima”, o che Anthropic sia davvero qualcosa di diverso da una società a scopo di lucro e di pubblica utilità, che deve far fronte alle restrizioni imposte dal suo insolito certificato di costituzione che le impone di guadagnare quanto più denaro possibile affermando anche di “sviluppare e mantenere in modo responsabile l’intelligenza artificiale avanzata per il beneficio a lungo termine dell’umanità”. Sembra che sia un problema difficile da infilare, perché anche dopo che il Pentagono lo ha inserito nella lista nera, Amodei ha disse“Siamo ancora interessati a lavorare con loro purché sia in linea con le nostre linee rosse.”
Ma essere etichettato come “SINISTRA RADICALE, WOKE COMPANY” di Donald Trump potrebbe rivelarsi un’astuta manovra commerciale.
Alcune ore dopo l’annuncio di Altman di un accordo con il Pentagono di Trump, lo stesso Pentagono ha lanciato quello che il presidente ha definito “importanti operazioni di combattimento“contro l’Iran insieme a Israele. A sondaggio dell’Associated Press e dell’Università di Chicago pubblicato all’inizio di questa settimana ha mostrato che la maggioranza degli americani ha già poca o nessuna fiducia in Trump quando si tratta di sicurezza nazionale, e un nuovo Sondaggio YouGov dimostra che sono più sfavorevoli che favorevoli alla guerra con l’Iran. UN Sondaggio Gallup pubblicato ieri ha scoperto, in modo piuttosto sorprendente, che ora “simpatizzano” più i palestinesi che gli israeliani.
In questo contesto politico, la lotta sulle “linee rosse” di Anthropic con il Pentagono ha creato uno spazio simbolico etichettato con grandi lettere al neon “Un’intelligenza artificiale indiscutibilmente amichevole con la macchina da guerra degli Stati Uniti” e ha spostato la narrativa della sua azienda completamente al di fuori di esso. Sam Altman e OpenAI, a quanto pare, stanno intervenendo volentieri.
Secondo il Pentagono, gli appaltatori militari che attualmente utilizzano prodotti Anthropic come Claude Code avranno sei mesi per eliminarli gradualmente, e Anthropic ha già dichiarato che nel frattempo contestare questa designazione in tribunale. Durante quel periodo, tuttavia, la percezione pubblica di Anthropic sarà svincolata dalla percezione di questa nuova guerra con l’Iran. Lo stesso non si può dire di OpenAI.












