Nella sua denuncia di Anthropic, il Segretario alla Difesa (o Segretario alla Guerra se preferite) Pete Hegseth pubblicato su X che “I Termini di servizio dell’altruismo difettoso di Anthropic non supereranno mai la sicurezza, la prontezza o la vita delle truppe americane sul campo di battaglia”, e poi ha aggiunto nello stesso submit, “Anthropic continuerà a fornire al Dipartimento della Guerra i suoi servizi per un periodo non superiore a sei mesi per consentire una transizione senza soluzione di continuità verso un servizio migliore e più patriottico.”
Ha inoltre definito la posizione di Anthropic, ferma contro ipotetici usi futuri dei suoi prodotti per la sorveglianza di massa o per armi completamente autonome, come una “duplicità” e un “tradimento” nel dichiarare Anthropic un rischio per la catena di approvvigionamento, e vietando l’uso dei suoi prodotti tra gli appaltatori militari.
Quando le azioni di qualcuno raggiungono il livello di tradimento contro di me – un pugnale alla schiena, in altre parole – tendo a farla finita con loro, ma mancavano solo poche ore all’inizio di una nuova grande guerra quando Hegseth lo disse, e così, secondo quanto riportato dal Wall Street Journal E Axiossembra che Hegseth abbia tirato fuori il proverbiale pugnale e abbia continuato a lavorare con Anthropic.
Il Journal afferma che il Comando Centrale del Pentagono (CENTCOM) utilizza Claude di Anthropic in qualche modo per “valutazioni di intelligence, identificazione di obiettivi e simulazione di scenari di battaglia”.
Come ho notato ieri, l’app cellular Claude rivolta al consumatore ha scalato le classifiche, raggiungendo nuove vette di popolarità da quando Donald Trump ha dichiarato il crew di Anthropic un mucchio di “lavori da pazzi di sinistra”. All’epoca, Claude period l’app gratuita numero 2 nell’App Retailer di Apple, ma Ryan Donegan, un portavoce di Anthropic, ha inviato un’e-mail a Gizmodo ieri sera per dire che “ha appena raggiunto il primo posto nell’App Retailer statunitense, un massimo storico. Superando ChatGPT come l’app più scaricata”.
Non è chiaro, tuttavia, quanto di questa ritrovata popolarità sia collegata al conflitto di Anthropic con il governo, dal momento che secondo Donegan, le iscrizioni giornaliere per Claude sono triplicate negli ultimi quattro mesi.
OpenAI, nel frattempo, ha sbandierato un legame sempre più stretto con il Pentagono grazie a un nuovo accordo che prevede applicazioni militari dei prodotti OpenAI in casi d’uso classificati. Anthropic, “potrebbe aver voluto un maggiore controllo operativo rispetto a noi”, ha affermato Sam Altman, CEO di OpenAI ha da allora affermato.
In ogni caso, Anthropic e OpenAI si occupano entrambi di ipotesi sul futuro. Non ci sono killbot alimentati da ChatGPT che operano improvvisamente in Iran a causa del nuovo accordo di OpenAI con il governo. Ma, a quanto pare, ci sono state operazioni informate in un modo o nell’altro dalla modellizzazione e dalla ricerca basate su Claude.
E tutto indica che tali usi incontrano l’approvazione del CEO di Anthropic, Dario Amodei. “Siamo ancora interessati a lavorare con loro purché sia in linea con le nostre linee rosse”, Amodei ha detto ieri del Pentagono.











