Anthropic, la società di intelligenza artificiale dietro il popolare chatbot Claude AI, ha ricevuto elogi la scorsa settimana per essersi opposta all’amministrazione Trump sull’uso dei suoi strumenti di intelligenza artificiale da parte delle forze armate statunitensi.
Ma l’azienda potrebbe invertire la rotta.
Secondo un nuovo rapporto del Tempi finanziariAnthropic e il Dipartimento della Difesa degli Stati Uniti hanno riaperto i negoziati su come il governo può sfruttare la tecnologia Anthropic per scopi militari.
La rottura tra Anthropic e il governo degli Stati Uniti è iniziata dopo che la società di intelligenza artificiale ha ricevuto un contratto da 200 milioni di dollari dal Dipartimento della Difesa degli Stati Uniti.
Tuttavia, il CEO di Anthropic, Dario Amodei, in seguito ha voluto garanzie che il governo degli Stati Uniti non avrebbe utilizzato i suoi modelli Claude AI per la sorveglianza interna o per armi autonome. L’amministrazione Trump ha rifiutato questa richiesta, affermando che utilizzerà la tecnologia dell’intelligenza artificiale per qualsiasi scopo “lecito”.
Trailer di “The AI Doc”: Sam Altman, Dario Amodei e altri discutono del futuro precario dell’IA
Quando i colloqui tra Anthropic e il governo degli Stati Uniti si interruppero, il segretario alla Difesa Pete Hegseth minacciò addirittura di designare l’azienda come un rischio per la sicurezza nazionale nella catena di approvvigionamento.
Il presidente Trump chiamato Antropico una “sinistra radicale, si è svegliata” in un put up su Fact Social e ha ordinato al governo federale di cessare di utilizzare la tecnologia di Anthropic nei sei mesi successivi.
Velocità della luce mashable
IL Tempi finanziari riferisce che Amodei ha ripreso i negoziati nella speranza di evitare la designazione a rischio della catena di fornitura. Amodei sta ora discutendo i termini di un potenziale accordo con il sottosegretario alla Difesa Emil Michael, che ha definito l’amministratore delegato di Anthropic “un bugiardo” con un “complesso divino” un post sui social media proprio la settimana scorsa.
Questo Tweet non è al momento disponibile. Potrebbe essere in fase di caricamento o è stato rimosso.
“Verso la advantageous della trattativa il [department] ci siamo offerti di accettare i nostri termini attuali se avessimo eliminato una frase specifica sull'”analisi dei dati acquisiti in massa”, che period l’unica riga del contratto che corrispondeva esattamente allo situation di cui eravamo più preoccupati,” ha affermato Amodei in una nota interna ai dipendenti di Anthropic, come riportato da L’informazione. “Lo abbiamo trovato molto sospetto.”
Alcuni giorni dopo che i colloqui tra Anthropic e il Dipartimento della Difesa si erano interrotti, OpenAI annunciato di aver ottenuto un accordo con il governo degli Stati Uniti per l’utilizzo dei suoi strumenti di intelligenza artificiale per uso militare in “ambienti classificati”.
OpenAI ha ricevuto rapidamente critiche da parte degli utenti, costringendo il CEO Sam Altman a tentare di affrontare le preoccupazioni. Pochi giorni dopo, un nota interna è trapelato da Altman, in cui il CEO di OpenAI ha detto ai dipendenti che avrebbe modificato il suo accordo con il governo federale, poiché l’accordo period stato affrettato. Altman ha affermato che il governo degli Stati Uniti ha assicurato a OpenAI che non utilizzerà la sua tecnologia per la sorveglianza domestica.
Secondo quanto riferito, la nota interna di Amodei ha criticato Altman, definendo OpenAI e le dichiarazioni del Pentagono sui problemi con Anthropic “semplicemente bugie”. Amodei ha accusato Altman di aver preso parte a un “teatro di sicurezza” riguardo alla sua presentazione dell’accordo e ha affermato che i dipendenti di OpenAI che credevano nella società erano “una specie di gruppo ingenuo”.
Se Amodei riuscisse a ottenere un nuovo accordo con il governo federale, le forze armate statunitensi continuerebbero a utilizzare la tecnologia, che è secondo quanto riferito già utilizzato per lanciare attacchi in Iran.
“Vuoi saperne di più sulla tua tecnologia preferita? Iscriviti alla e-newsletter High Tales and Offers di Mashable Oggi.”
Divulgazione: Ziff Davis, la società madre di Mashable, nell’aprile 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.













