Anthropic è in disaccordo con il Dipartimento della Difesa su come dovrebbero essere utilizzati i suoi modelli di intelligenza artificiale, e il suo lavoro con l’agenzia è “sotto revisione”, ha detto alla CNBC un portavoce del Pentagono.
Alla startup quinquennale è stato assegnato un $ 200 milioni contratto con il Dipartimento della Difesa lo scorso anno. A partire da febbraio, Anthropic è l’unica società di intelligenza artificiale che ha implementato i suoi modelli sulle reti riservate dell’agenzia e ha fornito modelli personalizzati ai clienti della sicurezza nazionale.
Ma i negoziati sui termini di utilizzo “progressivi” hanno incontrato un intoppo, ha detto martedì Emil Michael, sottosegretario alla Guerra per la ricerca e l’ingegneria, durante un vertice sulla difesa in Florida.
Anthropic vuole la garanzia che i suoi modelli non verranno utilizzati per armi autonome o per “spiare gli americani in massa”, secondo un rapporto da Axios.
Il Dipartimento della Difesa, al contrario, vuole utilizzare i modelli di Anthropic “per tutti i casi d’uso leciti” senza limitazioni.
“Se qualche azienda non vuole accogliere questo problema, per noi è un problema”, ha detto Michael. “Potrebbe creare una dinamica in cui iniziamo a usarli e ci abituiamo a come funzionano questi modelli, e quando arriva il momento di usarli in una situazione urgente, ci viene impedito di usarli.”
È l’ultima piega nel rapporto sempre più difficile di Anthropic con l’amministrazione Trump, che ha criticato pubblicamente l’azienda negli ultimi mesi.
David Sacks, il enterprise capitalist che funge da zar dell’IA e delle criptovalute dell’amministrazione, ha accusato Anthropic di sostenere la “woke AI” a causa della sua posizione sulla regolamentazione.
Un portavoce di Anthropic ha affermato che la società sta avendo “conversazioni produttive, in buona fede” con il Dipartimento della Difesa su come “risolvere queste complesse questioni”.
“Anthropic si impegna a utilizzare l’intelligenza artificiale di frontiera a sostegno della sicurezza nazionale degli Stati Uniti”, ha affermato il portavoce.
I rivali della startup OpenAI, Google e xAI hanno anche ottenuto contratti fino a 200 milioni di dollari dal DoD lo scorso anno.
Queste società hanno acconsentito a consentire al Dipartimento della Difesa di utilizzare i loro modelli per tutti gli scopi legali all’interno dei sistemi militari non classificati, e una società ha acconsentito a “tutti i sistemi”, secondo un alto funzionario del Dipartimento della Difesa che ha chiesto di restare anonimo perché le negoziazioni sono confidenziali.
Se Anthropic alla superb non fosse d’accordo con i termini di utilizzo del Dipartimento della Difesa, l’agenzia potrebbe etichettare l’azienda come un “rischio nella catena di fornitura”, che richiederebbe ai suoi fornitori e appaltatori di certificare che non utilizzano i modelli di Anthropic, ha affermato la persona.
La designazione è tipicamente riservata agli avversari stranieri, quindi sarebbe un duro colpo per Anthropic.
L’azienda è stata fondata da un gruppo di ex ricercatori e dirigenti di OpenAI nel 2021 ed è nota soprattutto per lo sviluppo di una famiglia di modelli di intelligenza artificiale chiamata Claude
Anthropic ha annunciato all’inizio di questo mese di aver chiuso un spherical di finanziamento da 30 miliardi di dollari con una valutazione di 380 miliardi di dollari, più del doppio del valore dell’ultimo aumento di settembre.
OROLOGIO: Anthropic debutta con il modello Sonnet 4.6









