I funzionari del Pentagono hanno inviato mercoledì sera Antropico la loro migliore e ultima offerta nelle negoziazioni per l’utilizzo della tecnologia di intelligenza artificiale dell’azienda, poco prima della scadenza imposta dal governo, secondo fonti vicine alle discussioni.
Non è chiaro se l’offerta abbia cambiato sostanzialmente ciò che il governo chiedeva alla startup di intelligenza artificiale o se la società avesse accettato.
Il segretario alla Difesa Pete Hegseth ha fissato una scadenza di venerdì sera affinché la società conceda tutto l’uso legale della sua tecnologia AI o affronterà la perdita dei suoi affari con l’esercito americano, hanno detto a CBS Information fonti vicine alla situazione.
I portavoce dell’azienda non hanno risposto immediatamente alla richiesta di commento giovedì mattina.
Un alto funzionario del Pentagono ha detto giovedì che Anthropic dovrà affrontare non solo la perdita di affari, ma anche l’etichettatura di un rischio per la catena di approvvigionamento.
I funzionari del Pentagono stanno anche valutando la possibilità di invocare il Protection Manufacturing Act per far sì che Anthropic aderisca a ciò che i militari stanno cercando, ovvero il pieno controllo della sua tecnologia AI da utilizzare nelle operazioni militari, hanno detto fonti a CBS Information.
L’azienda è stato premiato un contratto da 200 milioni di dollari stipulato dal Pentagono a luglio per sviluppare capacità di intelligenza artificiale che migliorerebbero la sicurezza nazionale degli Stati Uniti.
Anthropic ha ripetutamente chiesto ai funzionari della difesa di accettare dei guardrail che impedirebbero al suo modello di intelligenza artificiale, chiamato Claude, di condurre una sorveglianza di massa sugli americani, hanno detto fonti.
I funzionari di Trump hanno notato che questo tipo di sorveglianza è illegale e che il Pentagono segue la legge. I funzionari hanno anche affermato che l’esercito sta semplicemente chiedendo una licenza per utilizzare l’intelligenza artificiale esclusivamente per attività lecite.
L’amministratore delegato di Anthropic, Dario Amodei, vuole anche assicurarsi che Claude non venga utilizzato dal Pentagono per le decisioni finali sui bersagli nelle operazioni militari senza alcun coinvolgimento umano, ha detto una fonte vicina ai negoziati. Claude non è immune dalle allucinazioni e non è abbastanza affidabile da evitare errori potenzialmente letali, come un’escalation involontaria o il fallimento della missione senza il giudizio umano, ha detto la persona.
Martedì mattina, in un incontro al Pentagono, Hegseth ha concesso advert Amodei tempo fino alla fantastic di questa settimana per consegnare ai militari un documento firmato che garantirebbe pieno accesso al suo modello di intelligenza artificiale, secondo fonti vicine alla questione.













