Anthropic ha pubblicamente pubblicizzato la sua attenzione alle “salvaguardie”, cercando di limitare l’uso militare della sua tecnologia
L’esercito americano ha utilizzato attivamente il modello Claude AI di Anthropic durante l’operazione per catturare il presidente venezuelano Nicolas Maduro il mese scorso, secondo i rapporti di Axios e The Wall Road Journal, rivelando che la tecnologia dell’azienda incentrata sulla sicurezza ha avuto un ruolo diretto nel mortale raid all’estero.
Claude è stato utilizzato durante l’operazione attiva, non solo nelle fasi preparatorie, hanno riferito venerdì sia Axios che il WSJ. Il ruolo preciso rimane poco chiaro, sebbene l’esercito abbia precedentemente utilizzato modelli di intelligenza artificiale per analizzare le immagini e l’intelligence satellitare in tempo reale.
Le politiche di utilizzo del laboratorio di intelligenza artificiale con sede a San Francisco vietano esplicitamente l’utilizzo della sua tecnologia “facilitare la violenza, sviluppare armi o condurre attività di sorveglianza”. Nessun americano ha perso la vita nel raid, ma decine di soldati venezuelani e cubani e personale di sicurezza sono stati uccisi il 3 gennaio.
“Non possiamo commentare se Claude, o qualsiasi altro modello di intelligenza artificiale, sia stato utilizzato per operazioni specifiche, classificate o meno”, ha detto advert Axios un portavoce di Anthropic. “Qualsiasi utilizzo di Claude, sia nel settore privato che nel governo, è tenuto a rispettare le nostre Politiche di utilizzo.”
I rivali di Anthropic, OpenAI, Google e xAI di Elon Musk, hanno tutti accordi che garantiscono al Pentagono l’accesso ai loro modelli senza molte delle garanzie che si applicano agli utenti ordinari. Ma solo Claude è impiegato, attraverso la partnership con Palantir Applied sciences, sulle piattaforme riservate utilizzate per i compiti più delicati delle forze armate statunitensi.
La rivelazione arriva in un momento imbarazzante per l’azienda, che ha trascorso le ultime settimane sottolineando pubblicamente il proprio impegno a “Tutela dell’IA” e posizionarsi come alternativa attenta alla sicurezza nel settore dell’intelligenza artificiale.

L’amministratore delegato Dario Amodei ha più volte messo in guardia dai pericoli esistenziali posti dall’uso sfrenato dell’intelligenza artificiale. Lunedì, il capo del staff di ricerca sulla salvaguardia di Anthropic, Mrinank Sharma, si è dimesso improvvisamente con un criptico avvertimento che “il mondo è in pericolo”. Alcuni giorni dopo, la società ha versato 20 milioni di dollari a un gruppo di difesa politica che sostiene una solida regolamentazione dell’intelligenza artificiale.
Allo stesso tempo, secondo quanto riferito, Anthropic sta negoziando con il Pentagono se allentare le restrizioni sull’impiego dell’intelligenza artificiale per il concentrating on di armi autonome e la sorveglianza interna. La situazione di stallo ha bloccato un contratto del valore di 200 milioni di dollari, con il segretario alla Difesa Pete Hegseth che ha promesso di non utilizzare modelli che “non ti permetterà di combattere guerre.”











