Sembra che le tensioni tra il Pentagono e Anthropic, l’unica azienda che cerca di mantenere l’immagine pubblica di voler realizzare sistemi di intelligenza artificiale sicuri ed etici, sembrano aumentare.
Lo ha riferito Axios Lunedì il segretario alla Difesa Pete Hegseth sta valutando non solo di recidere i legami commerciali del Dipartimento della Difesa con Anthropic, ma anche di designare l’azienda di intelligenza artificiale come un rischio per la catena di approvvigionamento. Secondo un anonimo alto funzionario del Pentagono, una story designazione costringerebbe qualsiasi appaltatore che cercasse di lavorare con l’esercito americano a tagliare i legami con Anthropic, creando un problema finanziario molto più grande per la startup.
“Sarà un’enorme rottura di palle districarsi, e faremo in modo che paghino un prezzo per averci forzato la mano in questo modo”, ha detto il funzionario advert Axios.
La disputa sembra derivare dalla riluttanza di Anthropic a consentire l’uso militare illimitato dei suoi sistemi di intelligenza artificiale. Attualmente, i modelli di Anthropic sono gli unici strumenti di intelligenza artificiale disponibili all’interno di sistemi militari classificati tramite fornitori di terze parti, come Palantir Applied sciences, e anche in questo caso presentano alcune restrizioni. Lo ha riferito in precedenza la Reuters che i dirigenti di Anthropic hanno detto ai funzionari militari che non vogliono che i loro sistemi vengano utilizzati per il focusing on di armi autonome o per la sorveglianza interna.
Il Pentagono ha anche esercitato pressioni su altre società di intelligenza artificiale, tra cui Google, OpenAI e xAI, affinché consentano l’uso dei loro modelli per “tutti gli usi leciti”. Al momento, non è chiaro se quelli
La settimana scorsa, Annunciato OpenAI di aver reso disponibile una versione personalizzata di ChatGPT tramite la piattaforma AI aziendale del dipartimento, GenAI.mil. Il sistema, lanciato a dicembre, è utilizzato da circa 3 milioni di civili e militari e embrace già versioni personalizzate degli strumenti di xAI e Gemini di Google. Claude di Anthropic non è stato aggiunto alla piattaforma.
Una fonte del Pentagono aveva precedentemente detto advert Axios che Anthropic è la più “ideologica” delle società di intelligenza artificiale con cui sta lavorando.
Le tensioni segnano un netto cambiamento rispetto alla scorsa property, quando Anthropic ha celebrato un accordo valere fino a 200 milioni di dollari con il Dipartimento della Difesa. All’epoca, la società affermò che il premio apriva “un nuovo capitolo nell’impegno di Anthropic a sostegno della sicurezza nazionale degli Stati Uniti”.
Più recentemente, tuttavia, l’amministratore delegato Dario Amodei ha messo in guardia sui rischi legati agli usi militari e governativi dell’intelligenza artificiale.
“Dobbiamo, in qualche modo, essere protetti dall’intelligenza artificiale e qualcuno deve tenere premuto il pulsante sullo sciame di droni, il che è qualcosa di cui sono molto preoccupato, e questo controllo non esiste oggi”, ha detto Amodei durante un’apparizione la scorsa settimana sul podcast del New York Instances. Tempi interessanti con Ross Douthat.
Anthropic non ha risposto immediatamente a una richiesta di commento.
“Il rapporto del Dipartimento della Guerra con Anthropic è in fase di revisione. La nostra nazione richiede che i nostri companion siano disposti advert aiutare i nostri combattenti a vincere in qualsiasi combattimento”, ha detto a Gizmodo il portavoce capo del Pentagono Sean Parnell in una dichiarazione through e-mail. “In definitiva, si tratta delle nostre truppe e della sicurezza del popolo americano”.













