Il Pentagono ha dato advert Anthropic, i creatori di Claude, un ultimatum: consentire ai militari accesso illimitato al suo modello di intelligenza artificiale, anche se i potenziali usi violano le stesse garanzie dell’azienda, altrimenti dovrà affrontare una punizione significativa. Anthropic ha rifiutato, con l’amministratore delegato Dario Amodei che ha affermato che la società “non può in buona coscienza accogliere” le richieste del Dipartimento della Difesa. Ora, Sam Altman, CEO di OpenAI, vorrebbe farvi sapere che anche lui avrebbe agito secondo principi se mai fosse stato necessario.
Nell’a promemoria distribuito ai dipendenti OpenAI giovedì sera– e sicuramente non trapelato cinicamente alla stampa in modo che tutti sappiano che ragazzo coraggioso sia Sam Altman – il fondatore e CEO ha detto alla sua azienda: “Crediamo da tempo che l’intelligenza artificiale non dovrebbe essere utilizzata per la sorveglianza di massa o per armi letali autonome, e che gli esseri umani dovrebbero rimanere nel circuito delle decisioni automatizzate advert alto rischio. Queste sono le nostre principali linee rosse. “
Queste sono, ovviamente, le stesse identiche linee rosse a cui si è attenuta Anthropic e che secondo quanto riferito sono state un problema per il Pentagono nonostante la sua insistenza sul voler utilizzare l’intelligenza artificiale solo per “tutti gli scopi leciti”. La migliore lettura su quella posizione è questa attualmente non esistono leggi che impediscano l’uso di armi autonomee il Pentagono vorrebbe utilizzare Claude per schierare in qualche modo il suo arsenale. Secondo quanto riferito, Anthropic ha già creato un’eccezione nella sua politica della linea rossa che consentirebbe al Dipartimento della Difesa di utilizzare Claude per “armi difensive”, ma ciò chiaramente non period sufficiente per l’agenzia, altrimenti questa situazione di stallo sarebbe già finita.
L’adozione della politica no-go di Anthropic da parte di Altman non lo pone nemmeno secondo in linea dietro Amodei nel tracciare una linea di demarcazione con i militari. Più di 100 dipendenti di Google lo hanno battuto sul tempofirmando e inviando una lettera al administration chiedendo all’azienda di adottare le stesse linee rosse di Anthropic se l’azienda intende continuare a fare affari con il Pentagono. Ma quella deve essere stata almeno una raffica abbastanza forte da permettere advert Altman di sentire dove soffiava il vento e piantare la sua bandiera.
Va riconosciuto il merito advert Anthropic, che in realtà ha dovuto tenere sotto controllo la pressione del Pentagono, i cui dettagli hanno continuato a trapelare nel corso della settimana. L’ultimo dettaglio, riportato dal Washington Postincluso il Dipartimento della Difesa che tempestava la compagnia di ipotesi come se Claude potesse essere usato per abbattere un missile balistico intercontinentale lanciato contro gli Stati Uniti. (Secondo quanto riferito, l’amministratore delegato di Anthropic ha detto al Dipartimento della Difesa di chiamare e chiedere, il che non è stata una risposta soddisfacente per il Pentagono, anche se Anthropic lo nega. studio recente ha scoperto che i chatbot, incluso Claude, lanciano armi nucleari nel 95% dei giochi di guerra, quindi fare una chiamata sembra l’ultimo dei potenziali risultati problematici.)
L’azienda non si è mossa, anche se il Pentagono ha minacciato di annullare i contratti governativi di Anthropic, di dichiarare Anthropic un “rischio nella catena di fornitura” e/o di invocare il Protection Manufacturing Act per costringere l’azienda a costruire un modello per gli scopi desiderati dai militari. Sembra che quelle minacce avrebbero potuto essere più spavalde di qualsiasi altra cosa, cosa che Anthropic probabilmente aveva previsto, in base al fatto che Lo ha riferito Bloomberg il Pentagono è ancora aperto al negoziato. La società ha anche più influenza di quanto si possa immaginare, dato che Palantir, la società preferita dal Dipartimento della Difesa, dispone di un’infrastruttura cloud si affida al modello di Anthropic per operare.
Con le sue armi più potenti incapaci di far cedere l’Anthropic, il Pentagono ha fatto ricorso a un nuovo approccio: insulti meschini. Il sottosegretario alla Difesa Emil Michael ha trascorso gran parte della giornata di giovedì facendo esplodere Anthropic su Twitterdefinendo Amodei un “bugiardo” con un “complesso di Dio” e sostenendo che l’amministratore delegato di Anthropic voleva “controllare personalmente l’esercito americano”. Ha anche affermato che la costituzione di Anthropic per Claude, un documento che stabilisce come dovrebbe agire il chatbot, period in realtà la società che cercava di posizionare le proprie regole per sostituire la Costituzione degli Stati Uniti, che non è affatto così che funziona.
È un po’ difficile immaginare che il Dipartimento della Difesa vinca questa situazione di stallo davanti al tribunale dell’opinione pubblica, dato che la posizione di Anthropic è “concordiamo di non spiare gli americani o lasciare che l’intelligenza artificiale attacchi le persone con armi nucleari”, e la risposta del Pentagono è stata “No”. Ma sembra proprio che l’agenzia voglia che la battaglia sia visibile a tutti, qualunque sia il motivo.












