Potresti aver sentito che il Dipartimento della Difesa e l’Anthropic stanno litigando per i guardrail della compagnia di intelligenza artificiale per Claude. Ogni giorno arrivano nuove fughe di notizie e ora il Washington Submit riferisce che il Pentagono avrebbe presentato uno situation che prevedeva un attacco missilistico nucleare contro gli Stati Uniti come un modo manipolativo per chiedere se gli sarebbe stato permesso di utilizzare il suo modello di intelligenza artificiale per difendere il paese.
“La risposta dell’amministratore delegato di Anthropic Dario Amodei ha irritato il Pentagono, secondo il funzionario, che ha caratterizzato la risposta dell’amministratore delegato come: potresti chiamarci e troveremo una soluzione”, il Washington Submit rapporti.
Al Pentagono questa risposta ovviamente non è piaciuta e Anthropic smentisce la versione. Ma il fatto stesso di avere questa discussione è una vera scossa per i sensi mentre pensiamo al futuro dell’intelligenza artificiale. Soprattutto perché il segretario alla Difesa Pete Hegseth minaccia di invocare il Protection Manufacturing Act per eliminare i guardrail di Claude e consentire all’intelligenza artificiale di impegnarsi in cose come la sorveglianza interna di massa e la guerra completamente automatizzata.
A quanto pare i chief militari americani vogliono utilizzare l’intelligenza artificiale in tutte le situazioni da cui la fantascienza degli ultimi 80 anni ci ha messo in guardia. Ed è piuttosto strano che un inverno nucleare indotto dall’intelligenza artificiale possa arrivare prima che i robotic ci rubino tutto il lavoro.
Quali posti di lavoro vengono sostituiti?
La maggiore automazione ha sempre significato una perdita di posti di lavoro. Queste paure sono state più pronunciate nel secolo scorso nel lavoro dei colletti blu, dove le macchine hanno sostituito il lavoro manuale di tanti esseri umani nelle fabbriche.
Ma l’ascesa dell’intelligenza artificiale negli ultimi anni ha portato queste paure nel mondo dei colletti bianchi, dove molti americani della classe media nella cosiddetta economia dell’informazione temono di essere sul punto di essere sostituiti da ChatGPT. E hanno ragione a essere preoccupati. Block ha annunciato giovedì che l’azienda licenzierà il 40% della sua forza lavoro perché l’intelligenza artificiale può svolgere il lavoro. Ma l’amministratore delegato di Block ha anche ammesso che la sua azienda ha assunto più personale durante la pandemia, sollevando sospetti sui suoi grandiosi proclami sull’intelligenza artificiale.
Non ci sono ancora stati licenziamenti di massa in tutta l’economia, ma certamente sì sente come se ciò accadesse, indipendentemente dal fatto che alla high-quality si materializzi o meno.
Abbassa i tuoi guardrail o odierai l’America
Allo stesso tempo, stiamo vedendo emergere un altro pericolo derivante dall’intelligenza artificiale che è probabilmente molto più importante: la guerra completamente automatizzata.
Martedì Pete Hegseth ha incontrato il CEO di Anthropic, Dario Amodei, e gli ha consegnato un ultimatum. O priveremo Claude delle sue garanzie, oppure Anthropic verrà etichettata come un “rischio della catena di fornitura”, una definizione che non è mai stata usata prima per etichettare un’azienda americana.
Oltre a ciò, Hegseth avrebbe minacciato di invocare il Protection Manufacturing Act, che avrebbe consentito al Pentagono di costringere Anthropic a sbarazzarsi comunque di quei guardrail. Gli Stati Uniti non sono ufficialmente in guerra e non esiste alcuna chiara emergenza che richieda l’applicazione del Protection Manufacturing Act.
È una posizione difficile per Anthropic e giovedì la società ha rilasciato una dichiarazione in cui afferma che non acconsentirà alle richieste dei militari. La scadenza per raggiungere un accordo con Anthropic è venerdì alle 17:01 ET, quindi vedremo cosa deciderà di fare il Pentagono.
Sembra tutto così terribilmente manipolativo, rievocando le argomentazioni post-11 settembre che avresti sentito a sostegno della tortura negli anni 2000. Faresti waterboarding a qualcuno se conoscesse i dettagli di un imminente attacco con bombe sporche negli Stati Uniti? Collegheresti i testicoli di qualcuno alla batteria di un’auto se ciò significasse fermare un altro 11 settembre?
L’intelligenza artificiale non è pronta a gestire le armi nucleari
L’concept che dovremmo rendere le nostre armi, nucleari o di altro tipo, completamente autonome è assolutamente ridicola se ascolti le persone che effettivamente costruiscono queste cose.
La lettera di Amodei di giovedì riconosce che in alcune parti del mondo vengono già utilizzate armi parzialmente autonome, ma che anche l’intelligenza artificiale più avanzata non è pronta a riceverne le chiavi.
Dal Lettera antropica:
Anche completamente le armi autonome (quelle che tengono completamente gli esseri umani fuori dal giro e automatizzano la selezione e l’ingaggio degli obiettivi) possono rivelarsi fondamentali per la nostra difesa nazionale. Ma oggi i sistemi di intelligenza artificiale di frontiera semplicemente non sono abbastanza affidabili per alimentare armi completamente autonome. Non forniremo consapevolmente un prodotto che metta a rischio i combattenti e i civili americani. Ci siamo offerti di lavorare direttamente con il Dipartimento di Guerra sulla ricerca e sviluppo per migliorare l’affidabilità di questi sistemi, ma loro non hanno accettato questa offerta. Inoltre, senza un’adeguata supervisione, non è possibile fare affidamento sulle armi completamente autonome per esercitare il giudizio critico che le nostre truppe professionali altamente addestrate esibiscono ogni giorno. Devono essere schierati con guardrail adeguati, che oggi non esistono.
È interessante notare che Amodei non esclude nemmeno l’uso dell’intelligenza artificiale per automatizzare completamente i sistemi d’arma del futuro. Sta solo sostenendo che l’intelligenza artificiale non è ancora arrivata.
L’intelligenza artificiale sarà mai pronta?
I ricercatori del King’s Faculty di Londra hanno recentemente testato GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash in alcuni giochi di guerra simulati per vedere come si comportano. Secondo i dati, i modelli IA hanno giocato 21 partite e hanno schierato almeno un’arma nucleare tattica nel 95% delle partite. Nuovo scienziato.
L’intelligenza artificiale non ha motivo di temere l’impiego di armi nucleari che potrebbero potenzialmente spazzare through l’umanità perché non può provare paura. Questi modelli di intelligenza artificiale possono parlarti della paura; possono parlare con te e convincere gli umani che sono in qualche modo coscienti, ma non lo sono. Sono prodotti tecnologici che non esiteranno a premere il grande pulsante rosso a meno che non vengano messi in atto rigorosi guardrail per fermarli.
L’esercito ha giocato con queste idee per decenni, tentando per la prima volta di costruire Skynet con la Strategic Computing Initiative della DARPA negli anni ’80. Ma la tecnologia non c’period ancora.
L’avvento dell’intelligenza artificiale significa che possiamo costruire adeguatamente un sistema d’arma autonomo che non richiede l’intervento umano. L’unica domanda è se sia una cosa intelligente da fare, soprattutto in un periodo di crescente fascismo negli Stati Uniti
I chief militari si comportano in modo strano
Il sottosegretario alla Difesa Emil Michael ha rimproverato Amodei in a twittare giovedì, insistendo sul fatto che l’amministratore delegato di Anthropic mentiva riguardo alla discussione dell’azienda con il Pentagono.
“È un peccato che @DarioAmodei sia un bugiardo e abbia il complesso di Dio”, ha scritto Michael. “Non vuole altro che provare a controllare personalmente l’esercito americano e sta bene mettendo a rischio la sicurezza della nostra nazione. Il @DeptofWar rispetterà SEMPRE la legge ma non si piegherà ai capricci di nessuna azienda tecnologica a scopo di lucro.”
È una cosa sorprendente a cui assistere se si fa un passo indietro e si ricorda che niente di tutto questo period normale nell’period pre-Trump. La management militare non si scaglierebbe mai pubblicamente contro un CEO americano, definendolo un bugiardo e dicendo che ha il complesso di Dio. Semplicemente non è successo per semplici ragioni di decoro e professionalità.
Ma dimostra anche due cose: in primo luogo, che il Pentagono cerca disperatamente di usare Claude, poiché il tweet di Michael puzza di disperazione. In secondo luogo, forse dovremmo essere profondamente preoccupati di ciò che i militari vogliono fare con tutta questa tecnologia avanzata a loro disposizione. O, per essere più precisi, tecnologia avanzata che si vuole togliere advert un’azienda privata.
Potremmo scoprirlo intorno alle 17:01 ET.










