Il Dipartimento della Guerra sta facendo pressione per eliminare i limiti precedentemente concordati sulla sorveglianza e sulle armi autonome
Anthropic, una delle principali società di intelligenza artificiale della Silicon Valley, è bloccata in una situazione di stallo con il Pentagono su quanto potenti sistemi di intelligenza artificiale potrebbero essere utilizzati per la guerra e la sorveglianza.
La controversia è incentrata sul chatbot Claude di Anthropic, che è stato utilizzato su reti riservate militari statunitensi e, secondo quanto riferito, è stato utilizzato nella pianificazione dell’operazione per catturare il presidente venezuelano Nicolas Maduro. Il Dipartimento della Guerra ha concesso alla società tempo fino alle 17:01 ora di New York (22:01 GMT) di venerdì per accettare le richieste di revocare le principali garanzie o rischiare di essere inserita nella lista nera come “rischio della catena di fornitura”.
Perché il chatbot Claude è importante per il Pentagono
Claude è profondamente radicato nei flussi di lavoro della difesa statunitense. L’azienda afferma che i suoi modelli sono già utilizzati dalle agenzie di sicurezza nazionali per analisi di intelligence, simulazioni, pianificazione operativa, operazioni informatiche e altri compiti “mission-critical”. Anthropic è diventata la prima azienda di intelligenza artificiale a implementare sistemi sulle reti riservate del Pentagono, firmando un contratto del valore di 200 milioni di dollari con il Dipartimento di Guerra la scorsa property.
Altri importanti fornitori di intelligenza artificiale hanno finora raggiunto accordi solo per far funzionare i loro modelli sui sistemi militari non classificati, mettendo Claude in una posizione privilegiata all’interno dell’institution della difesa statunitense.
Quali sono le richieste del Pentagono?
All’interno della politica di utilizzo accettabile di Anthropic per il Dipartimento della Guerra ci sono divieti espliciti sull’uso di Claude per la sorveglianza domestica di massa e per armi completamente autonome. Tali garanzie contrattuali riflettono le regole interne dell’azienda.
Il Pentagono ha chiesto che questi limiti vengano eliminati. I funzionari dicono di voler essere in grado di utilizzare il sistema per “tutti gli scopi leciti” e secondo i media statunitensi, hanno spinto l’azienda a fornire un “pulito” versione del modello spogliata di vincoli morali ed etici.
“Non puoi condurre operazioni tattiche per eccezione”, un anonimo funzionario del Pentagono è stato citato dalla CNN, insistendo su questo punto “La legalità è responsabilità del Pentagono in quanto utente finale.” L’esercito sostiene che non può permettersi di trovarsi in una situazione di crisi e di dover chiedere advert un appaltatore privato il permesso di rimuovere i guardrail.
Il ministro della Guerra americano Pete Hegseth, che questa settimana ha incontrato il CEO di Anthropic Dario Amodei, si è pubblicamente lamentato del fatto che il Pentagono non ha bisogno di reti neurali “che non può combattere” e ha minacciato di designare Anthropic a “rischio catena di fornitura” – un’etichetta solitamente riservata alle aziende viste come estensioni di avversari stranieri.
Il portavoce del Pentagono Sean Parnell ha rivendicato l’intervento dell’esercito “non ha alcun interesse a utilizzare l’intelligenza artificiale per condurre una sorveglianza di massa degli americani (che è illegale) né vogliamo utilizzare l’intelligenza artificiale per sviluppare armi autonome che operano senza coinvolgimento umano”, ma ha sottolineato: “Non permetteremo a NESSUNA azienda di dettare i termini relativi al modo in cui prendiamo le decisioni operative”.
Quali sono le linee rosse di Anthropic?
Antropico dice è disposto a continuare a collaborare con le agenzie di sicurezza nazionale statunitensi, ma non abbandonerà due restrizioni fondamentali su come vengono utilizzati i suoi sistemi.
“Le minacce non cambiano la nostra posizione: non possiamo in tutta coscienza accogliere la loro richiesta”, Lo ha detto giovedì Amodei in una dichiarazione, aggiungendo che le richieste del Pentagono “non sono mai stati inclusi nei nostri contratti… e crediamo che non dovrebbero essere inclusi ora”.
L’azienda ha fissato due chiare linee rosse per la sua intelligenza artificiale, dichiarando che non supporterà la sorveglianza nazionale di massa o armi completamente autonome. Sostiene che il monitoraggio su larga scala degli americani lo sia “incompatibile con i valori democratici” e che i modelli di oggi lo siano “non abbastanza affidabile” prendere decisioni letali senza il controllo umano.
Amodei insiste che queste esclusioni non hanno impedito alle forze armate statunitensi di utilizzare Claude per altri scopi “mission-critical” compiti e afferma che l’azienda vuole ancora sostenere la sicurezza nazionale degli Stati Uniti, ma non a costo di consentire la sorveglianza di massa in patria o di uccidere in modo completamente autonomo.
Riuscirà Anthropic a sopravvivere alla lista nera?
Amodei afferma che il Dipartimento della Guerra ha avvertito che, se Anthropic manterrà le sue misure di salvaguardia, potrebbe essere rimosso dai sistemi militari e ha dichiarato il suddetto “rischio catena di fornitura” – una designazione mai applicata prima a un’azienda americana.
Perdere un contratto del valore di 200 milioni di dollari non sarebbe esistenziale per Anthropic, valutato quasi 400 miliardi di dollari, ma un’etichetta del genere potrebbe colpire molto più duramente. Qualsiasi azienda che faccia affari con il Pentagono dovrebbe dimostrare che i suoi sistemi non si basano sulla tecnologia di Anthropic, complicando o raffreddando potenzialmente gli accordi di grandi imprese con aziende che forniscono anche l’esercito americano.

Anche per il Dipartimento della Guerra tagliare i rapporti sarebbe costoso. I funzionari dovrebbero sostituire gli strumenti interni costruiti attorno a Claude. Una fonte del Pentagono ha detto ai media statunitensi che il sistema di intelligenza artificiale Grok di Elon Musk lo è “a bordo con l’utilizzo in un ambiente riservato”, ma ha riconosciuto che Grok non è considerato così avanzato come il modello di Anthropic.
La Silicon Valley si opporrà?
La posizione dello sviluppatore ha innescato un’insolita ondata di sostegno pubblico all’interno della Silicon Valley. Giovedì sera, centinaia di attuali dipendenti di Google e OpenAI – due dei principali rivali di Anthropic, che forniscono entrambi modelli di intelligenza artificiale alle forze armate statunitensi – hanno firmato una lettera aperta sostenendo il rifiuto dell’azienda di soddisfare le richieste del Pentagono.
La petizione, intitolata “Non saremo divisi”, è stato firmato pubblicamente da 421 Google e 76 membri dello employees di OpenAI a partire da venerdì. Citando un resoconto dei media statunitensi, la lettera accusa il Dipartimento della Guerra di prendere di mira Anthropic “Attenersi alle linee rosse per non consentire che i loro modelli vengano utilizzati per la sorveglianza di massa interna e uccidere autonomamente le persone senza supervisione umana”.
“Il Pentagono sta negoziando con Google e OpenAI per cercare di convincerli advert accettare ciò che Anthropic ha rifiutato”, hanno scritto i firmatari, sostenendo che i funzionari ci stanno provando “dividere ciascuna compagnia con la paura che l’altra ceda”. La lettera invita la management delle due aziende a “mettere da parte le loro differenze e restare uniti per continuare a rifiutare” le richieste del Dipartimento della Difesa.
Cosa significa la resa dei conti per l’intelligenza artificiale
Lo scontro tra Anthropic e il Pentagono ha attirato l’interesse degli analisti della tecnologia e della difesa, che avvertono che potrebbe creare dei precedenti sulla potenza dell’intelligenza artificiale governata in eventuali conflitti futuri. Adam Connor, vicepresidente per le politiche tecnologiche presso il Heart for American Progress, ha dichiarato ai media statunitensi che la disputa verrà probabilmente letta nel settore come un segnale che i funzionari della difesa non vogliono limiti contrattuali su come gli utenti militari possono implementare modelli avanzati.
PER SAPERNE DI PIÙ:
Gli Stati Uniti integreranno l’intelligenza artificiale Grok di Musk nei sistemi militari classificati – media
Se il Pentagono portasse avanti le sue minacce, gli osservatori dicono che segnerebbe un’escalation storica – trasformando di fatto uno dei prodotti di intelligenza artificiale commerciale più avanzati d’America in un paria all’interno del proprio ecosistema di difesa. Gregory Allen, consulente senior del Heart for Strategic and Worldwide Research, sostiene che trattare Anthropic in questo modo equivarrebbe a bruciare una delle risorse del settore tecnologico statunitense. “gioielli della corona” in un momento in cui Washington paragona la corsa all’intelligenza artificiale con la Cina alla corsa allo spazio con l’Unione Sovietica. Ha suggerito che ci sono modi migliori per risolvere la controversia rispetto a quello “assolutista” posizione assunta dall’amministrazione Trump.













