La controversia contrattuale tra il Dipartimento della Difesa degli Stati Uniti e lo sviluppatore di intelligenza artificiale Anthropic, scoppiata alla high quality di febbraio, ha messo in luce in termini crudi come le leggi e i regolamenti non siano riusciti a tenere il passo con le capacità dell’intelligenza artificiale.
Il Pentagono voleva essere in grado di utilizzare l’intelligenza artificiale Claude di Anthropic per “tutti gli scopi legali”, mentre Anthropic voleva vietare ai militari di utilizzarla per la sorveglianza nazionale di massa o per sistemi d’arma completamente autonomi. Dopo che Anthropic si è rifiutata di soddisfare le richieste del governo, il presidente Donald Trump e il segretario alla Difesa Pete Hegseth hanno affermato che lo avrebbero fatto dichiarare l’azienda a “rischio nella catena di fornitura” vietando l’uso dei suoi prodotti negli appalti della difesa. Lo hanno fatto il Pentagono, e Anthropic ha intentato causa lunedì in un tribunale federale contestando la designazione, definendola un attacco “senza precedenti e illegale” al diritto alla libertà di parola dell’azienda.
Funzionari del Pentagono hanno detto che il problema è discutibile a causa della legge attuale non consente tale sorveglianzae non ha intenzione di utilizzare lo strumento per sistemi d’arma autonomi. Ma le leggi e i regolamenti in realtà non sono così chiari, secondo gli esperti di privateness e tecnologia. E una controversia contrattuale tra una società privata e un’agenzia federale non è la sede adatta per risolverla.
“Questa settimana ha messo in luce un vero vuoto di governance, e dovrebbe essere un campanello d’allarme per il Congresso”, ha affermato Hamza Chaudhry, responsabile dell’intelligenza artificiale e della sicurezza nazionale presso il Way forward for Life Institute.
Per saperne di più: Il Congresso non si sta intensificando per regolamentare l’intelligenza artificiale. Dove ci porta questo adesso?
Il risultato immediato della controversia contrattuale fu il Pentagono stringendo invece un accordo con OpenAI. L’accordo con OpenAI period meno chiaro riguardo alle limitazioni dell’utilizzo dei prodotti dell’azienda per la sorveglianza di massa o armi autonome, ma i chief di OpenAI hanno affermato questa settimana di aver adottato misure per rafforzare tali barriere. Il CEO Sam Altman ha detto in a posta su X che il Pentagono ha affermato che non sarebbe stato utilizzato dalle agenzie di intelligence del dipartimento.
(Divulgazione: Ziff Davis, la società madre di CNET, nel 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)
Lo scienziato ricercatore OpenAI Noam Brown pubblicato su X che credeva che il mondo “non dovesse fare affidamento sulla fiducia nei laboratori di intelligenza artificiale o nelle agenzie di intelligence” per garantire cose come la sicurezza. “So che la legislazione a volte può essere lenta, ma temo che si possa prendere una china scivolosa in cui ci abitueremo a eludere il processo democratico per importanti decisioni politiche”, ha scritto.
La domanda è se e come il Congresso affronterà questi problemi.
L’intelligenza artificiale svolge un ruolo crescente nella sorveglianza
Il grande rischio dell’utilizzo dell’intelligenza artificiale per la sorveglianza domestica non è necessariamente che Claude o ChatGPT spiino gli americani. Il fatto è che questi strumenti verranno utilizzati per trasformare i dati che il governo già possiede, o che potrebbe acquistare da intermediari di dati privati senza bisogno di un mandato, in informazioni che altrimenti richiederebbero un mandato.
I tuoi dati personali sono già stati raccolti, probabilmente dal dispositivo che stai utilizzando per leggere questo. Embrace informazioni sulla tua cronologia di navigazione, i dati sulla tua posizione e con chi parli o con cui ti associ. Le aziende non-public, come gli sviluppatori di app, potrebbero raccogliere tali dati anche se non te ne accorgi e venderli advert altre società o advert agenzie di intelligence. Ma fino a poco tempo fa, period difficile per i governi gestire tutto questo in modo da facilitare la sorveglianza. L’intelligenza artificiale ha cambiato la situazione.
Il CEO di Anthropic Dario Amodei ha citato espressamente questa situazione in a Dichiarazione del 26 febbraio dettagliando le ragioni dell’azienda per restare fedele alle sue linee rosse. “La potente intelligenza artificiale rende possibile assemblare questi dati sparsi e individualmente innocui in un quadro completo della vita di ogni persona, automaticamente e su vasta scala.”
L’intelligenza artificiale di oggi non è pronta per i sistemi d’arma
L’altra disputa fondamentale è che Anthropic voleva impedire al Pentagono di dare a Claude il pieno controllo di un sistema d’arma senza un “umano nel giro”. Uno strumento di intelligenza artificiale utilizzato per aiutare a selezionare gli obiettivi – come secondo quanto riferito sta accadendo con Claude durante la guerra degli Stati Uniti in Iran – non è fuori portata per Anthropic o per qualsiasi delle principali società di intelligenza artificiale, perché una persona è coinvolta nella verifica e nel prendere la decisione. Ciò a cui l’azienda si oppose period l’uso di modelli di intelligenza artificiale nel prendere tali decisioni senza la supervisione umana. Amodei ha scritto che i modelli di frontiera di oggi “semplicemente non sono abbastanza affidabili per alimentare armi completamente autonome”.
Greg Nojeim, consulente senior e direttore del progetto di sicurezza e sorveglianza presso il Heart for Democracy and Expertise, ha affermato che è chiaro che gli esperti di intelligenza artificiale non credono che i modelli siano pronti per questo tipo di usi, se mai lo saranno.
“È sorprendente che il Pentagono respinga questo consiglio e insista per poter utilizzare questo strumento di intelligenza artificiale per uccidere persone senza l’intervento umano”, ha affermato.
Il Dipartimento della Difesa ha sostenuto che in realtà non può utilizzare armi completamente autonome, ma Chaudhry mi ha detto di più direttiva comunemente citata (PDF) su story questione non li vieta a titolo definitivo. Il Dipartimento della Difesa e Anthropic non hanno risposto alle richieste di CNET di commentare questa storia.
In ogni caso, dicono gli esperti, la questione dell’uso di tali armi non deve essere risolta da burocrati federali non eletti, comandanti militari o società non-public. I funzionari eletti devono tenerne conto.
Un punto di svolta per la regolamentazione dell’IA?
La questione su come regolamentare l’intelligenza artificiale e chi dovrebbe farlo non è una novità. L’amministrazione Trump ha chiesto un tocco leggero nel dire alle aziende di intelligenza artificiale cosa fare, nonostante le show di danni che vanno dai chatbot che incoraggiano il suicidio all’erosione della privateness personale consentita dall’intelligenza artificiale. Gli stati hanno cercato di frenare gli sviluppatori di intelligenza artificiale per affrontare questi problemi, ma devono affrontare il rifiuto da parte del governo federale intento a decidere come gestire la tecnologia.
Nel caso dell’uso dell’intelligenza artificiale da parte dei servizi di spionaggio militari e federali, la questione su chi dovrebbe regolamentare è chiara: il Congresso.
“Non si può fare affidamento sui chief non eletti delle aziende del settore privato per utilizzare un contratto privato per colmare una lacuna che i legislatori democraticamente eletti non hanno colmato legislativamente”, ha detto Chaudhry. “Ciò di cui abbiamo bisogno sono linee rosse statutarie: regole chiare, durature e democraticamente attuate su ciò per cui l’intelligenza artificiale può e non può essere utilizzata nei contesti di sicurezza nazionale, poiché l’intelligenza artificiale trasforma la sicurezza nazionale”.
Nojeim ha affermato che la sorveglianza dell’intelligenza artificiale “non è il tipo di condotta che i militari dovrebbero essere in grado di autoautorizzare”. Il Congresso prenderà in considerazione la riautorizzazione di parte del International Intelligence Surveillance Act il mese prossimo e potrebbe sfruttare questa opportunità per decidere se le agenzie di intelligence necessitano di mandati quando utilizzano i dati acquistati.
“Idealmente, il Congresso dovrebbe intervenire e limitare la capacità del governo di acquistare dati sugli americani e aggirare i requisiti di autorizzazione del tribunale, e idealmente il Congresso fisserebbe le regole su come il Dipartimento della Difesa dovrebbe proteggere gli americani dalla sorveglianza basata sull’intelligenza artificiale e stabilire regole sull’uso di armi autonome che possono uccidere senza che un essere umano sia coinvolto”, ha detto.
Il Congresso ha una serie di altre questioni normative relative all’intelligenza artificiale da considerare, ma il dibattito sull’uso dell’intelligenza artificiale per la sorveglianza e le armi autonome apre gli occhi e potrebbe stimolare un’azione più rapida.
Che dire degli effetti a lungo termine di questa controversia?
La ritorsione del Pentagono contro Anthropic – la sua dichiarazione ufficiale questa settimana dell’azienda come un rischio per la catena di fornitura – potrebbe avere un effetto agghiacciante su altre aziende preoccupate su come il governo utilizzerà la loro tecnologia.
“Costituisce un precedente secondo cui il governo può vendicarsi contro un’azienda che ha imposto limiti di sicurezza sull’uso della sua tecnologia perché sa di più sui rischi e sull’affidabilità della sua tecnologia di quanto potrebbe fare il governo”, ha detto Nojeim. “Quel precedente ci renderà tutti meno sicuri.”
Antropico ha detto giovedì che aveva ricevuto una lettera dal Dipartimento della Difesa che lo considerava un rischio per la catena di approvvigionamento e che il linguaggio della lettera period più ristretto rispetto alle ampie minacce formulate dai funzionari dell’amministrazione la settimana precedente. “Per quanto riguarda i nostri clienti, si applica chiaramente solo all’uso di Claude da parte dei clienti come parte diretta dei contratti con il Dipartimento della Guerra, non a tutto l’uso di Claude da parte di clienti che hanno tali contratti”, ha detto Amodei in una nota, usando il nome preferito di Hegseth per il dipartimento.
Nonostante la controversia e la designazione come rischio per la catena di approvvigionamento, l’esercito americano ha continuato a utilizzare gli strumenti di Anthropic, anche in modo estensivo durante l’attuale guerra in Iran. Amodei ha affermato che Anthropic continuerà a fornire i suoi modelli di intelligenza artificiale ai gruppi militari e di sicurezza nazionale “a costi nominali e con il supporto continuo dei nostri ingegneri” per tutto il tempo che gli sarà consentito.
“Anthropic ha molte più cose in comune con il Dipartimento della Guerra che differenze”, ha detto Amodei.













