Home Tecnologia Gli operatori tecnologici sollecitano il DOD e il Congresso a ritirare l’etichetta...

Gli operatori tecnologici sollecitano il DOD e il Congresso a ritirare l’etichetta antropica come rischio nella catena di approvvigionamento

15
0

Centinaia di lavoratori del settore tecnologico hanno firmato un accordo lettera aperta esortando il Dipartimento della Difesa a ritirare la designazione di Anthropic come “rischio nella catena di approvvigionamento”. La lettera invita inoltre il Congresso a intervenire ed “esaminare se l’uso di questi poteri straordinari contro un’azienda tecnologica americana sia appropriato”.

La lettera embody firmatari di importanti società tecnologiche e di enterprise capital tra cui OpenAI, Slack, IBM, Cursor, Salesforce Ventures e altre. Fa seguito a una disputa tra il DOD e Anthropic dopo che il laboratorio di intelligenza artificiale la scorsa settimana si è rifiutato di concedere ai militari accesso illimitato ai suoi sistemi di intelligenza artificiale.

Le due linee rosse di Anthropic nelle trattative con il Pentagono erano che non voleva che la sua tecnologia fosse utilizzata per la sorveglianza di massa sugli americani o per alimentare armi autonome che prendessero decisioni di mira e fuoco senza che un essere umano fosse coinvolto. Il DOD ha affermato di non avere intenzione di fare nessuna di queste cose, ma di non ritenere che dovrebbe essere limitato dalle regole di un fornitore.

In risposta al rifiuto del CEO di Anthropic, Dario Amodei, di cedere alle minacce di Hegseth, il presidente Donald Trump venerdì ha ordinato alle agenzie federali di smettere di utilizzare la tecnologia di Anthropic dopo un periodo di transizione di sei mesi. Hegseth ha detto che avrebbe mantenuto le sue minacce e avrebbe designato Anthropic come un rischio per la catena di fornitura, una designazione normalmente riservata agli avversari stranieri che metterebbe nella lista nera l’azienda di intelligenza artificiale dalla collaborazione con qualsiasi agenzia o società che intrattiene rapporti commerciali con il Pentagono.

Nell’a posta venerdìHegseth ha scritto: “Con effetto immediato, nessun appaltatore, fornitore o associate che intrattiene affari con l’esercito degli Stati Uniti potrà condurre alcuna attività commerciale con Anthropic”.

Ma un submit su X non rende automaticamente Anthropic un rischio per la catena di approvvigionamento. Il governo deve completare una valutazione del rischio e informare il Congresso prima che i associate militari debbano tagliare i legami con Anthropic o i suoi prodotti. Antropico ha detto in a articolo del blog la destinazione è “dal punto di vista legale” e “sfiderebbe in tribunale qualsiasi designazione di rischio della catena di approvvigionamento”.

Molti nel settore vedono il trattamento riservato dall’amministrazione advert Anthropic come una dura e chiara ritorsione.

Evento Techcrunch

San Francisco, California
|
13-15 ottobre 2026

“Quando due parti non riescono a concordare i termini, la cosa normale è separarsi e lavorare con un concorrente”, si legge nella lettera aperta. “Questa situazione costituisce un pericoloso precedente. Punire un’azienda americana per aver rifiutato di accettare modifiche a un contratto invia un messaggio chiaro a ogni azienda tecnologica in America: accetta qualsiasi termine richiesto dal governo, altrimenti affronterai ritorsioni”.

Al di là delle preoccupazioni per il duro trattamento riservato dal governo all’Anthropic, molti nel settore sono ancora preoccupati per il potenziale intervento del governo e per l’uso dell’intelligenza artificiale per scopi nefasti.

Boaz Barak, ricercatore OpenAI, ha scritto in un post sui social lunedì ha affermato che impedire ai governi di utilizzare l’intelligenza artificiale per effettuare la sorveglianza di massa è anche la sua “linea rossa personale” e “dovrebbe essere di tutti noi”.

Qualche istante dopo che Trump ha attaccato pubblicamente Anthropic, OpenAI ha annunciato di aver raggiunto un accordo per l’implementazione dei suoi modelli negli ambienti classificati del DOD. Il CEO di OpenAI, Sam Altman, ha dichiarato la scorsa settimana che l’azienda ha le stesse linee rosse di Anthropic.

“Se qualcosa di buono può uscire dagli eventi della scorsa settimana, sarebbe se noi nel settore dell’intelligenza artificiale iniziassimo a considerare la questione dell’uso dell’intelligenza artificiale per abusi da parte del governo e della sorveglianza della propria popolazione come un rischio catastrofico di per sé”, ha scritto Barak. “Abbiamo svolto un buon lavoro di valutazioni, mitigazioni e processi, per rischi come le armi biologiche e la sicurezza informatica. Utilizziamo processi simili anche qui.”

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here