Home Tecnologia L’antropologia reagisce dopo che l’esercito statunitense l’ha etichettata come un “rischio per...

L’antropologia reagisce dopo che l’esercito statunitense l’ha etichettata come un “rischio per la catena di approvvigionamento”

12
0

Venerdì il Segretario alla Difesa degli Stati Uniti Pete Hegseth ha ordinato al Pentagono di designare Anthropic come un “rischio nella catena di approvvigionamento”, provocando onde d’urto nella Silicon Valley e lasciando molte aziende a faticare per capire se possono continuare a utilizzare uno dei modelli di intelligenza artificiale più popolari del settore.

“Con effetto immediato, nessun appaltatore, fornitore o companion che intrattiene rapporti d’affari con l’esercito degli Stati Uniti potrà condurre alcuna attività commerciale con Anthropic”, ha scritto Hegseth in un publish sui social media.

La designazione arriva dopo settimane di tese trattative tra il Pentagono e Anthropic su come le forze armate statunitensi potrebbero utilizzare i modelli di intelligenza artificiale della startup. Nell’a articolo del blog questa settimana, Anthropic ha sostenuto che i suoi contratti con il Pentagono non dovrebbero consentire l’utilizzo della sua tecnologia per la sorveglianza interna di massa degli americani o per armi completamente autonome. Il Pentagono ha chiesto advert Anthropic di consentire alle forze armate statunitensi di applicare la propria intelligenza artificiale a “tutti gli usi leciti” senza eccezioni specifiche.

Una designazione del rischio della catena di fornitura consente al Pentagono di limitare o escludere determinati fornitori dai contratti di difesa se si ritiene che presentino vulnerabilità di sicurezza, come i rischi legati alla proprietà, al controllo o all’influenza straniera. Ha lo scopo di proteggere i sistemi e i dati militari sensibili da potenziali compromissioni.

Anthropic ha risposto in un altro articolo del blog venerdì sera, affermando che “sfiderebbe in tribunale qualsiasi designazione di rischio nella catena di fornitura” e che story designazione “costituirebbe un pericoloso precedente per qualsiasi azienda americana che negozia con il governo”.

Anthropic ha aggiunto di non aver ricevuto alcuna comunicazione diretta dal Dipartimento della Difesa o dalla Casa Bianca in merito ai negoziati sull’uso dei suoi modelli di intelligenza artificiale.

“Il segretario Hegseth ha lasciato intendere che questa designazione impedirebbe a chiunque faccia affari con l’esercito di fare affari con Anthropic. Il segretario non ha l’autorità statutaria per sostenere questa affermazione”, ha scritto la società.

Il Pentagono ha rifiutato di commentare.

“Questa è la cosa più scioccante, dannosa e di vasta portata che abbia mai visto fare dal governo degli Stati Uniti”, afferma Dean Ball, membro senior della Basis for American Innovation ed ex consulente politico senior per l’intelligenza artificiale alla Casa Bianca. “In sostanza, abbiamo appena sanzionato un’azienda americana. Se sei americano, dovresti pensare se dovresti vivere qui o meno tra 10 anni.”

Le persone in tutta la Silicon Valley sono intervenute sui social media esprimendo shock e sgomento simili. “Le persone che gestiscono questa amministrazione sono impulsive e vendicative. Credo che questo sia sufficiente per spiegare il loro comportamento”, Paul Graham, fondatore dell’acceleratore di startup Y Combinator disse.

Boaz Barak, un ricercatore di OpenAI, ha detto in un post che “inginocchiare una delle nostre principali società di intelligenza artificiale è proprio il peggior autogol che possiamo fare. Spero vivamente che prevalgano le teste più fredde e che questo annuncio venga annullato”.

Nel frattempo, il CEO di OpenAI Sam Altman ha annunciato venerdì sera che la società ha raggiunto un accordo con il Dipartimento della Difesa per implementare i suoi modelli di intelligenza artificiale in ambienti classificati, apparentemente con eccezioni. “Due dei nostri più importanti principi di sicurezza sono il divieto della sorveglianza di massa interna e la responsabilità umana nell’uso della forza, compresi i sistemi d’arma autonomi”, ha affermato Altman. “La DoW concorda con questi principi, li riflette nella legge e nella politica e li inseriamo nel nostro accordo”.

Clienti confusi

Nel suo publish sul weblog di venerdì, Anthropic ha affermato che una designazione del rischio della catena di fornitura, sotto l’autorità 10 USC 3252, si applica solo ai contratti del Dipartimento della Difesa direttamente con i fornitori e non copre il modo in cui gli appaltatori utilizzano il suo software program Claude AI per servire altri clienti.

Tre esperti in contratti federali affermano che a questo punto è impossibile determinare quali clienti di Anthropic, se ce ne sono, dovranno ora tagliare i legami con l’azienda. L’annuncio di Hegseth “non è impantanato in nessuna legge che possiamo indovinare in questo momento”, afferma Alex Main, companion dello studio legale McCarter & English, che lavora con aziende tecnologiche.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here