Home Tecnologia Sfide antropiche La designazione del Dipartimento della Guerra mentre la disputa sull’IA...

Sfide antropiche La designazione del Dipartimento della Guerra mentre la disputa sull’IA si intensifica

11
0

Il Dipartimento della Difesa, noto sotto l’amministrazione Trump come Dipartimento della Guerra, ha appena designato ufficialmente la società di intelligenza artificiale Anthropic come un “rischio nella catena di approvvigionamento” per la sicurezza nazionale. Ma Anthropic non se la beve.

“Non crediamo che questa azione sia giuridicamente valida e non vediamo altra scelta se non quella di impugnarla in tribunale”, ha scritto in una nota il CEO di Anthropic, Dario Amodei. dichiarazione rispondere al contenzioso in corso. Amodei ha inoltre sottolineato che la designazione non riguarda la maggioranza dei clienti Anthropic.

Anthropic è “orgogliosa del lavoro” svolto a fianco del governo federale nel “supportare i combattenti in prima linea con applicazioni quali analisi di intelligence, modellazione e simulazione, pianificazione operativa, operazioni informatiche e altro ancora”, ha affermato Amodei.

La disputa è iniziata sul potenziale utilizzo della tecnologia AI di Anthropic per effettuare una sorveglianza domestica di massa e per alimentare armi autonome come i droni. Il rapporto tra Anthropic e l’esercito americano deteriorato la scorsa settimana, dopo che la società di intelligenza artificiale ha ottenuto un contratto da 200 milioni di dollari dal governo federale, ma ha cercato garanzie che la sua tecnologia non sarebbe stata utilizzata per la sorveglianza o per armi che possono sparare senza che gli esseri umani siano coinvolti.

Il governo degli Stati Uniti non ha accettato i termini di Anthropic e ha minacciato di designare l’azienda come un rischio per la catena di fornitura, cosa che ora ha fatto. Trump ha anche emesso un ordine esecutivo che cube a tutte le agenzie federali di smettere di usare l’intelligenza artificiale di Anthropic.

Amodei si è scusato per la fuga di una nota interna e ha confermato rapporti recenti che Anthropic e il Dipartimento della Difesa hanno ripreso i negoziati. Se le due parti non riusciranno a raggiungere un accordo, Anthropic aiuterà il governo in un periodo di transizione, ha detto Amodei.

Il CEO ha anche fatto riferimento all’accordo del governo americano con OpenAI, concluso sulla scia della disputa antropica. Persino OpenAI ha “definito” il suo accordo con il governo degli Stati Uniti come “confuso”, ha detto.

Il CEO di OpenAI, Sam Altman, lo period costretto per affrontare l’accordo dopo aver ricevuto notevoli contraccolpi da parte degli utenti.

“La nostra priorità più importante in questo momento è garantire che i nostri combattenti e gli esperti di sicurezza nazionale non siano privati ​​di strumenti importanti nel mezzo di importanti operazioni di combattimento”, ha scritto Amodei. “Anthropic fornirà i nostri modelli al Dipartimento di Guerra e alla comunità di sicurezza nazionale, a un costo nominale e con il supporto continuo dei nostri ingegneri, per tutto il tempo necessario per effettuare story transizione e per tutto il tempo in cui ci sarà permesso di farlo.”

Come il Giornale di Wall Street precedentemente riportato, l’esercito americano ha già utilizzato i modelli Claude di Anthropic per aiutare a portare a termine attacchi in Iran.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here