L’app AI di Anthropic, Claude, sta raggiungendo la vetta delle classifiche di obtain globali, mentre l’azienda intraprende una battaglia legale contro il Pentagono per averla definita un rischio per la sicurezza nazionale.
In una denuncia presentata lunedì presso il tribunale distrettuale degli Stati Uniti per il distretto settentrionale della California, Anthropic sostiene che il governo federale ha lanciato una campagna senza precedenti contro la società dopo aver rispettato le sue restrizioni di sicurezza. Anthropic afferma che non vuole che la sua intelligenza artificiale venga utilizzata per una guerra autonoma letale o per la sorveglianza di massa degli americani.
“Anthropic intenta questa causa perché il governo federale ha reagito contro di essa per aver espresso story principio,” si legge nella denuncia. “Quando Anthropic si è attenuta al suo giudizio secondo cui Claude non può essere utilizzato in modo sicuro o affidabile per una guerra letale autonoma e per la sorveglianza di massa degli americani, il Presidente ha ordinato a tutte le agenzie federali di ‘CESSARE IMMEDIATAMENTE ogni uso della tecnologia di Anthropic.'”
Tutto ciò che sappiamo sull’imminente divieto dei droni DJI negli Stati Uniti
Le conseguenze sono state rapide e di vasta portata. L’Amministrazione dei Servizi Generali ha rescisso il contratto governativo di Anthropic. Il Dipartimento del Tesoro, la Federal Housing Finance Company, il Dipartimento di Stato e altre agenzie governative hanno annunciato che avrebbero tagliato i rapporti con la società.
Eppure la controversia sembra aver fatto ben poco per smorzare l’entusiasmo del pubblico per i prodotti Anthropic. Se non altro, gli utenti lo sono Di più entusiasta ora che Anthropic si scontra con l’amministrazione Trump.
L’azienda afferma che ora sta aggiungendo più di un milione di nuovi utenti ogni giorno a livello globale, battendo ogni giorno i propri report di iscrizione da quando è scoppiata la controversia.
Velocità della luce mashable
Claude detiene attualmente il primo posto nell’App Retailer di Apple in 16 paesi, superando sia ChatGPT di OpenAI che Gemini di Google in più di 20 mercati. secondo i dati di AppFigures.
La causa segna il culmine delle crescenti tensioni tra Anthropic e il Dipartimento della Difesa, che l’amministrazione Trump chiama Dipartimento della Guerra. L’azienda aveva un importante contratto che rendeva i suoi sistemi di intelligenza artificiale generativa i più utilizzati in tutto il Pentagono.
Quella relazione si è sgretolata quando il segretario alla Difesa Pete Hegseth ha spinto per espandere drasticamente il ruolo dell’intelligenza artificiale in tutto l’esercito e ha voluto un accesso illimitato alle tecnologie dell’intelligenza artificiale. Lo sforzo ha richiesto a ogni azienda di intelligenza artificiale con contratti con il Pentagono di rinegoziare i propri accordi.
Ma poiché Anthropic period diventato il principale fornitore di intelligenza artificiale dell’esercito – con Claude, secondo quanto riferito, l’unico modello avanzato autorizzato a operare su sistemi classificati – la società si è trovata al centro di una situazione di stallo controversa con Hegseth e Trump.
Il crollo riguardava tanto le personalità in conflitto quanto i principi in competizione, secondo il New York Times. Emil Michael, Chief Expertise Officer del Pentagono, ex dirigente di Uber, è diventato sempre più frustrato nei confronti del CEO di Anthropic, Dario Amodei, durante settimane di trattative.
Mentre i colloqui si deterioravano, Michael iniziò a negoziare un accordo di riserva con OpenAI, una società il cui CEO, Sam Altman, aveva corteggiato attivamente l’amministrazione Trump. Alcune ore dopo che la scadenza del Pentagono period trascorsa senza un accordo, Altman ha annunciato che OpenAI aveva raggiunto un accordo con il Dipartimento della Difesa.
La causa sostiene le azioni del governo, comprese quelle di Trump direttiva che ordina ogni agenzia federale di smettere immediatamente di utilizzare l’intelligenza artificiale di Anthropic e la designazione dell’azienda da parte del Segretario Hegseth come rischio per la catena di fornitura – violano il Primo Emendamento, così come le tutele del giusto processo del Quinto Emendamento e la Legge sulle process amministrative.
I documenti di Anthropic rilevano che l’etichetta di rischio della catena di fornitura è stata storicamente riservata alle società straniere ritenute una minaccia per la sicurezza nazionale. Non è mai stato applicato prima advert un’azienda americana. L’azienda chiede alla corte di dichiarare illegali le azioni del governo e di emettere un’ingiunzione permanente che ne blocchi l’attuazione.
Argomenti
Governo dell’intelligenza artificiale











