Ho passato gli ultimi giorni a chiedere alle aziende di intelligenza artificiale di convincermi che le prospettive per la sicurezza dell’intelligenza artificiale non sono diminuite. Solo pochi anni fa, sembrava che ci fosse un accordo universale tra aziende, legislatori e pubblico in generale sul fatto che una regolamentazione e un controllo seri dell’IA non fossero solo necessari, ma inevitabili. Le persone hanno ipotizzato che gli organismi internazionali stabiliscano regole per garantire che l’intelligenza artificiale venga trattata più seriamente rispetto advert altre tecnologie emergenti e che ciò potrebbe almeno creare ostacoli alle sue implementazioni più pericolose. Le aziende hanno promesso di dare priorità alla sicurezza rispetto alla concorrenza e ai profitti. Mentre gli scenari catastrofici continuavano a creare scenari distopici, si stava formando un consenso globale per limitare i rischi dell’IA e raccoglierne i benefici.
Gli eventi dell’ultima settimana hanno inferto un duro colpo a quelle speranze, a cominciare dall’aspra faida tra il Pentagono e Anthropic. Tutte le parti concordano sul fatto che il contratto esistente tra i due specificava, su insistenza di Anthropic, che il Dipartimento della Difesa (che ora si riferisce significativamente a se stesso come Dipartimento della Guerra) non utilizzerà i modelli Claude AI di Anthropic per armi autonome o sorveglianza di massa degli americani. Ora, il Pentagono vuole cancellare quelle linee rosse, e il rifiuto di Anthropic non solo ha portato alla wonderful del suo contratto, ma ha anche spinto il Segretario alla Difesa Pete Hegseth a dichiarare la società a rischio nella catena di fornitura, una designazione che impedisce alle agenzie governative di fare affari con Anthropic. Senza entrare nel merito delle disposizioni contrattuali e delle dinamiche personali tra Hegseth e il CEO di Anthropic Dario Amodei, la conclusione sembra essere che l’esercito è determinato a resistere a qualsiasi limitazione su come utilizza l’intelligenza artificiale, almeno entro i limiti della legalità, per sua stessa definizione.
La domanda più grande sembra essere come siamo arrivati al punto in cui il rilascio di droni robotic assassini e bombe che identificano ed eliminano obiettivi umani è finito nella conversazione come qualcosa che l’esercito americano prenderebbe in considerazione. Mi sono perso il dibattito internazionale sui vantaggi di creare sciami di droni autonomi letali che scansionano zone di guerra, pattugliano i confini o tengono d’occhio i trafficanti di droga? Hegseth e i suoi sostenitori lamentano l’assurdità del fatto che le società personal limitino ciò che i militari possono fare. Penso che sia ancora più folle che sia necessaria un’azienda solitaria che rischia sanzioni esistenziali per fermare una tecnologia potenzialmente incontrollabile. In ogni caso, la mancanza di accordi internazionali significa che ogni milizia avanzata deve utilizzare l’intelligenza artificiale in tutte le sue forme, semplicemente per tenere il passo con i propri avversari. In questo momento, una corsa agli armamenti basata sull’intelligenza artificiale sembra inevitabile.
I rischi si estendono ben oltre l’ambito militare. Adombrato dal dramma del Pentagono c’period a annuncio inquietante Anthropic è stato pubblicato il 24 febbraio. La società ha affermato che stava apportando modifiche al proprio sistema per mitigare i rischi catastrofici derivanti dall’intelligenza artificiale, chiamato Accountable Scaling Coverage. Si trattava di una politica fondamentale per Anthropic, in cui la società prometteva di legare il programma di rilascio del modello di intelligenza artificiale alle sue process di sicurezza. La politica affermava che i modelli non dovevano essere lanciati senza guardrail che impedissero gli usi nel peggiore dei casi. Ha funzionato come incentivo interno per garantire che la sicurezza non fosse trascurata nella fretta di lanciare tecnologie avanzate. Ancora più importante, Anthropic sperava che l’adozione di questa politica avrebbe ispirato o fatto vergognare altre aziende a fare lo stesso. Ha chiamato questo processo “corsa verso l’alto.” L’aspettativa period che l’incorporazione di tali principi avrebbe contribuito a influenzare le normative a livello di settore che fissano limiti al caos che l’intelligenza artificiale potrebbe causare.
Inizialmente questo approccio sembrava promettente. DeepMind e OpenAI hanno adottato aspetti del framework di Anthropic. Più recentemente, quando i dollari di investimento sono aumentati, la concorrenza tra i laboratori di intelligenza artificiale è aumentata e la prospettiva di una regolamentazione federale ha iniziato a sembrare più remota, Anthropic ha ammesso che la sua politica di scalabilità responsabile non period stata all’altezza. Le soglie non hanno creato il consenso sui rischi dell’IA che si sperava. Come ha osservato l’azienda in un publish sul weblog, “Il contesto politico si è spostato verso la priorità della competitività dell’intelligenza artificiale e della crescita economica, mentre le discussioni orientate alla sicurezza devono ancora guadagnare terreno in modo significativo a livello federale”.
Nel frattempo, la concorrenza tra le aziende di intelligenza artificiale è diventata più spietata. Invece di una corsa verso l’alto, la rivalità dell’IA sembra più una versione a mani nude di King of the Mountain. Quando il Pentagono bandì Anthropic, OpenAI si affrettò a colmare il divario con il proprio contratto con il Dipartimento della Difesa. Il CEO di OpenAI, Sam Altman, ha insistito per stipulare un accordo frettoloso con il Pentagono per alleviare la pressione su Anthropic, ma Amodei non ne ha voluto sapere. “Sam sta cercando di minare la nostra posizione mentre sembra sostenerla”, ha detto Amodei in un nota interna. “Sta cercando di rendere più possibile per l’amministratore punirci minando il nostro sostegno pubblico.” (Amodei poi si è scusato per il tono del messaggio.)




![[À VOIR] Pura follia alla suite di un grande chelem di Shohei Ohtani alla classica mondiale del baseball](https://mariellaromano.it/wp-content/uploads/2026/03/87cecfd0-194d-11f1-b52b-db2a72169982_ORIGINAL-100x75.jpg)








