La dirigente dell'{hardware} Caitlin Kalinowski ha annunciato oggi che, in risposta al controverso accordo di OpenAI con il Dipartimento della Difesa, si è dimessa dal suo ruolo di guida del group di robotica dell’azienda.
“Non è stata una chiamata facile”, ha detto Kalinowski in un post sui social media. “L’intelligenza artificiale ha un ruolo importante nella sicurezza nazionale. Ma la sorveglianza degli americani senza controllo giudiziario e l’autonomia letale senza l’autorizzazione umana sono linee che meritavano più riflessione di quella che hanno avuto.”
Kalinowski, che in precedenza ha guidato il group di sviluppo degli occhiali per realtà aumentata presso Meta, è entrata a far parte di OpenAI nel novembre 2024. Nel suo annuncio di oggi, ha sottolineato che la decisione riguardava “una questione di principio, non di persone” e ha affermato di avere “profondo rispetto” per il CEO Sam Altman e il group di OpenAI.
In un post successivo su XKalinowski ha aggiunto: “Per essere chiari, il mio problema è che l’annuncio è stato affrettato senza che i guardrail fossero definiti. È innanzitutto una preoccupazione di governance. Questi sono troppo importanti perché accordi o annunci possano essere affrettati.”
Un portavoce di OpenAI ha confermato la partenza di Kalinowski a TechCrunch.
“Riteniamo che il nostro accordo con il Pentagono crei un percorso praticabile per un uso responsabile dell’intelligenza artificiale in termini di sicurezza nazionale, chiarendo al contempo le nostre linee rosse: nessuna sorveglianza interna e nessuna arma autonoma”, ha affermato la società in una nota. “Riconosciamo che le persone hanno opinioni forti su questi temi e continueremo a dialogare con i dipendenti, il governo, la società civile e le comunità di tutto il mondo”.
L’accordo di OpenAI con il Pentagono è stato annunciato poco più di una settimana fa, dopo che le discussioni tra Pentagono e Anthropic sono fallite mentre la società di intelligenza artificiale cercava di negoziare misure di salvaguardia che impedissero che la sua tecnologia venisse utilizzata nella sorveglianza domestica di massa o in armi completamente autonome. Il Pentagono ha successivamente designato Anthropic come un rischio per la catena di approvvigionamento. (Anthropic ha detto che si opporrà alla designazione in tribunale; nel frattempo, Microsoft, Google e Amazon hanno detto che continueranno a rendere disponibile Claude di Anthropic ai clienti non legati alla difesa.)
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
Quindi, OpenAI ha rapidamente annunciato un proprio accordo che consente l’utilizzo della sua tecnologia in ambienti classificati. Mentre i dirigenti cercavano di spiegare l’accordo sui social media, la società ha descritto l’adozione di “un approccio più espansivo e multilivello” che si basa non solo sul linguaggio contrattuale, ma anche sulle garanzie tecniche, per proteggere le linee rosse simili a quelle di Anthropic.
Tuttavia, la controversia sembra aver danneggiato la reputazione di OpenAI tra alcuni consumatori, con le disinstallazioni di ChatGPT in aumento del 295% e Claude in cima alle classifiche dell’App Retailer. A partire da sabato pomeriggio, Claude e ChatGPT rimangono rispettivamente le app gratuite numero uno e numero due dell’App Retailer statunitense.











