Il CEO di OpenAI Sam Altman è ancora al centro dell’attenzione questa settimana dopo che la sua azienda ha firmato un accordo con l’esercito americano. I dipendenti di OpenAI hanno criticato la mossa, avvenuta dopo che il contratto da circa 200 milioni di dollari di Anthropic con il Pentagono è imploso, e hanno chiesto advert Altman di rilasciare maggiori informazioni sull’accordo. Altman ha ammesso che sembrava “sciatto” sui social media inviare.
Sebbene questo incidente sia diventato una notizia importante, potrebbe essere solo l’ultimo e più pubblico esempio di OpenAI che crea politiche vaghe su come le forze armate statunitensi possono accedere alla sua intelligenza artificiale.
Nel 2023, la politica di utilizzo di OpenAI ha esplicitamente vietato ai militari di accedere ai suoi modelli di intelligenza artificiale. Ma alcuni dipendenti di OpenAI hanno scoperto che il Pentagono aveva già iniziato a sperimentare con Azure OpenAI, una versione dei modelli OpenAI offerti da Microsoft, hanno detto due fonti vicine alla questione. A quel tempo, Microsoft aveva stipulato contratti con il Dipartimento della Difesa per decenni. Period anche il più grande investitore di OpenAI e aveva un’ampia licenza per commercializzare la tecnologia della startup.
Nello stesso anno, i dipendenti di OpenAI hanno visto funzionari del Pentagono attraversare gli uffici dell’azienda a San Francisco, hanno detto le fonti. Hanno parlato a condizione di anonimato poiché non hanno la licenza per commentare questioni aziendali personal.
Alcuni dipendenti di OpenAI erano diffidenti nell’associarsi al Pentagono, mentre altri erano semplicemente confusi su cosa significassero le politiche di utilizzo di OpenAI. La politica si applicava a Microsoft? Mentre fonti dicono a WIRED che all’epoca non period chiaro alla maggior parte dei dipendenti, i portavoce di OpenAI e Microsoft affermano che i prodotti Azure OpenAI non sono e non erano soggetti alle politiche di OpenAI.
“Microsoft ha un prodotto chiamato Azure OpenAI Service che è diventato disponibile per il governo degli Stati Uniti nel 2023 ed è soggetto ai termini di servizio di Microsoft”, ha affermato il portavoce Frank Shaw in una dichiarazione a WIRED. Microsoft ha rifiutato di commentare specificamente quando ha reso disponibile Azure OpenAI al Pentagono, ma nota che il servizio non è stato approvato per “top secret” carichi di lavoro del governo fino al 2025.
“L’intelligenza artificiale sta già svolgendo un ruolo significativo nella sicurezza nazionale e crediamo che sia importante avere un posto al tavolo per garantire che venga implementata in modo sicuro e responsabile”, ha affermato in una nota la portavoce di OpenAI Liz Bourgeois. “Siamo stati trasparenti con i nostri dipendenti nell’approccio a questo lavoro, fornendo aggiornamenti regolari e canali dedicati in cui i crew possono porre domande e interagire direttamente con il nostro crew di sicurezza nazionale.”
Il Dipartimento della Difesa non ha risposto alla richiesta di commento di WIRED.
Entro gennaio 2024, OpenAI ha aggiornato le sue politiche per rimuovere il divieto generale dell’uso militare. Diversi dipendenti di OpenAI hanno scoperto l’aggiornamento della politica attraverso un articolo su The Intercept, dicono le fonti. I chief dell’azienda hanno successivamente affrontato il cambiamento in una riunione collettiva, spiegando come l’azienda avrebbe proceduto con cautela in quest’space da qui in poi.
Nel dicembre 2024, OpenAI ha annunciato una partnership con Anduril per sviluppare e implementare sistemi di intelligenza artificiale per “missioni di sicurezza nazionale”. Prima dell’annuncio, OpenAI ha detto ai dipendenti che la partnership aveva una portata ristretta e si sarebbe occupata solo di carichi di lavoro non classificati, hanno affermato le stesse fonti. Ciò period in contrasto con un accordo che Anthropic aveva firmato con Palantir, che avrebbe visto l’intelligenza artificiale di Anthropic utilizzata per lavori militari classificati.
Palantir si è rivolta a OpenAI nell’autunno del 2024 per discutere della partecipazione al loro programma “FedStart”, ha confermato a WIRED un portavoce di OpenAI. Alla high-quality la società ha rifiutato e ha detto ai dipendenti che sarebbe stato un rischio troppo alto, hanno riferito a WIRED due fonti vicine alla questione. Tuttavia, OpenAI ora funziona con Palantir in altri modi.
Nel periodo in cui è stato annunciato l’accordo con Anduril, alcune dozzine di dipendenti di OpenAI si sono uniti a un canale pubblico Slack per discutere le loro preoccupazioni sulle partnership militari dell’azienda, dicono fonti e conferma un portavoce. Alcuni credevano che i modelli dell’azienda fossero troppo inaffidabili per gestire i dati della carta di credito di un utente, per non parlare di assistere gli americani sul campo di battaglia.













