OpenAI ha stipulato un accordo con il Dipartimento di Guerra degli Stati Uniti (DOW), fornendo i suoi strumenti di intelligenza artificiale per uso militare in “ambienti classificati”. Sabato l’annuncio della partnershiplo sviluppatore di ChatGPT afferma di includere guardrail che vietano l’uso della sua tecnologia per la sorveglianza domestica di massa o armi autonome. Tuttavia, gli estratti contrattuali condivisi da OpenAI sembrano lasciare lacune significative.
Claude di Anthropic supera ChatGPT nell’App Retailer
La notizia dell’accordo di OpenAI con il DOW è arrivata appena un giorno dopo che il presidente Donald Trump ha annunciato che il governo degli Stati Uniti non utilizzerà più la tecnologia del rivale di OpenAI Anthropic, incluso il suo modello di intelligenza artificiale Claude. Postare sulla scissione su Truth SocialTrump si period opposto all’insistenza di Anthropic affinché l’EDI rispettasse i termini di servizio dell’azienda.
Sono stati rivelati esattamente i termini dei servizi con cui Trump ha contestato in una dichiarazione rilasciata giovedì dal CEO di Anthropic, Dario Amodei. In esso, affermava che l’EDI aveva chiesto advert Anthropic di rimuovere le garanzie contro l’uso della sua tecnologia per la sorveglianza di massa negli Stati Uniti e le armi completamente controllate dall’intelligenza artificiale. Amodei ha affermato che story utilizzo può essere tecnicamente lecito, tuttavia “questo è solo perché la legge non è ancora al passo con le capacità in rapida crescita dell’IA”.
“[I]In un ristretto numero di casi, riteniamo che l’intelligenza artificiale possa minare, piuttosto che difendere, i valori democratici”, ha scritto Amodei. “Alcuni usi sono anche semplicemente al di fuori dei limiti di ciò che la tecnologia odierna può fare in modo sicuro e affidabile”.
Apparentemente i termini di OpenAI sono più graditi all’amministrazione Trump, con la società che interviene per fornire all’esercito americano la tecnologia AI al posto di Anthropic. Eppure, nonostante ciò, OpenAI afferma che il suo accordo con DOW non solo prevede barriere simili che vietano l’uso della sua tecnologia per la sorveglianza domestica di massa o per dirigere armi autonome, ma ne aggiunge anche una terza: “Nessun uso della tecnologia OpenAI per decisioni automatizzate advert alto rischio (advert esempio sistemi come il “credito sociale”)”.
“Manteniamo la piena discrezione sul nostro stack di sicurezza, lo distribuiamo tramite cloud, il personale OpenAI autorizzato è in contatto e abbiamo forti protezioni contrattuali”, si legge nell’annuncio di OpenAI. “Tutto questo va advert aggiungersi alle forti tutele esistenti nella legge statunitense.”
Questo Tweet non è al momento disponibile. Potrebbe essere in fase di caricamento o è stato rimosso.
Secondo OpenAI, le limitazioni imposte sono più applicabili di quelle di Anthropic perché fornirà all’EDI la sua tecnologia solo tramite il cloud, anziché installarla direttamente sull'{hardware}. Anche il personale di OpenAI sarà coinvolto in modo che possa vedere come l’EDI utilizza la sua tecnologia. Ciò presumibilmente consentirà alla società una maggiore supervisione e controllo dei suoi sistemi di intelligenza artificiale.
“Non sappiamo perché Anthropic non sia riuscita a raggiungere questo accordo e speriamo che loro e altri laboratori lo prendano in considerazione”, ha scritto OpenAI.
Tuttavia, un estratto del contratto condiviso da OpenAI ha indicato che alla sua tecnologia sarà vietato l’uso in armi autonome o per sorvegliare i cittadini statunitensi solo laddove story uso sia illegale. In effetti, l’accordo sembra stabilire circostanze in cui la tecnologia di OpenAI sarebbe consentita per questi scopi, advert esempio laddove il controllo umano sulle armi non è richiesto dalla politica o dalla legge del DOW.
“Il Dipartimento della Guerra può utilizzare il sistema di intelligenza artificiale per tutti gli scopi legali, in conformità con la legge applicabile, i requisiti operativi e i protocolli di sicurezza e supervisione consolidati”, si legge nel contratto, secondo OpenAI. “[A]Qualsiasi utilizzo dell’intelligenza artificiale in sistemi autonomi e semi-autonomi deve essere sottoposto a verifica, convalida e check rigorosi per garantire che funzionino come previsto in ambienti realistici prima dell’implementazione.”
Rispondere alle preoccupazioni in un post su LinkedInKatrina Mulligan, responsabile dei partenariati per la sicurezza nazionale di OpenAI, ha semplicemente ribadito che le sue politiche di utilizzo non sono le uniche garanzie in atto, sottolineando nuovamente l’implementazione del cloud e il coinvolgimento del suo personale.
“[The DOW’s] La nostra posizione period: costruisci il modello come preferisci, rifiuta qualsiasi richiesta tu voglia, semplicemente non cercare di governare le nostre decisioni operative attraverso politiche di utilizzo”, ha scritto Mulligan.
Velocità della luce mashable
Tuttavia, permangono dubbi sull’efficacia di queste presunte garanzie, in particolare considerando la riluttanza di OpenAI a prendere una posizione etica.
Sam Altman parla dell’accordo di OpenAI con il Dipartimento di Guerra
Questo Tweet non è al momento disponibile. Potrebbe essere in fase di caricamento o è stato rimosso.
Sam Altman, CEO di OpenAI ha condotto una sessione di domande e risposte su X nel tentativo di placare le preoccupazioni degli utenti sull’accordo DOW, con scarso successo apparente. Ammettendo che l’accordo “è stato decisamente affrettato e l’ottica non sembra buona,” Altman ha affermato che speravano che ciò avrebbe allentato le tensioni tra il DOW e l’industria dell’intelligenza artificiale.
“Penso che un buon rapporto tra il governo e le aziende che sviluppano questa tecnologia sarà fondamentale nei prossimi due anni”, ha scritto Altman.
L’accordo potrebbe aver avvicinato OpenAI e il governo degli Stati Uniti, ma sembra aver allo stesso tempo alienato gli utenti civili di ChatGPT.
Rispondendo advert a domanda se consentire qualsiasi uso legale consenta la sorveglianza di massaAltmann ha condiviso un post dal Sottosegretario alla Guerra americano Emil Michael in cui affermava che “Il DoW non spia le comunicazioni interne del popolo statunitense (anche tramite raccolta commerciale) e farlo sarebbe illegale e profondamente antiamericano”.
Non sorprende che pochi sembrino disposti a credere alla parola dell’EDI. Nel 2013, l’informatore Edward Snowden ha rivelato la sorveglianza di massa dei cittadini statunitensi condotta dalla Nationwide Safety Company (NSA) del DOW (allora chiamata Dipartimento della Difesa). Questo programma è risultato illegalee includeva i tabulati telefonici delle persone. Human Rights Watch ha accusato anche l’allora Dipartimento della Difesa di sorvegliare i cittadini statunitensi senza mandato nel 2017.
“Il governo ha già infranto la legge e ha effettuato controlli illegali [sic] Cittadini americani”, ha risposto l’utente X @bolts6629. “Una dichiarazione milquetoast da parte di un sottosegretario di un’amministrazione famosa per le bugie ti va bene?”
Altman ha dichiarato che si rifiuterà di utilizzare la tecnologia di OpenAI per la sorveglianza domestica di massa “perché viola la Costituzione” e ha espresso disagio nei confronti dell’thought di un emendamento che consentirebbe story utilizzo. Tuttavia, alcuni utenti dei social media hanno messo in dubbio questa affermazione, sottolineando che in precedenza è tornato su altre promesse.
“Altre cose che hai detto che non avresti fatto: annullare il consiglio di OpenAI, rimuovere la struttura no-profit, inserire annunci in ChatGPT,” ha notato @Laneless_.
Inoltre, anche il CEO di OpenAI ha indicato che la società lo è riluttante a tracciare linee etichepreferendo abdicare alle responsabilità e seguire le indicazioni del governo piuttosto che prendere alcuna posizione.
“[W]Non siamo eletti”, ha scritto Altman. “Abbiamo un processo democratico in cui eleggiamo i nostri chief. Abbiamo esperienza con la tecnologia e ne comprendiamo i limiti, ma penso che dovresti essere terrorizzato da un’azienda privata che resolve cosa è e cosa non è etico nelle aree più importanti”.
“Seguire gli ordini non è una scusa per un comportamento non etico” ha risposto @MagisterLudiX. “O si hanno forti linee rosse o lo si vede come puramente transazionale, a seconda del contesto politico.”
“L’intelligenza artificiale è uno strumento. Un limite rigido, come qualsiasi altro strumento,” ha scritto @genericrohan. “Non si tratta di decidere cosa possono fare i militari, si tratta di stabilire un limite che i militari possono pianificare.”
In risposta alla notizia di OpenAI e della partnership tra DOW, molti utenti ChatGPT lo sono secondo quanto riferito annullamento i loro abbonamenti al chatbot AI. Diversi lo sono invece rivolgendosi al chatbot AI di Anthropic, Claudeche da allora ha detronizzato ChatGPT come l’app gratuita più scaricata nell’App Retailer di Apple negli Stati Uniti.
“OpenAI ha appena stretto un accordo con un diavolo e ha perso questo cliente da 2 anni,” Utente Reddit r/boomroom11 pubblicato su subreddit r/ChatGPT. Il put up ha oltre 26.000 voti positivi al momento della stesura. “L’azienda (originariamente no-profit) che ci aveva detto che esistevano per costruire un’intelligenza artificiale sicura per l’umanità ora sta accettando contratti con il Pentagono. Sam Altman ha deciso che i soldi per la difesa erano più importanti di ogni principio su cui è stata fondata l’azienda.”
Divulgazione: Ziff Davis, la società madre di Mashable, nell’aprile 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.












