Nel giro di poche ore venerdì, il Pentagono ha interrotto il suo accordo con Anthropic dopo che quest’ultima si è rifiutata di muoversi sui guardrail di sicurezza per quanto riguarda l’uso della sua intelligenza artificiale nella sorveglianza o in armi completamente autonome senza supervisione umana, ha poi designato l’azienda come un rischio per la catena di fornitura, prima di firmare invece un accordo con OpenAI. Tutto ciò è avvenuto poche ore prima che gli attacchi militari statunitensi iniziassero a piovere su Teheran.
L’accordo tra il Dipartimento della Difesa e OpenAI ha portato a un’intensa reazione da parte del grande pubblico, che lo ha visto in gran parte come un cedimento di OpenAI alle richieste dell’amministrazione Trump. Nel frattempo Claude è salito al primo posto nell’App Retailer e gli utenti chiedono il boicottaggio di OpenAI.
OpenAI ha affermato che la sua tecnologia non sarà utilizzata per la sorveglianza domestica di massa o per alimentare sistemi d’arma autonomi diretti. I dettagli effettivi del contratto e il modo in cui verranno implementate tali limitazioni non sono stati resi pubblici, ma i dirigenti di OpenAI hanno condiviso alcune informazioni in un discussion board aperto in stile chiedimi qualsiasi cosa su X durante il high quality settimana.
Il capo dei partenariati per la sicurezza nazionale di OpenAI, Katrina Mulligan, ha affermato che il contratto consente al Pentagono di utilizzare la tecnologia di OpenAI “per tutti gli scopi legittimi, in conformità con la legge applicabile, i requisiti operativi e i protocolli di sicurezza e supervisione consolidati”. In un put up separato, ha chiarito che OpenAI intendeva con “legge applicabile” la “legge applicabile al momento della firma del contratto”.
Mulligan ha anche affermato che il contratto si applica solo alla difesa e non ne consentirà l’utilizzo da parte delle forze dell’ordine nazionali.
“Se questo contratto fosse stato stipulato con le forze dell’ordine nazionali o con la NSA, avremmo richiesto disposizioni contrattuali numerous, ma nulla nella legge statunitense consente al Dipartimento della Guerra di condurre sorveglianza interna”, ha detto Mulligan.
Ma anche il CEO Sam Altman ha ammesso che l’accordo è stato “affrettato” e che “le prospettive non sembrano buone”.
“Ho accettato che l’esercito americano effettui una certa sorveglianza sugli stranieri, e so che i governi stranieri cercano di farlo nei nostri confronti, ma continua a non piacermi”, ha detto Altman in un inviare su X. “D’altra parte rispetto anche il processo democratico. Non credo che spetti a me decidere.”
C’è una notevole fiducia nel governo da parte della management di OpenAI.
“La legge statunitense già limita i risultati peggiori”, ha scritto Mulligan, mentre Altman ha affermato che il governo americano è “un’istituzione che fa del suo meglio per seguire la legge e la politica”.
Ma se scandali di sorveglianza di massa se la storia più recente ci cube qualcosa, il governo americano può trovare spazio di manovra nei vincoli esistenti, se necessario. Anche la possibilità di incostituzionalità degli attacchi militari non ha impedito in passato all’amministrazione Trump di procedere a pieno ritmo con tali attacchi, come nel caso degli scioperi altamente contestati delle navi nei Caraibi alla high quality dello scorso anno che sembrano soddisfare la definizione di crimine di guerra, secondo l’ACLU. Inoltre, il Congresso degli Stati Uniti non ha avuto molta fretta di scrivere leggi che prendano in considerazione l’esistenza dell’intelligenza artificiale.
I dirigenti sostengono inoltre che l’accordo offerto a OpenAI period diverso da quello offerto advert Anthropic.
“Penso che Anthropic avrebbe potuto desiderare un maggiore controllo operativo rispetto a noi”, Altman disse. “Abbiamo esperienza con la tecnologia e ne comprendiamo i limiti, ma penso che dovresti essere terrorizzato da un’azienda privata che resolve cosa è e cosa non è etico nelle aree più importanti.”
Invece, la società avrà ingegneri distaccati che aiuteranno a monitorare l’uso della sua tecnologia da parte del Pentagono, hanno detto i dirigenti di OpenAI su X. Vendere il modello con controlli tecnici, ha detto Mulligan, è “spesso più affidabile delle clausole contrattuali”, come le disposizioni che Anthropic ha chiesto al Pentagono, ma ha detto una fonte anonima Il limite lunedì che l’impatto di queste misure di salvaguardia è limitato.
Anche Sarah Shoker, ex ricercatrice di geopolitica di OpenAI, ha condiviso in a Sottostack put up di sabato secondo cui l’industria della difesa non ha consenso su cosa significhi effettivamente nella pratica un’adeguata supervisione umana nelle armi autonome, il che potrebbe essere il motivo per cui Anthropic non è d’accordo con il Pentagono mentre OpenAI no.
Mentre i dirigenti di OpenAI si sono rivolti a X per difendere la decisione dell’azienda, decine di dipendenti hanno adottato un approccio più critico.
Prima dell’annuncio che OpenAI si period assicurata l’accordo con il Pentagono, 96 dipendenti avevano firmato un accordo lettera aperta chiedendo alla management aziendale di “continuare a rifiutare le attuali richieste del Dipartimento di Guerra per il permesso di utilizzare i nostri modelli per la sorveglianza di massa interna e per uccidere autonomamente persone senza supervisione umana”.
Anche molti dipendenti di OpenAI, inclusi vicepresidenti e capi dipartimento, hanno firmato un accordo lettera aperta indirizzata al Pentagono affinché ritiri la designazione di rischio della catena di fornitura per Anthropic.
E almeno un ricercatore si è rivolto a X per esprimere il suo disaccordo con il contratto.
“Personalmente non credo che ne valga la pena”, ha detto il ricercatore OpenAI Aidan McLaughlin in un inviare su X, aggiungendo che c’è una quantità “schiacciante” di discussioni interne sulla decisione.
Se attualmente lavori o hai lavorato in precedenza presso OpenAI, ci piacerebbe sentire la tua opinione. Contattaci a [email protected]











