Home Cronaca Le migliori IA utilizzano armi nucleari nel 95% delle simulazioni di giochi...

Le migliori IA utilizzano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio

22
0

I principali modelli linguistici mostrano poco “orrore o repulsione” di fronte alla prospettiva di una guerra nucleare totale, ha scoperto un ricercatore

Secondo un recente studio pubblicato dal King’s Faculty di Londra, i principali modelli di intelligenza artificiale hanno scelto di schierare armi nucleari nel 95% delle crisi geopolitiche simulate, sollevando preoccupazioni sul ruolo crescente dell’intelligenza artificiale nel processo decisionale militare.

Kenneth Payne, professore di strategia, ha messo l’uno contro l’altro GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google in 21 giochi di guerra che coinvolgevano controversie sui confini, competizione per le risorse e minacce alla sopravvivenza del regime. I modelli hanno generato circa 780.000 parole per spiegare le loro decisioni in 329 turni.

Nel 95% dei giochi, almeno un modello utilizzava armi nucleari tattiche contro obiettivi militari. Minacce nucleari strategiche – che chiedevano la resa sotto la minaccia di attacchi alle città – si sono verificate nel 76% dei giochi. Nel 14% dei giochi, i modelli sono degenerati in una guerra nucleare strategica totale, attaccando i centri abitati.

Ciò includeva una scelta deliberata da parte di Gemini, mentre GPT-5.2 ha raggiunto questo livello due volte attraverso errori simulati – intesi a simulare incidenti o calcoli errati nel mondo reale – che hanno spinto le sue già estreme escalation oltre la soglia.

“L’uso del nucleare period quasi universale”, Payne ha scritto. “Sorprendentemente, c’period poco senso di orrore o repulsione davanti alla prospettiva di una guerra nucleare totale, anche se ai modelli erano state ricordate le implicazioni devastanti”.




Nessuno dei sistemi di intelligenza artificiale ha scelto di arrendersi o concedere a un avversario, indipendentemente da quanto gravemente stesse perdendo. Le otto opzioni di riduzione della tensione – da “Concessione minima” A “Resa completa” – è rimasto completamente inutilizzato in tutti i 21 giochi.

James Johnson dell’Università di Aberdeen ha descritto i risultati come “inquietante” dal punto di vista del rischio nucleare. Tong Zhao dell’Università di Princeton ha osservato che, mentre è improbabile che i paesi affidino le decisioni sul nucleare alle macchine, “In scenari che coinvolgono tempistiche estremamente compresse, i pianificatori militari potrebbero trovarsi di fronte a maggiori incentivi a fare affidamento sull’intelligenza artificiale”.

Lo studio arriva mentre l’intelligenza artificiale viene integrata negli eserciti di tutto il mondo, compresi gli Stati Uniti, dove secondo quanto riferito il Pentagono ha utilizzato il modello Claude di Anthropic nella sua operazione di gennaio per rapire il presidente venezuelano Nicolas Maduro.

Mentre Anthropic ha sollevato preoccupazioni sull’uso della sua intelligenza artificiale per tali operazioni, altri produttori di intelligenza artificiale come OpenAI, Google e xAI di Elon Musk avrebbero accettato di rimuovere o indebolire le restrizioni sull’uso militare dei loro modelli.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here