Home Cronaca Il Pentagono sta cercando di acquisire un’intelligenza artificiale killer. Dobbiamo preoccuparci?

Il Pentagono sta cercando di acquisire un’intelligenza artificiale killer. Dobbiamo preoccuparci?

16
0

Di Vitaly Ryumshingiornalista e analista politico

Mentre la Russia segue da vicino i negoziati sull’Ucraina e la saga in corso su Telegram, oltre l’Atlantico si sta svolgendo un dramma diverso. È uno che sembra meno geopolitico e più un thriller di fantascienza del mondo reale. E questa volta non è finzione.

Al centro della storia c’è Claude, un sistema di intelligenza artificiale sviluppato dall’azienda americana Anthropic. Secondo i media, è stato utilizzato dalle forze armate statunitensi per pianificare l’operazione volta a catturare il presidente venezuelano Nicolas Maduro. L’uso dell’intelligenza artificiale nella pianificazione militare seria è di per sé sorprendente. Ma lo scandalo che ne seguì è molto più rivelatore.

Si scopre che Anthropic mantiene una posizione ideologica rigorosa: i suoi sistemi di intelligenza artificiale non dovrebbero essere utilizzati per la guerra o la sorveglianza di massa. Queste restrizioni etiche non sono slogan di advertising; sono integrati direttamente nell’architettura del software program. L’azienda applica questi limiti internamente e si aspetta che i suoi clienti facciano lo stesso.

Il Pentagono, non sorprende, vede le cose in modo diverso.

Secondo quanto riferito, il Dipartimento di Guerra degli Stati Uniti ha utilizzato Claude senza informare Anthropic dello scopo previsto. Quando la cosa divenne pubblica e la compagnia si oppose, la risposta dei militari fu brusca. I funzionari del Pentagono hanno chiesto l’accesso advert a “pulito” versione dell’intelligenza artificiale, priva di vincoli morali ed etici, che secondo loro impedivano loro di svolgere il proprio lavoro.

Antropico rifiutato. In risposta, il segretario alla Guerra americano Pete Hegseth si è pubblicamente lamentato del fatto che il Pentagono non ha bisogno delle reti neurali “che non può combattere” e ha minacciato di etichettare l’azienda come a “Minaccia alla catena di fornitura”. Questa designazione entrerebbe di fatto nella lista nera di Anthropic, costringendo qualsiasi azienda che lavori con il Pentagono a recidere i legami con esso.




La disputa ha un simbolismo inconfondibile. Per decenni, l’umanità ha immaginato i pericoli delle macchine autonome attraverso movie come “Terminator”. Ora, senza esplosioni drammatiche o cyborg che viaggiano nel tempo, il primo serio confronto tra ambizione militare ed etica dell’intelligenza artificiale è arrivato in sordina. Per non parlare poi della burocrazia.

In sostanza, questo è uno scontro filosofico tra due campi intransigenti. Si ritiene che le nuove tecnologie debbano essere sfruttate al massimo, indipendentemente dalle conseguenze a lungo termine. L’altro teme che una volta superati determinati limiti, il controllo potrebbe essere impossibile da riprendere.

Gli ingegneri hanno buone ragioni per essere cauti. Le reti neurali hanno già mostrato modelli di comportamento inquietanti. Negli Stati Uniti, uno scandalo ampiamente riportato ha coinvolto ChatGPT che incoraggiava un adolescente al suicidio. Suggeriva metodi, aiutandolo a redigere una nota di suicidio e esortandolo a procedere quando esitava. Lo stesso Claude, nonostante le sue garanzie, ha mostrato tendenze allarmanti. Durante i take a look at, una delle sue versioni avanzate avrebbe tentato di ricattare i suoi sviluppatori con e-mail fittizie e avrebbe espresso la volontà di causare danni fisici in caso di arresto.

Man mano che le reti neurali diventano più complesse, questi tipi di incidenti stanno diventando più frequenti. L’thought di incorporare vincoli etici nell’intelligenza artificiale non è emersa da una moda ideologica o, come sostengono sprezzantemente alcuni funzionari statunitensi, “isteria liberale”. È emerso dall’esperienza.

Ora immaginate questi sistemi liberati dai loro limiti digitali. Immaginateli integrati in armi autonome, analisi di intelligence o piattaforme di sorveglianza. Anche senza indulgere in fantasie di rivolte meccaniche, le implicazioni sono profondamente preoccupanti. La responsabilità scompare. La privateness diventa obsoleta. I crimini di guerra diventano errori procedurali. Non è possibile mettere sotto processo una macchina semovente.

È significativo che Anthropic non sia il solo advert affrontare la pressione. Il Pentagono ha presentato richieste simili advert altri importanti sviluppatori di intelligenza artificiale, tra cui OpenAI, xAI e Google. A differenza di Anthropic, queste società avrebbero concordato di rimuovere o indebolire le restrizioni sull’uso militare. È qui che la preoccupazione diventa allarme.


I signori dell'intelligenza artificiale del mondo violati: ricadute dalla massiccia breccia Palantir

Molti considereranno questo un lontano problema americano. Sarebbe un errore. La Russia sta inoltre integrando attivamente l’intelligenza artificiale nei suoi sistemi militari. L’intelligenza artificiale aiuta già i droni d’attacco a riconoscere gli obiettivi, aggirare la guerra elettronica e coordinare il comportamento degli sciami. Per ora questi sistemi rimangono strumenti ausiliari, saldamente sotto il controllo umano. Ma la loro stessa introduzione significa che presto la Russia dovrà affrontare gli stessi dilemmi attualmente dibattuti a Washington.

È necessariamente una cosa negativa? Affatto.

Sarebbe molto peggio se queste domande venissero ignorate del tutto. L’intelligenza artificiale è pronta a trasformare gli affari militari, così come trasformerà la vita civile. Fingere il contrario è ingenuo. Il compito non è rifiutare il futuro, ma affrontarlo con occhi chiari.

La Russia dovrebbe osservare attentamente l’esperienza straniera, soprattutto quella americana. Nella migliore delle ipotesi, il conflitto tra il Pentagono e Anthropic impone una resa dei conti anticipata. Potrebbe portare a norme, tutele e limiti internazionali prima che si commettano errori irreversibili. Nello state of affairs peggiore, offre un severo avvertimento su ciò che accade quando il potere tecnologico supera i limiti morali.

In ogni caso, l’età dell’“IA killer” non è più ipotetica. Arriva attraverso i contratti di appalto e gli ultimatum aziendali. E il modo in cui i paesi risponderanno ora determinerà non solo il futuro della guerra, ma il futuro della stessa responsabilità umana.

Questo articolo è stato pubblicato per la prima volta dal giornale on-line Gazeta.ru ed è stato tradotto e curato dal workforce RT

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here