Home Cronaca All’interno dell’esercito cinese di intelligenza artificiale: i droni imparano a cacciare e...

All’interno dell’esercito cinese di intelligenza artificiale: i droni imparano a cacciare e uccidere come i predatori della natura

7
0

La Cina sta insegnando ai suoi droni a combattere come animali. Gli ingegneri dell’Università di Beihang, una scuola collegata all’esercito, hanno creato un sistema in cui i droni difensivi imitano i falchi prendendo di mira i droni nemici più vulnerabili, mentre i droni attaccanti si comportano come colombe per sfuggire ai falchi. In una simulazione cinque contro cinque, i falchi hanno distrutto tutte le colombe in soli 5,3 secondi. La ricerca ha ottenuto un brevetto nell’aprile 2024 e fa parte di un istituto di difesa cinese che prevede l’utilizzo dell’intelligenza artificiale per gestire sciami di droni autonomi e altri sistemi senza pilota.L’Esercito popolare di liberazione (PLA) vede l’intelligenza artificiale come un modo per far funzionare droni, cani robotic e altri sistemi robotici con un enter umano minimo. I teorici militari cinesi hanno scritto che l’period dell’intelligenza artificiale potrebbe essere una rivoluzione per la guerra, con i sistemi senza pilota come forza principale e le operazioni a sciame come metodo di combattimento principale. Confrontano il suo potenziale impatto con la polvere da sparo, un’invenzione cinese che trasformò la guerra globale secoli fa.I droni sono già fondamentali nei conflitti moderni, inclusa l’Ucraina, dove fungono da esche, spie o armi negli attacchi suicidi. La Cina ha un vantaggio nella produzione di {hardware}, con fabbriche in grado di produrre oltre un milione di droni a basso costo all’anno, rispetto alle decine di migliaia negli Stati Uniti a costi molto più elevati. La Cina ha mostrato lupi robotic armati che potrebbero lavorare con sciami aerei per il combattimento collaborativo.Gli esperti affermano che l’intelligenza artificiale può anche compensare le lacune nella formazione PLA. «A livello tattico, per le missioni concrete, c’è un consenso crescente [in Chinese military writings] che i sistemi autonomi hanno il potenziale per funzionare meglio degli esseri umani”, ha affermato Sunny Cheung della Jamestown Basis. La struttura militare top-down della Cina e la limitata esperienza di combattimento tra i comandanti rendono i droni autonomi particolarmente attraenti.Le ambizioni dell’IA del PLA vanno oltre gli sciami aerei. I documenti di appalto descrivono sistemi mobili di guerra cognitiva in grado di trasmettere video deepfake, schierare cani robotic e persino utilizzare suoni diretti contro obiettivi. La tecnologia è ancora in fase di sviluppo e gli esperti avvertono dei rischi se i sistemi prendono decisioni mortali al di fuori del controllo umano o falliscono in condizioni reali, come la guerra elettronica o il disturbo del segnale.La ricerca cinese studia anche il comportamento di altri animali, tra cui formiche, coyote, pecore, balene, aquile e moscerini della frutta, per migliorare la capacità dei droni di agire collettivamente. Dal 2022, almeno 930 brevetti relativi allo swarm intelligence sono stati depositati da istituzioni cinesi legate all’esercito, rispetto ai circa 60 negli Stati Uniti, riferisce il Wall Road Journal. Anche l’esercito americano sta esplorando gli sciami di droni, ma dà priorità ai singoli droni che operano insieme ai soldati umani. Gli esperti osservano che la combinazione cinese di intelligenza artificiale e una vasta catena di approvvigionamento di droni potrebbe consentire al PLA di sopraffare le difese nemiche in scenari come un conflitto su Taiwan. “Potresti facilmente avere questa densa quantità di potenza di fuoco lassù che scansiona e cerca costantemente e rende molto difficile per Taiwan condurre operazioni difensive”, ha affermato Stacie Pettyjohn del Heart for a New American Safety.I pensatori militari cinesi vedono l’intelligenza artificiale come una soluzione ai limiti umani, ma alcuni mettono in guardia dai pericoli. “Una volta che un sistema d’arma di intelligenza artificiale produce rischi per la sicurezza, la ‘scatola nera dell’algoritmo’ può diventare una scusa razionalizzata per le parti responsabili per sottrarsi alle responsabilità”, ha scritto Zhu Qichao dell’Università nazionale della difesa cinese.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here