Home Tecnologia Come appaiono realmente i modelli di intelligenza artificiale per la guerra

Come appaiono realmente i modelli di intelligenza artificiale per la guerra

14
0

Anthropic potrebbe avere dei dubbi nel dare alle forze armate statunitensi un accesso illimitato ai suoi modelli di intelligenza artificiale, ma alcune startup stanno costruendo un’intelligenza artificiale avanzata appositamente per applicazioni militari.

Tecnologie Smackche questa settimana ha annunciato un finanziamento di 32 milioni di dollari, sta sviluppando modelli che, a suo dire, supereranno presto le capacità di Claude quando si tratta di pianificare ed eseguire operazioni militari. E, a differenza di Anthropic, la startup sembra meno interessata a vietare specifici tipi di uso militare.

“Quando presti servizio militare, presti giuramento che servirai onorevolmente, legalmente, in conformità con le regole della guerra”, afferma il CEO Andy Markoff. “Per me, le persone che utilizzano la tecnologia e si assicurano che venga utilizzata in modo etico devono indossare un’uniforme”.

Markoff non è certo un normale dirigente dell’IA. Ex comandante del comando delle operazioni speciali delle forze marine statunitensi, ha contribuito a eseguire operazioni delle forze speciali advert alto rischio in Iraq e Afghanistan. Ha cofondato Smack con Clint Alanis, un altro ex marine, e Dan Gould, un informatico che in precedenza ha lavorato come vicepresidente della tecnologia presso Tinder.

I modelli di Smack imparano a identificare i piani di missione ottimali attraverso un processo di tentativi ed errori, simile a come Google ha addestrato il suo programma AlphaGo del 2017. Nel caso di Smack, la strategia prevede di far passare il modello attraverso vari scenari di gioco di guerra e di far sì che analisti esperti forniscano un segnale che indichi al modello se la strategia scelta ripagherà. La startup potrebbe non avere il finances di un laboratorio di intelligenza artificiale di frontiera convenzionale, ma sta spendendo milioni per addestrare i suoi primi modelli di intelligenza artificiale, afferma Markoff.

Linee di battaglia

L’uso militare dell’intelligenza artificiale è diventato un tema caldo nella Silicon Valley dopo che i funzionari del Dipartimento della Difesa si sono scontrati con i dirigenti di Anthropic sui termini di un contratto di circa 200 milioni di dollari.

Uno dei problemi che hanno portato al crollo, che ha portato il segretario alla Difesa Pete Hegseth a dichiarare Anthropic un rischio per la catena di approvvigionamento, è stato il desiderio di Anthropic di limitare l’uso dei suoi modelli nelle armi autonome.

Markoff sostiene che questo furore nasconde il fatto che i grandi modelli linguistici odierni non sono ottimizzati per l’uso militare. I modelli generici come Claude sono bravi a riassumere i report, cube. Ma non sono addestrati sui dati militari e non hanno una comprensione del mondo fisico a livello umano, il che li rende inadatti al controllo dell’{hardware} fisico. “Posso dirvi che non sono assolutamente in grado di identificare il bersaglio”, afferma Markoff.

“Nessuno di cui sono a conoscenza nel Dipartimento della Guerra parla di automatizzare completamente la catena di uccisione”, afferma, riferendosi ai passaggi necessari per prendere decisioni sull’uso della forza letale.

Ambito della missione

Gli Stati Uniti e altri eserciti utilizzano già armi autonome in determinate situazioni, compresi i sistemi di difesa missilistica che devono reagire a velocità sovrumane.

“Gli Stati Uniti e più di 30 altri stati stanno già implementando sistemi d’arma con vari gradi di autonomia, compresi alcuni che definirei completamente autonomi”, afferma Rebecca Crootof, un’autorità sulle questioni legali relative alle armi autonome al Facoltà di giurisprudenza dell’Università di Richmond.

In futuro, secondo Markoff, modelli specializzati come quello su cui sta lavorando Smack potrebbero essere utilizzati anche per scopi di pianificazione delle missioni. I modelli dell’azienda hanno lo scopo di aiutare i comandanti advert automatizzare gran parte del lavoro faticoso coinvolto nella stesura dei piani di missione. La pianificazione delle missioni militari viene ancora in genere eseguita manualmente con lavagne e taccuini, afferma Markoff.

Se gli Stati Uniti entrassero in guerra con un “quasi pari” come la Russia o la Cina, afferma Markoff, il processo decisionale automatizzato potrebbe offrire agli Stati Uniti il ​​tanto necessario “dominio decisionale”.

Ma è ancora una questione aperta se l’intelligenza artificiale possa essere utilizzata in modo affidabile in tali circostanze. Un recente esperimento, condotto da un ricercatore del King’s Faculty di Londra, ha dimostrato in modo allarmante che gli LLM tendevano ad intensificarsi conflitti nucleari nei giochi di guerra.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here