Home Tecnologia La sicurezza dell’intelligenza artificiale incontra la macchina da guerra

La sicurezza dell’intelligenza artificiale incontra la macchina da guerra

16
0

Quando Antropico l’anno scorso è diventata la prima grande azienda di intelligenza artificiale autorizzata dal governo degli Stati Uniti per usi riservati, comprese le applicazioni militari, ma la notizia non ha avuto grande successo. Ma questa settimana un secondo sviluppo ha colpito come una palla di cannone: il Pentagono riconsiderare la sua relazione con la società, incluso un contratto da 200 milioni di dollari, apparentemente perché l’azienda di intelligenza artificiale attenta alla sicurezza si oppone alla partecipazione a determinate operazioni mortali. Il cosiddetto Dipartimento della Guerra potrebbe addirittura designare Anthropic come un “rischio della catena di fornitura”, una lettera scarlatta solitamente riservata alle aziende che fanno affari con paesi esaminati dalle agenzie federali, come la Cina, il che significa che il Pentagono non farebbe affari con aziende che utilizzano l’intelligenza artificiale di Anthropic nel loro lavoro di difesa. In una dichiarazione a WIRED, il portavoce capo del Pentagono Sean Parnell ha confermato che Anthropic period al centro dell’attenzione. “La nostra nazione richiede che i nostri companion siano disposti advert aiutare i nostri combattenti a vincere in qualsiasi battaglia. In definitiva, si tratta delle nostre truppe e della sicurezza del popolo americano”, ha affermato. Questo è un messaggio anche per altre aziende: OpenAI, xAI e Google, che attualmente hanno il Dipartimento della Difesa contratti per lavoro non classificato, stanno facendo i salti mortali per ottenere le loro elevate autorizzazioni.

C’è molto da disfare qui. Per prima cosa, c’è da chiedersi se Anthropic venga punito per essersi lamentato del fatto che il suo modello di intelligenza artificiale Claude è stato utilizzato come parte del raid per rimuovere il presidente del Venezuela Nicolás Maduro (questo è ciò che viene segnalato; l’azienda smentisce). C’è anche il fatto che Anthropic sostiene pubblicamente la regolamentazione dell’IA, una posizione anomala nel settore e che va contro le politiche dell’amministrazione. Ma c’è in gioco un problema più grande e inquietante. Le richieste del governo per l’uso militare renderanno l’intelligenza artificiale stessa meno sicura?

Ricercatori e dirigenti ritengono che l’intelligenza artificiale sia la tecnologia più potente mai inventata. Praticamente tutte le attuali società di intelligenza artificiale sono state fondate sulla premessa che sia possibile ottenere l’AGI, o superintelligenza, in modo da prevenire danni diffusi. Elon Musk, il fondatore di xAI, un tempo period il più grande sostenitore del controllo dell’intelligenza artificiale: ha cofondato OpenAI perché temeva che la tecnologia fosse troppo pericolosa per essere lasciata nelle mani di aziende in cerca di profitto.

Anthropic si è ritagliato uno spazio come il più attento alla sicurezza di tutti. La missione dell’azienda è quella di integrare i guardrail nei loro modelli in modo che i malintenzionati non possano sfruttare il potenziale più oscuro dell’intelligenza artificiale. Isaac Asimov lo ha detto per primo e nel modo migliore leggi della robotica: Un robotic non può ferire un essere umano né consentire, attraverso l’inazione, che un essere umano venga danneggiato. Anche quando l’intelligenza artificiale diventerà più intelligente di qualsiasi essere umano sulla Terra – un’eventualità in cui i chief dell’intelligenza artificiale credono fermamente – quei guardrail dovranno resistere.

Sembra quindi contraddittorio che i principali laboratori di intelligenza artificiale si stiano affrettando per inserire i loro prodotti in operazioni militari e di intelligence all’avanguardia. Essendo il primo grande laboratorio con un contratto riservato, Anthropic fornisce al governo a “set personalizzato di modelli Claude Gov costruiti esclusivamente per i clienti della sicurezza nazionale degli Stati Uniti.” Tuttavia, Anthropic ha affermato di averlo fatto senza violare i propri normal di sicurezza, incluso il divieto di utilizzare Claude per produrre o progettare armi. L’amministratore delegato di Anthropic Dario Amodei ha espressamente detto non vuole che Claude sia coinvolto nelle armi autonome o nella sorveglianza governativa dell’intelligenza artificiale. Ma questo potrebbe non funzionare con l’attuale amministrazione. Il direttore tecnico del Dipartimento della Difesa Emil Michael (ex chief business officer di Uber) ha detto ai giornalisti questa settimana che il governo non tollererà che una società di intelligenza artificiale limiti il ​​modo in cui l’esercito utilizza l’intelligenza artificiale nelle sue armi. “Se c’è uno sciame di droni che esce da una base militare, quali sono le tue opzioni per abbatterlo? Se il tempo di reazione umana non è abbastanza veloce… come farai?” chiese retoricamente. Questo per quanto riguarda la prima legge della robotica.

C’è una buona argomentazione da sostenere secondo cui una sicurezza nazionale efficace richiede la migliore tecnologia delle aziende più revolutionary. Mentre anche pochi anni fa alcune aziende tecnologiche esitavano a collaborare con il Pentagono, nel 2026 sono generalmente aspiranti appaltatori militari che sventolano bandiere. Non ho ancora sentito nessun dirigente dell’IA parlare del fatto che i loro modelli siano associati alla forza letale, tranne il CEO di Palantir, Alex Karp non è timido nel dirlocon apparente orgoglio, “Il nostro prodotto viene utilizzato occasionalmente per uccidere persone”.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here