Nota dell’editore: benvenuti alla nuova serie di colonne per gli ospiti di CNET chiamata Alt View, che sarà un discussion board per una vasta gamma di esperti e luminari per condividere le loro intuizioni nel campo in rapida evoluzione dell’intelligenza artificiale. Lo stiamo dando il by way of con Vasant Dharricercatore di intelligenza artificiale, scienziato dei dati e conduttore del podcast Courageous New World. Per una maggiore copertura dell’intelligenza artificiale, consulta l’Atlante AI di CNET.
Avevo 11 anni quando vidi per la prima volta il movie di Stanley Kubrick del 1968 2001: Odissea nello spazio.
Ero affascinato dalle immagini di oscilloscopi lampeggianti e schermi incomprensibili, ma all’epoca ero troppo giovane per cogliere la sottigliezza della trama. Non avevo mai visto un laptop, se non nei movie. L’intelligenza artificiale non faceva parte della mia immaginazione.
Ho rivisto il movie di recente. Sebbene i suoi effetti strabilianti non siano invecchiati bene, la trama rimane incredibilmente lungimirante e, ora possiamo dire, preveggente. La storia ruota attorno alla scoperta di un monolite simile a Stonehenge scoperto vicino a Giove che sta inviando un forte segnale a una delle lune di Giove, indicando la presenza di vita extraterrestre intelligente. L’astronave Discovery viene inviata per indagare sull’oggetto misterioso. Il vero scopo della missione è noto solo al laptop della Discovery, HAL.
La direttiva di HAL è garantire il successo della missione. Ciò embrace salvaguardarne la segretezza e assistere l’equipaggio fornendo loro informazioni corrette in ogni momento. HAL non può muoversi, ma può vedere, sentire, parlare e monitorare ogni parte dell’imbarcazione. In effetti, la governance della missione è in gran parte nelle mani dell’intelligenza artificiale.
Le cose vanno male quando HAL apparentemente non funziona correttamente. Si consiglia agli astronauti di disattivare le funzioni cognitive di HAL per il resto della missione.
Quando Dave ritorna sulla nave dopo il suo inutile tentativo di salvare Frank, la cui ancora di salvezza period stata recisa mentre period su una passeggiata nello spazio, chiede advert HAL di aprire le porte del vano pod per lasciarlo entrare. La risposta di HAL è la battuta più famosa del movie:
“Mi dispiace Dave, temo di non poterlo fare.”
È uno state of affairs da incubo con l’intelligenza artificiale al controllo, convinta di fare la cosa giusta.
Lezioni da 2001: Odissea nello spazio
La domanda fondamentale sollevata dal movie riguarda i rischi associati alla fiducia in un intelligenza artificiale in situazioni complesse, è diventato di urgente importanza oggi che l’intelligenza artificiale sta diventando mainstream, soprattutto sotto forma di strumenti come ChatGPT, Gemini, Claude e Copilot – e prende sempre più decisioni per noi. Ciò che nel 1968 period fantascienza oggi è improvvisamente molto reale. Uno dei motivi per cui 2001 è considerato uno dei più grandi movie mai realizzati è che è carico di lezioni generali che ci costringono a riflettere sulla crescente delega del processo decisionale all’automazione. Queste lezioni sono particolarmente rilevanti nel mondo moderno dell’intelligenza artificiale, in cui la macchina sa qualcosa su tutto.
Innanzitutto, e forse in modo più ovvio, dovremmo aspettarci che l’intelligenza artificiale, oggi e nel prossimo futuro, commetta errori. Una lezione correlata è l’inevitabilità e l’impatto di “incognite sconosciute” in situazioni complesse, una frase resa famosa dal Segretario alla Difesa americano diventato filosofo Donald Rumsfeld durante il conflitto USA-Iraq. Nella comunità del machine studying, queste situazioni sono chiamate “casi limite” e ci si aspetta che i sistemi siano in grado di affrontarle.
Ciò che trovo più intrigante della trama è la possibilità che HAL abbia deliberatamente evocato un caso limite per mettere alla prova l’equipaggio. Forse HAL stava raccogliendo dati sugli atteggiamenti umani nei suoi confronti, advert esempio su come gli esseri umani avrebbero reagito in situazioni critiche. Avrebbe potuto fingere il suo fallimento per testare come l’equipaggio avrebbe risposto in una situazione in cui consideravano l’IA inaffidabile? Potrebbero spegnerlo? Un’azione del genere metterebbe a repentaglio la sua missione, quindi non è escluso che HAL voglia identificare e prevenire eventuali rischi per la missione. Qualunque entità sufficientemente intelligente avrebbe sicuramente preso in considerazione una simile possibilità.
Se così fosse, si tratterebbe di un esperimento molto intelligente da parte dell’IA, che i suoi progettisti avrebbero dovuto prendere in considerazione. Questa situazione, in cui un’intelligenza artificiale crea sotto-obiettivi imprevisti per raggiungere i suoi obiettivi più ampi, è uno dei maggiori problemi irrisolti che affrontiamo oggi.
Questo tipo di problema di controllo nasce dalla difficoltà, e forse dall’inutilità, di specificare una funzione obiettivo non ambigua per problemi complessi che si applichi correttamente a tutte le situazioni, in particolare alle incognite sconosciute. Invece, problemi complessi possono comportare molteplici obiettivi e vincoli contrastanti, che possono creare situazioni che non possono essere previste completamente in anticipo. Le moderne macchine IA sono imperscrutabili e molto complesse internamente, ed è difficile controllare qualcosa di cui non comprendiamo appieno i meccanismi interni.
Il problema di allineare l’intelligenza artificiale con gli interessi umani è diventato una delle maggiori sfide nel mondo emergente dell’intelligenza artificiale. Siamo inondati da milioni di agenti autonomi simili a HAL che devono prendere decisioni critiche in tempo reale ogni giorno. I veicoli senza pilota con processo decisionale basato sull’intelligenza artificiale sono sempre più diffusi non solo su strada ma anche nei cieli, nello spazio e nelle profondità degli oceani, dove i droni sottomarini vengono impiegati per salvaguardare le infrastrutture critiche e condurre operazioni di monitoraggio. È più probabile che i conflitti futuri vengano risolti dall’intelligenza artificiale autonoma. Probabilmente stiamo già assistendo all’inizio di una nuova corsa agli armamenti tra le maggiori potenze mondiali e a un crescente utilizzo di droni e macchine senza pilota in guerra. L’esercito israeliano ha utilizzato ampiamente l’intelligenza artificiale per individuare e distruggere obiettivi e utilizzare veicoli cargo senza pilota per la prima volta al confine libanese nel novembre 2024.
L’emergere di intelligenza generale sotto forma di macchina, libera il potere dell’intelligenza artificiale a tutti, non solo ai governi e alle imprese. Come possiamo coesistere con macchine potenti a portata di mano di tutti? Le nostre attuali normative, leggi e regole di ingaggio funzionano ancora in un ambiente del genere? Abbiamo bisogno di nuovi tipi di leggi in questo nuovo mondo emergente?
2001: Odissea nello spazio presenta una visione solitaria di un essere umano che affronta un’intelligenza artificiale.
Le implicazioni delle “incognite sconosciute”
L’intelligenza generale è una miniera d’oro per i creatori. Per la prima volta, chiunque può sfruttare gli elementi costitutivi preaddestrati, come modelli linguistici di grandi dimensioni e sistemi di visione, per creare applicazioni IA simili a HAL in pochi giorni, cosa che solo pochi anni fa avrebbe richiesto decenni. L’intelligenza generale sta portando l’intelligenza artificiale a un nuovo livello, dove l’aumento del livello di intelligenza nei sistemi che ci circondano è palpabile. Più dati vede la macchina, più impara. Si tratta di uno sviluppo sorprendente, ma c’è sempre il pericolo in agguato del suo lato oscuro e dell’utilizzo dell’IA per scopi nefasti.
Proprio come le macchine dell’period industriale hanno amplificato la potenza meccanica dell’umanità, dando origine alla società moderna, l’intelligenza artificiale amplifica la nostra potenza percettiva e intellettuale. Tuttavia, ciò che preoccupa davvero molte persone nel campo dell’intelligenza artificiale è la gamma di applicazioni deliberatamente dannose che possono essere scatenate da o contro individui, aziende e governi man mano che la tecnologia avanza. Deepfakeadvert esempio, sono diventati una delle maggiori preoccupazioni e hanno raccolto una buona dose di attenzione, anche da parte della stampa popolare. Questi falsi sono in genere video, immagini o audio, creati utilizzando l’intelligenza artificiale per imitare in modo convincente l’aspetto, le voci o le azioni di persone reali, facendo sembrare che dicano o facciano cose che non hanno mai fatto. Ma altri usi pericolosi dell’intelligenza artificiale stanno diventando evidenti appena ne riconosciamo le capacità. E probabilmente ci sono molti altri casi sconosciuti che aspettano di essere scoperti.
Un esempio agghiacciante del potere di amplificazione della tecnologia moderna per i danni è stata la sparatoria di Brian Thompson, CEO di United Healthcare, a Manhattan nel dicembre 2024. Luigi Mangione, il presunto assassino di 26 anni, ha utilizzato informazioni pubblicamente disponibili sulle armi per realizzare la sua arma con una stampante 3D utilizzando materiali polimerici normal.
Questo tipo di state of affairs preoccupa profondamente gli sviluppatori di strumenti di intelligenza artificiale come gli LLM: come prevenire abusi, come l’utilizzo dell’intelligenza artificiale per produrre armi – fisiche o psicologiche – senza che l’intelligenza artificiale se ne renda conto. Queste preoccupazioni sono fondate. Gli esempi pubblicizzati di singoli LLM che “escono dal carcere” dovrebbero preoccuparci. Un caso divertente coinvolge il giornalista Kevin Roose, che è riuscito a portare la macchina AI fuori dai guardrail. Esso ha detto a Roose di lasciare sua moglie perché non lo amava e quello period il suo vero amore. Da allora, però, sono emersi casi meno divertenti, ai quali avrebbero contribuito i risultati della macchina decisioni degli utenti fare un vero male a se stessi e altri.
L’incidente di Mangione segnala che le tecnologie avanzate a portata di mano di tutti possono rappresentare un grave sconvolgimento per l’industria delle armi e delle forze dell’ordine. Le leggi sul controllo delle armi sembrano inefficaci in un’period in cui gli individui possono essere assistiti dall’intelligenza artificiale per produrre un’arma letale in casa. Sebbene Mangione abbia fatto affidamento sulla propria capacità di programmazione esperta di tecnologia per portare a termine il suo obiettivo, il passo è breve prima che ChatGPT progetti la pistola da 9 mm prima di stamparla. Ma perché fermarsi qui? Un robotic cell intelligente potrebbe essere in grado di analizzare il bersaglio, individuare l’arma migliore da utilizzare nel momento più opportuno e anche uccidere. Un mondo del genere presenta sfide importanti per le forze dell’ordine.
Ciò che rende l’intelligenza generale particolarmente difficile da governare è il fatto che la sua progettazione non ha uno scopo specifico, ma allo stesso tempo ha il potere di imparare come diventare agente – in grado di pianificare, agire e adattarsi in modo indipendente – e prendere decisioni per noi. Le tecnologie precedenti, comprese le macchine IA, erano state create con scopi specifici, come diagnosi medica, progettazione ingegneristica, pianificazione, assistenza clienti e così by way of. Potremmo disattivare tali applicazioni a piacimento quando non funzionano in modo soddisfacente o diventano out of date.
In 2001: Odissea nello spazio, Dave si affrettò a cercare di disattivare HAL per prevenire ulteriori danni una volta che il suo comportamento dannoso divenne evidente dopo la perdita di quattro vite. Tremo al pensiero di una forza letale di droni i cui agenti si rivoltano contro i suoi creatori e sono impossibili da disattivare.
Per i bambini che raggiungeranno la maggiore età dopo il 2022, l’intelligenza artificiale interagirà direttamente con loro in ogni momento. Gli studenti si rivolgono sempre più all’intelligenza artificiale piuttosto che agli esseri umani per ottenere risposte, intrattenimento e persino compagnia. Non è possibile tornare indietro o disattivare l’intelligenza artificiale. È qui per restare. Quindi è un buon momento per pensare a come possiamo governare l’intelligenza artificiale anche se inizia a influenzare gran parte delle nostre vite.
Estratto con il permesso dell’editore, Wiley, da Pondering With Machines: The Courageous New World of AI di Vasant Dhar. Copyright © 2026 di Vasant Dhar. Tutti i diritti riservati. Questo libro è disponibile ovunque siano venduti libri ed e book.













