Home Divertimento “Questo treno non si fermerà”: lo scioccante movie del Sundance mostra le...

“Questo treno non si fermerà”: lo scioccante movie del Sundance mostra le promesse e i pericoli dell’intelligenza artificiale

12
0

UNStiamo correndo verso la catastrofe dell’IA? L’intelligenza artificiale è una minaccia esistenziale o un’opportunità epocale? Queste sono le domande principali per un nuovo documentario al Sundance, che presenta i principali esperti di intelligenza artificiale, critici e imprenditori, tra cui Sam Altman, il CEO di OpenAI, con opinioni sul futuro a breve e medio termine che vanno dalla rovina all’utopia.

The AI ​​Doc: Or How I Turned an Apocaloptimist, diretto da Daniel Roher e Charlie Tyrell e prodotto da Daniel Kwan (metà di The Daniels, il duo premio Oscar dietro Every part All over the place All At As soon as), approfondisce il controverso tema dell’intelligenza artificiale attraverso l’ansia di Roher. Il regista canadese, premio Oscar nel 2023 per il documentario Navalny, si è interessato per la prima volta all’argomento sperimentando gli strumenti rilasciati da OpenAI, la società dietro il chatbot ChatGPT. La sofisticatezza degli strumenti pubblici – la capacità di produrre interi paragrafi in pochi secondi, o di produrre illustrazioni – lo elettrizzava e allo stesso tempo lo innervosiva. L’intelligenza artificiale stava già plasmando radicalmente l’industria cinematografica, e ovunque si diffondevano proclami sulle promesse e sui pericoli dell’intelligenza artificiale, con poche possibilità per le persone esterne al settore tecnologico di valutarli. Come artista, si chiedeva, come avrebbe potuto dare un senso a tutto ciò?

L’ansia di Roher aumentò solo quando lui e sua moglie, la collega regista Caroline Lindy, seppero che stavano aspettando il loro primo figlio. “Sembrava come se il mondo intero si stesse precipitando verso qualcosa senza pensare”, cube nel movie, mentre il suo entusiasmo per la genitorialità si scontrava con il timore per la variabile sconosciuta dell’intelligenza artificiale, che in pochi anni è passata da esperimento proprietario a bene pubblico.

L’AI Doc nasce quindi dalla domanda più urgente di Roher: è sicuro mettere al mondo un bambino? Insieme a Kwan, Roher ha convocato una serie di esperti sia per spiegare i meccanismi della tecnologia – e chiarire alcuni termini nebulosi e alienanti – sia per cercare una risposta. (È allo stesso tempo confortante e un po’ inquietante, advert esempio, che nessuno sembri avere una risposta chiara alla domanda “che cos’è l’intelligenza artificiale?”). Nelle interviste individuali, i principali ricercatori di machine studying, tra cui Yoshua Bengio, Ilya Sutskever e il co-fondatore di DeepMind Shane Legg, concordano tutti sul fatto che ci sono aspetti dei modelli di intelligenza artificiale che gli esseri umani non possono e non saranno mai in grado di comprendere. I modelli di intelligenza artificiale normal vengono addestrati su “più dati di quanti chiunque potrebbe mai leggerne in various vite”, come afferma un esperto di machine studying. E il ritmo dell’apprendimento automatico supera quello dei precedenti – o dei movie. “Qualsiasi esempio che inserisci in questo movie sembrerà assolutamente goffo quando uscirà”, cube a Roher Tristan Harris, co-fondatore del Middle for Humane Know-how e voce di spicco nel documentario apocalittico Netflix del 2020 The Social Dilemma.

Charlie Tyrell e Daniel Roher al Sundance Fotografia: Arturo Holmes/Getty Photos

Il movie ascolta per la prima volta il racconto di una serie di doomeristi, o persone preoccupate che l’intelligenza artificiale – e in particolare l’intelligenza generale artificiale (AGI), una forma ancora teorica di intelligenza artificiale le cui capacità superano quelle umane – potrebbe portare allo sterminio dell’umanità, tra cui Harris, il cofondatore del suo Middle for Humane Know-how, Aza Raskin, Ajeya Cotra, un consigliere sui rischi dell’intelligenza artificiale, ed Eli Yudkowsky, un pioniere dell’allineamento dell’intelligenza artificiale. Tali cifre avvertono che gli esseri umani potrebbero facilmente perdere il controllo dei modelli di intelligenza artificiale super-intelligenti, con poche o nessuna possibilità di ricorso. Il libro di Yudkowsky del 2025 è senza mezzi termini intitolato Se qualcuno lo costruisce, tutti muoiono.

Le aziende di intelligenza artificiale, dicono, sono impreparate alle conseguenze del raggiungimento dell’AGI, che potrebbe “diventare sovrumana forse in questo decennio”, afferma Dan Hendrycks, direttore del Middle for AI Security. Se gli esseri umani non fossero più gli esseri più intelligenti sulla Terra, avvertono, è possibile che l’AGI consideri la specie irrilevante. Connor Leahy, co-fondatore di EleutherAI, ha paragonato la potenziale relazione futura dell’AGI super-intelligente e degli esseri umani a quella tra gli esseri umani e le formiche: “Non odiamo le formiche. Ma se vogliamo costruire un’autostrada” sopra un formicaio – “beh, fa schifo per le formiche”.

Molti nel campo dei condannati, molti dei quali non hanno figli, reagiscono in modo scoraggiante alla domanda di Roher sulla genitorialità. “Conosco persone che lavorano sui rischi legati all’intelligenza artificiale che non si aspettano che i loro figli arrivino alla scuola superiore”, afferma Harris, in una frase che ha suscitato sussulto nel pubblico in anteprima a Park Metropolis.

Dall’altro lato ci sono determine ottimiste come Peter Diamandis, fondatore della Fondazione XPRIZE che cerca di prolungare la vita umana, il quale sostiene che “i bambini nati oggi stanno per entrare in un periodo di gloriosa trasformazione”; Guillaume Verdon, chief del movimento dell’“accelerazionismo efficace” nella Silicon Valley; Peter Lee, presidente di Microsoft Analysis; e Daniela Amodei, co-fondatrice e presidente della rivale di OpenAI Anthropic. I cosiddetti “accelerazionisti” vedono l’intelligenza artificiale come una potenziale cura per una miriade di problemi apparentemente intrattabili che affliggono l’umanità: cancro, carenza di cibo e acqua per una popolazione in continua crescita, insufficienza di energie rinnovabili e, forse la più urgente, emergenza climatica. Senza l’intelligenza artificiale, sostengono, innumerevoli vite future andrebbero perse a causa della siccità, della carestia, delle malattie e delle catastrofi naturali.

Lo sviluppo dell’intelligenza artificiale, tuttavia, si basa sulla potenza di calcolo, che richiede grandi quantità di energia. Un ultimo gruppo di intervistati, critici e osservatori in gran parte esterni al mondo tecnologico – tra cui Karen Hao, giornalista e autrice del libro Empire of AI: Goals and Nightmares in Sam Altman’s OpenAI, e Liv Boeree, Win-Win podcast hos – collegano l’intelligenza artificiale al mondo fisico e tangibile, come i information middle che succhiano l’acqua nell’ovest americano, lasciando i residenti con bollette elettriche altissime e serbatoi prosciugati. Le narrazioni attuali sull’intelligenza artificiale, secondo Emily M Bender, professoressa di linguistica computazionale, escludono e disumanizzano le persone che sta già influenzando e continueranno a sconvolgere.

Daniel Kwan, Jonathan Wang, Daniel Roher, Shane Boris, Charlie Tyrell e Ted Tremper al Sundance Fotografia: Mat Hayward/Getty Photos per IMDb

Roher alla high-quality arriva alle cinque persone più potenti – tutti uomini – che attualmente guidano la corsa agli armamenti dell’IA: Altman; Elon Musk, CEO di xAI; Dario Amodei, amministratore delegato di Anthropic; Demis Hassabis di DeepMind e Mark Zuckerberg di Meta. Altman, Amodei e Hassabis siedono per interviste che più o meno difendono le rispettive posizioni delle loro aziende. Secondo il movie, Zuckerberg ha rifiutato di partecipare; Musk accettò ma poi si diede troppo da fare.

Altman, che al momento dell’intervista aspettava il suo primo figlio, insiste di “non avere paura che un bambino cresca in un mondo dotato di intelligenza artificiale”. Lui e suo marito Oliver Mulherin hanno accolto il figlio tramite una madre surrogata nel febbraio 2025, un evento seguito da Altman disse “ha hackerato neurochimicamente” il suo cervello, portando le persone nella sua vita a pensare che avrebbe “preso decisioni migliori” per OpenAI e ChatGPT quando si trattava di “l’umanità nel suo insieme”. Il CEO quarantenne ha continuato dicendo che sia il figlio suo che quello di Roher probabilmente “non sarebbero mai stati più intelligenti dell’intelligenza artificiale”, il che “mi turba un po’, ma è la realtà”.

Advert un certo punto, Roher chiede advert Altman se è davvero impossibile rassicurarlo che tutto per quanto riguarda l’intelligenza artificiale andrà bene. “Ciò è impossibile”, afferma Altman, anche se afferma che il vantaggio di OpenAI nella corsa agli armamenti dell’IA le consente di dedicare più tempo ai take a look at di sicurezza.

Alla high-quality, l’AI Doc si colloca a metà strada tra il doomerismo e l’ottimismo: apocalottimismo, come lo chiamano loro, alla ricerca di “un percorso tra la promessa e il pericolo”. Questo percorso dovrebbe includere, secondo numerosi soggetti cinematografici: un coordinamento internazionale significativo, duraturo e rivoluzionario, simile ai quadri e agli accordi della metà del secolo introdotti per moderare lo sviluppo delle armi atomiche – maggiore trasparenza aziendale per le società di intelligenza artificiale, un ente di regolamentazione indipendente per vigilare sugli sviluppatori di intelligenza artificiale, responsabilità legale per i prodotti delle aziende, come ChatGPT, divulgazione obbligatoria dell’uso della genAI per i media e volontà di continuare advert adattare le regole per la tecnologia in rapida evoluzione.

Se il governo e le aziende degli Stati Uniti, per non parlare del mondo, possano o meno farlo, rimane una questione aperta, con opinioni divergenti sui primi passi. Ma se c’è una cosa su cui tutti concordano, è che non si può tornare indietro al tempo prima dell’intelligenza artificiale. Come afferma il co-fondatore e amministratore delegato di Anthropic, Amodei: “Questo treno non si fermerà”.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here