In un nuovo saggio di 38 pagine pubblicato sul suo sito internet personale, il CEO e co-fondatore di Anthropic Dario Amodei lancia un appello per un’azione urgente per affrontare i rischi dell’intelligenza artificiale tremendous intelligente.
Amodei scrive che questo tipo di intelligenza artificiale auto-migliorante potrebbe essere solo uno o due anni di distanza – e avverte che i rischi includono la schiavitù e la “distruzione di massa” dell’umanità.
Il saggio “L’adolescenza della tecnologia,” si occupa dei rischi dell’intelligenza artificiale sia noti che sconosciuti. Il CEO parla a lungo del potenziale del bioterrorismo alimentato dall’intelligenza artificiale, degli eserciti di droni controllati da un’intelligenza artificiale malevola e dell’intelligenza artificiale che rende i lavoratori umani obsoleti su scala sociale.
Per affrontare questi rischi, Amodei suggerisce una serie di interventi, dall’autoregolamentazione nel settore dell’intelligenza artificiale fino alla modifica della Costituzione degli Stati Uniti.
Il CEO di Anthropic avverte che l’intelligenza artificiale distruggerà la metà di tutti i posti di lavoro dei colletti bianchi
Il saggio di Amodei è ponderato e ben studiato. Ma commette anche il peccato capitale della scrittura dell’IA: non può resistere all’antropomorfizzazione dell’IA.
E trattando il suo prodotto come un essere vivente e cosciente, Amodei cade proprio nella trappola da cui mette in guardia.
Significativamente, allo stesso tempo, il New York Times ha pubblicato un’importante indagine sulla “psicosi dell’intelligenza artificiale”. Si tratta di un termine generico senza una definizione medica precisa e si riferisce a una vasta gamma di problemi di salute mentale esacerbati dai chatbot IA come ChatGPT o Claude. Può includere deliri, paranoia o una rottura totale con la realtà.
“Tuttavia, quando un venditore di IA ti cube che l’IA è una tecnologia inarrestabile che cambia il mondo nell’ordine della rivoluzione agricola… dovresti prendere questa previsione per quello che è: una presentazione di vendita.”
Questi casi hanno spesso una cosa in comune: una persona vulnerabile passa così tanto tempo a parlare con un chatbot dotato di intelligenza artificiale che inizia a credere che il chatbot sia vivo. I Giant Language Fashions (LLM) che alimentano piattaforme come ChatGPT possono produrre un facsimile molto realistico della conversazione umana e, nel tempo, gli utenti possono sviluppare una dipendenza emotiva dal chatbot.
Quando passi troppo tempo a parlare con una macchina programmata per farlo suono empatico – e quando quella macchina è sempre presente e ottimizzata per il coinvolgimento – è fin troppo facile dimenticare che non c’è nessuna mente al lavoro dietro lo schermo.
Spiegare il fenomeno noto come “psicosi dell’intelligenza artificiale”
Gli LLM sono potenti motori di previsione delle parole, ma non hanno coscienza, sentimenti o empatia. Leggendo “L’adolescenza della tecnologia”, ho iniziato a chiedermi se Amodei non avesse stabilito un legame emotivo eccessivo con la sua stessa macchina.
Amodei è responsabile della creazione di uno dei chatbot più potenti al mondo. Senza dubbio ha trascorso innumerevoli ore usando Claude, parlando con lui, testandolo e migliorandolo. Anche lui ha cominciato a vedere un dio nella macchina?
Il saggio descrive i chatbot basati sull’intelligenza artificiale come “psicologicamente complessi”. Parla dell’intelligenza artificiale come se avesse motivazioni e obiettivi propri. Descrive i modelli esistenti di Anthropic come dotati di un forte senso di “identità personale” come “brava persona”.
Velocità della luce mashable
In breve, sta antropomorfizzando l’intelligenza artificiale generativa – e non semplicemente una forma di intelligenza artificiale futura e tremendous intelligente, ma l’intelligenza artificiale basata su LLM di oggi.
Perché il destino dell’IA è sempre dietro l’angolo
Gran parte del dibattito sui pericoli dell’intelligenza artificiale deriva direttamente dalla fantascienza, come ammette Amodei, eppure anche lui è colpevole della stessa portata.
Il saggio si apre con una sezione intitolata “Evitare il doomerismo”, in cui Amodei critica le voci “meno sensate” e più “sensazionalistiche” che discutono dei rischi dell’IA. “Queste voci usavano un linguaggio scoraggiante che ricorda la religione o la fantascienza”, scrive.
Ma il saggio di Amodei evoca ripetutamente anche la fantascienza. E per quanto riguarda la religione, sembra nutrire una convinzione di fede secondo cui la superintelligenza artificiale è vicina.
Fermatemi se avete già sentito questa frase: “Non è possibile che passino più di qualche anno prima che l’intelligenza artificiale diventi migliore degli esseri umani praticamente in tutto. In effetti, questa immagine probabilmente sottostima il probabile tasso di progresso”.
Per i catastrofisti dell’intelligenza artificiale, la superintelligenza lo è Sempre proprio dietro l’angolo. In un precedente saggio con una tendenza più utopica, “Macchine della grazia amorevole,” Amodei ha scritto che la tremendous intelligenza artificiale potrebbe essere solo uno o due anni di distanza. (Quel saggio è stato pubblicato nell’ottobre 2024, ovvero uno o due anni fa).
Adesso eccolo fare la stessa stima: la super-intelligenza è a uno o due anni di distanza. Ancora una volta, lo è Appena dietro l’angolo. Presto, molto presto, gli strumenti di intelligenza artificiale generativa come Claude impareranno a migliorarsi, ottenendo un’esplosione di intelligenza come mai vista prima sul pianeta. La singolarità arriverà presto, dicono i sostenitori dell’intelligenza artificiale. Fidati di noi, dicono.
Ma qualcosa non può essere perennemente imminente. Dovremmo aspettarci che l’intelligenza artificiale generativa continui a progredire in modo esponenziale, anche se il settore dell’intelligenza artificiale sembra sbattere la testa contro il muro dei rendimenti decrescenti?
Nella bolla di Davos, i chief dell’IA non vedono una vera bolla dell’IA
Certamente, qualsiasi CEO dell’IA avrebbe un forte incentivo a pensarla così. UN quantità di denaro senza precedenti è già stato investito nello sviluppo di infrastrutture di intelligenza artificiale. L’industria dell’intelligenza artificiale ha bisogno che il rubinetto del denaro rimanga aperto a tutti i costi.
A Davos la scorsa settimana, Jensen Huang di NVIDIA ha suggerito che l’investimento nell’infrastruttura AI è così grande che non può essere una bolla. Dalle persone che ti hanno proposto “too large to fail” arriva una nuova canzone di successo: “too large to pop”.
Ho visto i vantaggi della tecnologia AI e credo che sia uno strumento potente. Tuttavia, quando un venditore di intelligenza artificiale ti cube che l’intelligenza artificiale è una tecnologia inarrestabile che cambia il mondo nell’ordine della rivoluzione agricola, o una minaccia che altera il mondo nell’ordine della bomba atomica, e che gli strumenti di intelligenza artificiale presto “saranno in grado di fare tutto” che puoi fare tu, dovresti prendere questa previsione per quello che è: una presentazione di vendita.
Il catastrofismo dell’intelligenza artificiale è sempre stato una forma di autoadulazione. Attribuisce agli esseri umani poteri divini per creare nuove forme di vita e considera gli oligarchi della Silicon Valley come titani con il potere di plasmare le fondamenta stesse del mondo.
Sospetto che la verità sia molto più semplice. L’intelligenza artificiale è uno strumento potente. E tutti gli strumenti potenti possono essere pericolosi nelle mani sbagliate. Sono necessarie leggi per limitare la crescita incontrollata delle società di intelligenza artificiale, il loro effetto sull’ambiente e sulla crescente disuguaglianza della ricchezza.
A suo merito, Amodei nel suo saggio chiede una regolamentazione del settore, menzionando la parola “r” 10 volte. Ma nel processo scambia anche la fantascienza per fatti scientifici.
Vi sono show crescenti che i LLM lo faranno non portare mai al tipo di super-intelligenza a cui Amodei crede con tanto zelo. Come affermato in un documento di ricerca di Apple, gli LLM sembrano offrire solo “l’illusione di pensare”. Il tanto atteso GPT-5 ha ampiamente deluso i più grandi fan di ChatGPT. E molti progetti aziendali di intelligenza artificiale su larga scala sembrano crollare e bruciare, forse fino al 95%..
Invece di preoccuparci dello spauracchio di un’apocalisse simile a Skynet, dovremmo invece concentrarci sui danni concreti dell’intelligenza artificiale: licenziamenti inutili ispirati da proiezioni di intelligenza artificiale troppo sicure e pornografia deepfake non consensuale, per citarne solo due.
La buona notizia per gli esseri umani è che questi sono problemi risolvibili se mettiamo insieme le nostre menti umane: non è richiesto alcun esperimento mentale di fantascienza.
Argomenti
Intelligenza artificiale













