Fino advert ora, l’obiettivo finale dichiarato per le aziende che sviluppano prodotti di intelligenza artificiale (AI) è stato quasi universalmente quello di raggiungere l’intelligenza artificiale generale (AGI), un’ambizione mal definita che può essere meglio riassunta come un’ipotetica IA in grado di eguagliare e superare le capacità cognitive degli esseri umani. Ma ora che abbiamo praticamente scommesso l’intera economia sul raggiungimento di quel benchmark e stanziato letteralmente trilioni di dollari per information heart succhiatori di risorse con il preciso intento di fornire la potenza di elaborazione necessaria per costruire la macchina-dio, l’industria improvvisamente, collettivamente, si sta ritirando dalla promessa.
Questa svolta (francamente, abbastanza prevedibile) è iniziata lo scorso anno. Advert agosto, il CEO di OpenAI Sam Altman disse AGI “non è un termine molto utile”, che sembrava avere un ruolo anche nel fatto che la sua azienda si concentrasse sul parlare di sviluppo di un’intelligenza artificiale in grado di effettuare ricerche autonome piuttosto che menzionare AGI. Ciò è degno di nota dato che OpenAI period tecnicamente l’unica azienda con una definizione formale di AGI: un sistema di intelligenza artificiale in grado di generare almeno 100 miliardi di dollari di profitti, secondo documenti interni trapelati.
Anche altri nel settore hanno iniziato a gettare acqua fredda sul concetto AGI. Il CEO di Salesforce Marc Benioff, un ragazzo così ossessionato dall’intelligenza artificiale che ha preso in considerazione l’thought di cambiare il nome della sua azienda per riflettere la sua eterna affinità con la tecnologia, ha descritto l’AGI come “ipnosi” di advertising e ha detto di essere “estremamente sospettoso” di chiunque lo pubblicizza. Dario Amodei, amministratore delegato di Anthropic, ha dichiarato di “sempre antipatico” il termine AGI. Proprio di recente, la presidente di Anthropic Daniela Amodei disse AGI è un termine “obsoleto”. Il CEO di Microsoft Satya Nadella è arrivato al punto di farlo Dire non pensa che “l’AGI come definito, almeno da noi nel nostro contratto, sarà mai raggiunto in tempi brevi”, e ha detto che qualsiasi risultato AGI autodichiarato è solo “benchmark hacking”, il che è divertente considerando che Microsoft period parte integrante della creazione della definizione di generazione di denaro di OpenAI dell’AGI.
Alcune delle posizioni del settore su questo completo allontanamento dall’AGI vengono posizionate come se i ricercatori avessero semplicemente in mente obiettivi ancora più ambiziosi, come se l’AGI fosse troppo limitante per descrivere veramente di cosa è capace l’IA alla sua massima capacità. Ma c’è una spiegazione più semplice per questo cambiamento nel linguaggio usato per descrivere l’obiettivo finale dell’intelligenza artificiale: i grandi modelli linguistici, la tecnologia in cui la maggior parte delle principali aziende di intelligenza artificiale hanno investito infinite quantità di denaro e dati per ottenere una qualche forma di intelligenza generale, semplicemente non sono in grado di raggiungere effettivamente quel punto di riferimento.
Questa è la conclusione a cui sono giunti ormai da tempo i critici del settore dell’intelligenza artificiale. Persone come Gary Marcus, un noto scettico sull’intelligenza artificiale, lo hanno fatto disse“il semplice ridimensionamento non ci porterà all’AGI”. Conclusioni simili possono essere trovate in ricerche recenti, tra cui a carta di Apple ciò conclude che i LLM probabilmente non sono in grado di raggiungere l’AGI e uno studio del Knowledge Mining and Machine Studying Lab lo afferma conclude Il “ragionamento a catena di pensiero” negli LLM è “un miraggio”. Ciò suggerisce che l’AGI non è solo una cattiva metrica perché è difficile da definire; probabilmente non è realizzabile con questi stupidi robotic.













