Home Tecnologia Gli agenti dell’intelligenza artificiale sono pronti a scontrarsi con un muro matematico,...

Gli agenti dell’intelligenza artificiale sono pronti a scontrarsi con un muro matematico, secondo uno studio

82
0

La tecnologia alla base della maggior parte dei modelli di intelligenza artificiale ampiamente disponibili sono i modelli linguistici di grandi dimensioni, una forma di apprendimento automatico e di elaborazione del linguaggio. La scommessa che la maggior parte delle aziende di intelligenza artificiale sta facendo è che gli LLM, se alimentati con dati sufficienti, raggiungeranno qualcosa di simile alla piena autonomia per pensare e funzionare in modi simili agli esseri umani, ma con una conoscenza ancora più collettiva. Si scopre che scommettere sulla crescita infinita potrebbe non avere grandi probabilità di ripagare. UN nuovo studio afferma di mostrare la prova matematica che “i LLM sono incapaci di svolgere compiti computazionali e agenti oltre una certa complessità”.

L’articolo, pubblicato dai ricercatori padre e figlio Vishal Sikka e Varin Sikka e è emerso di recente da Wired dopo la sua pubblicazione iniziale è passato inosservato, ha una conclusione piuttosto semplice, anche se ci sono un po’ di calcoli complicati per arrivarci. Distillato nel modo più semplice possibile, ritiene che determinati suggerimenti o attività forniti a un LLM richiederanno un calcolo più complesso di quello che il modello è in grado di elaborare e, quando ciò accade, il modello non riuscirà a completare l’azione richiesta o eseguirà l’attività in modo errato.

La premessa di base della ricerca getta davvero un po’ di acqua fredda sull’concept che l’IA agentica, modelli a cui possono essere assegnati compiti in più fasi che vengono completati in modo completamente autonomo senza supervisione umana, sarà il veicolo per raggiungere l’intelligenza generale artificiale. Questo non vuol dire che la tecnologia non abbia una funzione o non migliorerà, ma pone un tetto molto più basso a ciò che è possibile fare rispetto a quello che le aziende di intelligenza artificiale vorrebbero riconoscere quando lanciano una presentazione del tipo “il cielo è il limite”.

I ricercatori non sono i primi a suggerire che i LLM potrebbero non essere tutto ciò che si crede, anche se la loro ricerca mette la matematica reale dietro il senso espresso da molti scettici dell’IA. L’anno scorso, i ricercatori di Apple ha pubblicato un articolo ciò ha concluso che gli LLM non sono in grado di ragionare o pensare effettivamente, nonostante creino l’apparenza di farlo. Benjamin Riley, fondatore della società Cognitive Resonance, ha scritto l’anno scorso che, a causa del modo in cui funzionano i LLM, non raggiungeranno mai veramente ciò che consideriamo “intelligenza”. Altri studi hanno testato i limiti dei modelli di intelligenza artificiale basati su LLM per vedere se sono in grado di produrre nuovi risultati creativi, con risultati piuttosto poco entusiasmanti.

Ma se nulla di tutto ciò è convincente e le elaborate equazioni matematiche sono più la tua passione, allora lo studio dei Sikka potrebbe essere la prova di cui hai bisogno. Tutto ciò fa parte di un numero crescente di show che suggeriscono che qualunque cosa l’intelligenza artificiale possa essere capace nella sua forma attuale, quasi certamente non sarà la tecnologia che supererà l’intelligenza umana entro la effective di quest’anno, come sostiene Elon Musk. recentemente affermato.

fonte