Home Tecnologia I conti sugli agenti IA non tornano

I conti sugli agenti IA non tornano

46
0

La grande intelligenza artificiale aziende ci ha promesso che il 2025 sarà “l’anno degli agenti IA”. Risultò essere l’anno di parlando Agenti IA e dare il by way of a quel momento di trasformazione fino al 2026 o forse più tardi. E se la risposta alla domanda “Quando le nostre vite saranno completamente automatizzate da robotic con intelligenza artificiale generativa che eseguiranno i nostri compiti per noi e fondamentalmente gestiranno il mondo?” è così Vignetta del New Yorker“Che ne dici di mai?”

Questo period fondamentalmente il messaggio di un articolo pubblicato senza troppa clamore alcuni mesi fa, nel bel mezzo dell’anno sopravvalutato dell’“intelligenza artificiale”. Intitolato “Stazioni di allucinazioni: su alcune limitazioni di base dei modelli linguistici basati sui trasformatori,” pretende di dimostrare matematicamente che “i LLM sono incapaci di svolgere compiti computazionali e agenti oltre una certa complessità”. Sebbene la scienza sia al di là delle mie capacità, gli autori – un ex CTO di SAP che ha studiato intelligenza artificiale con uno degli intelletti fondatori del settore, John McCarthy, e suo figlio adolescente prodigio – hanno perforato la visione del paradiso degli agenti con la certezza della matematica. Persino i modelli di ragionamento che vanno oltre il puro processo di previsione delle parole degli LLM, dicono, non risolveranno il problema.

“Non è possibile che possano essere affidabili”, mi cube Vishal Sikka, il padre. Dopo una carriera che, oltre a SAP, ha incluso un periodo come CEO di Infosys e membro del consiglio di amministrazione di Oracle, attualmente dirige una startup di servizi AI chiamata Vianai. “Quindi dovremmo dimenticarci degli agenti IA che gestiscono le centrali nucleari?” chiedo. “Esattamente”, cube. Forse puoi farlo archiviare alcuni documenti o qualcosa del genere per risparmiare tempo, ma potresti dover rassegnarti advert alcuni errori.

Il settore dell’intelligenza artificiale si permette di dissentire. Per prima cosa, un grande successo nell’intelligenza artificiale degli agenti è stata la codifica, che ha avuto successo lo scorso anno. Proprio questa settimana a Davos, il premio Nobel per l’intelligenza artificiale di Google, Demis Hassabis, riportato scoperte nel ridurre al minimo le allucinazioni, sia gli hyperscaler che le startup stanno spingendo la narrativa dell’agente. Adesso hanno dei rinforzi. Una startup chiamata Armonico sta segnalando una svolta nella codifica dell’intelligenza artificiale che dipende anche dalla matematica e supera i parametri di riferimento affidabilità.

Harmonic, che è stata cofondata dal CEO di Robinhood Vlad Tenev e da Tudor Achim, un matematico formatosi a Stanford, sostiene che questo recente miglioramento del suo prodotto chiamato Aristotle (niente arroganza!) è un’indicazione che ci sono modi per garantire l’affidabilità dei sistemi di intelligenza artificiale. “Siamo condannati a vivere in un mondo in cui l’intelligenza artificiale si limita a generare sbavature e gli esseri umani non possono realmente controllarle? Sarebbe un mondo pazzesco”, afferma Achim. La soluzione di Harmonic consiste nell’utilizzare metodi formali di ragionamento matematico per verificare l’output di un LLM. Nello specifico, codifica gli output nel linguaggio di programmazione Lean, noto per la sua capacità di verificare la codifica. A dire il vero, l’attenzione di Harmonic fino advert oggi è stata ristretta: la sua missione principale è la ricerca della “superintelligenza matematica” e la codifica è un’estensione in qualche modo organica. Cose come i saggi di storia, che non possono essere verificati matematicamente, vanno oltre i suoi confini. Per ora.

Tuttavia, Achim non sembra pensare che il comportamento affidabile degli agenti sia un problema così importante come credono alcuni critici. “Direi che la maggior parte dei modelli a questo punto possiede il livello di pura intelligenza necessario per ragionare sulla prenotazione di un itinerario di viaggio”, afferma.

Entrambe le parti hanno ragione, o forse sono addirittura dalla stessa parte. Da un lato, tutti concordano sul fatto che le allucinazioni continueranno a essere una realtà fastidiosa. In un articolo pubblicato lo scorso settembre, Gli scienziati di OpenAI hanno scritto: “Nonostante i progressi significativi, le allucinazioni continuano advert affliggere il campo e sono ancora presenti negli ultimi modelli”. Hanno dimostrato questa infelice affermazione chiedendo a tre modelli, incluso ChatGPT, di fornire il titolo della tesi dell’autore principale. Tutti e tre inventavano titoli falsi e tutti riportavano erroneamente l’anno di pubblicazione. In un weblog sull’articolo, OpenAI ha affermato tristemente che nei modelli di intelligenza artificiale “la precisione non raggiungerà mai il 100%”.

fonte