L’intelligenza artificiale si sta evolvendo più velocemente della nostra vocabolario per descriverlo. Potremmo aver bisogno di qualche parola nuova. Abbiamo “cognizione” per come pensa una singola mente, ma non abbiamo una parola per ciò che accade quando l’intelligenza umana e quella macchina lavorano insieme per percepire, decidere, creare e agire. Chiamiamo questo processo intelligenza.
L’intellizione non è una caratteristica; è il principio organizzativo per la prossima ondata di software program in cui esseri umani e intelligenza artificiale operano all’interno dello stesso modello condiviso di impresa. I sistemi odierni trattano i modelli di intelligenza artificiale come cose invocate dall’esterno. Agisci come un “utente”, richiedendo risposte o collegando un passaggio “umano nel ciclo” ai flussi di lavoro degli agenti. Ma questo si sta evolvendo in una coproduzione continua: persone e agenti modellano insieme decisioni, logica e azioni, in tempo reale.
Continua a leggere per una ripartizione delle tre forze che guidano questo nuovo paradigma.
Un’ontologia unificata è solo l’inizio
Nell’a recente lettera degli azionistiIl CEO di Palantir, Alex Karp, ha scritto che “tutto il valore del mercato andrà in chip e in ciò che chiamiamo ontologia”, e ha sostenuto che questo cambiamento è “solo l’inizio di qualcosa di molto più grande e significativo”. Per ontologia Karp intende un modello condiviso di oggetti (clienti, politiche, asset, eventi) e delle loro relazioni. Ciò embody anche quello che Palantir chiama lo “strato cinetico” di un’ontologia che definisce le azioni e i permessi di sicurezza che collegano gli oggetti.
Nell’period SaaS, ogni applicazione aziendale crea i propri modelli di oggetti e processi. In combinazione con una serie di sistemi legacy e modelli spesso caotici, le aziende affrontano la sfida di mettere insieme tutto questo. È un lavoro grande e difficile, con ridondanze, strutture incomplete e dati mancanti. La realtà: indipendentemente dal numero di progetti di knowledge warehouse o knowledge lake commissionati, poche aziende riescono advert avvicinarsi alla creazione di un’ontologia aziendale consolidata.
Un’ontologia unificata è essenziale per gli odierni strumenti di intelligenza artificiale degli agenti. Man mano che le organizzazioni collegano e federano ontologie, emerge un nuovo paradigma software program: l’intelligenza artificiale agentica può ragionare e agire tra fornitori, regolatori, clienti e operazioni, non solo all’interno di una singola app.
Come lo descrive Karp, l’obiettivo è “legare il potere dell’intelligenza artificiale agli oggetti e alle relazioni nel mondo reale”.
Modelli mondiali e apprendimento continuo
I modelli odierni possono contenere un ampio contesto, ma conservare le informazioni non equivale a imparare da esse. L’apprendimento continuo richiede l’accumulo di conoscenze, piuttosto che il ripristino advert ogni riqualificazione.
Al suo scopo, Google ha recentemente annunciato “Apprendimento annidato” come potenziale soluzione, collegato direttamente all’architettura LLM esistente e ai dati di formazione. Gli autori non affermano di aver risolto le sfide legate alla costruzione di modelli mondiali. Ma il Nested Studying potrebbe fornire loro gli ingredienti grezzi: memoria durevole con apprendimento continuo stratificato nel sistema. L’endpoint renderebbe obsoleta la riqualificazione.
Nel giugno 2022, il capo scienziato dell’intelligenza artificiale di Meta, Yann LeCun, ha creato un progetto per l’“intelligenza artificiale autonoma” che prevedeva un approccio gerarchico all’utilizzo di incorporamenti congiunti per fare previsioni utilizzando modelli mondiali. Chiamò la tecnica H-JEPA e successivamente detto senza mezzi termini: “I LLM sono bravi a manipolare il linguaggio, ma non a pensare.”
Negli ultimi tre anni, LeCun e i suoi colleghi di Meta hanno messo in pratica la teoria H-JEPA con i modelli open supply V-JEPA e I-JEPA, che apprendono rappresentazioni di immagini e video del mondo.
L’interfaccia di intelligenza personale
La terza forza in questo mondo basato sull’azione e sull’ontologia è l’interfaccia personale. Ciò pone le persone al centro anziché come “utenti” alla periferia. Questa non è un’altra app; è il modo principale in cui una persona partecipa alla prossima period del lavoro e della vita. Invece di trattare l’intelligenza artificiale come qualcosa che visitiamo attraverso una finestra di chat o una API cal, l’interfaccia di intelligenza personale sarà sempre attiva, consapevole del nostro contesto, delle nostre preferenze e dei nostri obiettivi e in grado di agire per nostro conto nell’intera economia federata.
Analizziamo come tutto questo si sta già formando.
A maggio, Jony Ive ha venduto la sua società di dispositivi IA io a OpenAI per accelerare una nuova categoria di dispositivi IA. Lui notato all’epoca: “Se crei qualcosa di nuovo, se innovi, ci saranno conseguenze impreviste, alcune saranno meravigliose, altre saranno dannose. Sebbene alcune delle conseguenze meno constructive siano state involontarie, sento comunque la responsabilità. E la manifestazione di ciò è la determinazione a cercare di essere utile.” Cioè, ottenere il giusto dispositivo di intelligenza personale significa più di un’interessante opportunità di impresa.
Apple sta guardando oltre i LLM per soluzioni on-device che richiedano meno potenza di elaborazione e comportino una minore latenza durante la creazione di app AI per comprendere “l’intento dell’utente”. L’anno scorso hanno creato UI-JEPAun’innovazione che si sposta verso l’“analisi on-device” di ciò che l’utente desidera. Ciò colpisce direttamente il modello di enterprise dell’economia digitale di oggi, dove la profilazione centralizzata degli “utenti” trasforma i dati sulle intenzioni e sul comportamento in vasti flussi di entrate.
Tim Berners-Lee, l’inventore del World Broad Net, ha recentemente osservato: “L’utente è stato ridotto a un prodotto di consumo per l’inserzionista… c’è ancora tempo per costruire macchine che funzionino per gli esseri umani, e non viceversa.” Lo spostamento dell’intento dell’utente sul dispositivo stimolerà l’interesse verso uno normal di gestione sicura dei dati personali, Solidoche Berners-Lee e i suoi colleghi stanno sviluppando dal 2022. Lo normal è ideale per essere abbinato a nuovi dispositivi IA personali. Advert esempio, Inrupt, Inc., una società fondata da Berners-Lee, ha recentemente combinato Stable con lo normal MCP di Anthropic per Portafogli agenti. Il controllo personale è più che una caratteristica di questo paradigma; è la salvaguardia dell’architettura poiché i sistemi acquisiscono la capacità di apprendere e agire continuamente.
In definitiva, queste tre forze si stanno muovendo e convergendo più velocemente di quanto molti credano. Le ontologie aziendali forniscono nomi e verbi, la ricerca del modello mondiale fornisce memoria e apprendimento durevoli e l’interfaccia personale diventa il punto di controllo autorizzato. La prossima period del software program non arriverà. È già qui.
Brian Mulconrey è vicepresidente senior presso Sureify Labs.
Benvenuto nella comunità VentureBeat!
Il nostro programma di visitor posting è il luogo in cui gli esperti tecnici condividono approfondimenti e forniscono approfondimenti neutrali e non conferiti su intelligenza artificiale, infrastruttura dati, sicurezza informatica e altre tecnologie all’avanguardia che plasmano il futuro dell’impresa.
Per saperne di più dal nostro programma di submit per gli ospiti e dai un’occhiata al nostro linee guida se sei interessato a contribuire con un tuo articolo!










