Home Tecnologia Gli agenti IA possono parlare tra loro, semplicemente non possono ancora pensare...

Gli agenti IA possono parlare tra loro, semplicemente non possono ancora pensare insieme

49
0

Gli agenti IA ora possono parlare tra loro: semplicemente non riescono a capire cosa sta cercando di fare l’altro. Questo è il problema che Outshift di Cisco sta cercando di risolvere con un nuovo approccio architetturale chiamato Web of Cognition.

Il divario è pratico: protocolli come MCP e A2A consentono agli agenti di scambiare messaggi e identificare strumenti, ma non condividono intenti o contesto. Senza ciò, i sistemi multi-agente bruciano cicli di coordinazione e non possono combinare ciò che apprendono.

“La conclusione è che possiamo inviare messaggi, ma gli agenti non si capiscono, quindi non c’è base, negoziazione, coordinamento o intento comune”, ha detto a VentureBeat Vijoy Pandey, direttore generale e vicepresidente senior di Outshift.

L’impatto pratico:

Consideriamo un paziente che fissa una visita specialistica. Solo con MCP, un agente di valutazione dei sintomi trasmette un codice diagnostico a un agente di pianificazione, che trova gli appuntamenti disponibili. Un agente assicurativo verifica la copertura. Un agente della farmacia verifica la disponibilità dei farmaci.

Ciascun agente porta a termine il proprio compito, ma nessuno di loro ragiona insieme sui bisogni del paziente. L’agente della farmacia potrebbe raccomandare un farmaco che è in conflitto con la storia del paziente: informazioni che l’agente sintomatico ha ma non ha trasmesso perché le “potenziali interazioni farmacologiche” non rientravano nel suo ambito. L’agente di pianificazione prenota l’appuntamento disponibile più vicino senza sapere che l’agente assicurativo ha trovato una copertura migliore presso un’altra struttura.

Sono connessi, ma non sono allineati sull’obiettivo: trovare la cura giusta per la situazione specifica di questo paziente.

I protocolli attuali gestiscono i meccanismi di comunicazione degli agenti: MCP, A2A e AGNTCY di Outshift, donato alla Linux Basis, consentono agli agenti di scoprire strumenti e scambiare messaggi. Ma questi operano a quello che Pandey chiama “livello di connettività e identificazione”. Gestiscono la sintassi, non la semantica.

Il pezzo mancante è il contesto e l’intento condivisi. Un agente che completa un’attività sa cosa sta facendo e perché, ma story ragionamento non viene trasmesso quando passa a un altro agente. Ogni agente interpreta gli obiettivi in ​​modo indipendente, il che significa che il coordinamento richiede chiarimenti costanti e le intuizioni apprese rimangono isolate.

Affinché gli agenti possano passare dalla comunicazione alla collaborazione, secondo Outshift, devono condividere tre cose: riconoscimento di modelli tra set di dati, relazioni causali tra azioni e stati di obiettivi espliciti.

“Senza intenti condivisi e contesto condiviso, gli agenti IA rimangono semanticamente isolati. Sono capaci individualmente, ma gli obiettivi vengono interpretati in modo diverso; la coordinazione brucia cicli e nulla si compone. Un agente impara qualcosa di prezioso, ma il resto dell’organizzazione multi-agente-umana inizia ancora da zero.” Outshift ha detto in un documento. Outshift ha affermato che l’industria ha bisogno di “sistemi advert agenti aperti, interoperabili e di livello aziendale che collaborino semanticamente” e propone una nuova architettura chiamata “Web della cognizione”, in cui ambienti multi-agente funzionano all’interno di un sistema condiviso.

L’architettura proposta introduce tre livelli:

Protocolli sullo stato cognitivo: Uno strato semantico che si trova sopra i protocolli di passaggio dei messaggi. Gli agenti non condividono solo i dati ma anche le intenzioni: cosa stanno cercando di realizzare e perché. Ciò consente agli agenti di allinearsi sugli obiettivi prima di agire, anziché chiarire a posteriori.

Tessuto cognitivo: Infrastruttura per costruire e mantenere un contesto condiviso. Pensatela come una memoria di lavoro distribuita: grafici di contesto che persistono attraverso le interazioni degli agenti, con controlli di coverage su ciò che viene condiviso e chi può accedervi. I progettisti di sistema possono definire l’aspetto della “comprensione comune” per il loro caso d’uso.

Motori cognitivi: Due tipi di capacità. Gli acceleratori consentono agli agenti di mettere in comune informazioni e apprendimento composto: la scoperta di un agente diventa disponibile advert altri che risolvono i problemi correlati. I guardrail impongono i limiti di conformità in modo che il ragionamento condiviso non violi i vincoli normativi o politici.

Outshift ha posizionato la struttura come un invito all’azione piuttosto che come un prodotto finito. L’azienda sta lavorando all’implementazione, ma ha sottolineato che la collaborazione degli agenti semantici richiederà un coordinamento a livello di settore, proprio come i primi protocolli Web avevano bisogno del consenso per diventare normal. Outshift sta scrivendo il codice, pubblicando le specifiche e rilasciando ricerche sull’Web of Cognition. Si spera di avere presto una demo dei protocolli. Noah Goodman, co-fondatore della società di intelligenza artificiale di frontiera People& e professore di informatica a Stanford, ha affermato durante l’evento AI Affect di VentureBeat tenutosi a San Francisco che l’innovazione avviene quando “altri esseri umani capiscono a quali esseri umani prestare attenzione”. La stessa dinamica si applica ai sistemi advert agenti: man mano che i singoli agenti apprendono, il valore si moltiplica quando altri agenti riescono a identificare e sfruttare story conoscenza. La domanda pratica per i staff che ora implementano sistemi multi-agente: i tuoi agenti sono semplicemente connessi o stanno effettivamente lavorando per lo stesso obiettivo?

fonte