Home Tecnologia Lo strato mancante tra la connettività degli agenti e la vera collaborazione

Lo strato mancante tra la connettività degli agenti e la vera collaborazione

24
0

La sfida odierna dell’intelligenza artificiale riguarda il coordinamento, il contesto e la collaborazione degli agenti. Come consentire loro di pensare veramente insieme, con tutta la comprensione contestuale, la negoziazione e lo scopo condiviso che ciò comporta? È un passo fondamentale verso un nuovo tipo di intelligenza distribuita che mantenga gli esseri umani saldamente coinvolti.

Nell’ultima tappa della serie AI Impression di VentureBeat, Vijoy Pandey, SVP e GM di Outshift di Cisco, e Noah Goodman, professore di Stanford e co-fondatore di People&, si sono seduti per parlare di come andare oltre gli agenti che si collegano semplicemente advert agenti che sono immersi nell’intelligenza collettiva.

La necessità di intelligenza collettiva, non di azioni coordinate

La sfida principale, ha affermato Pandey, è che “gli agenti oggi possono connettersi tra loro, ma non possono davvero pensare insieme”.

Sebbene protocolli come MCP e A2A abbiano risolto la connettività di base e AGNTCY affronti i problemi di scoperta, gestione dell’identità, comunicazione tra agenti e osservabilità, hanno affrontato solo l’equivalente di fare una telefonata tra due persone che non parlano la stessa lingua. Ma il group di Pandey ha identificato qualcosa di più profondo di un semplice problema tecnico: la necessità che gli agenti raggiungano un’intelligenza collettiva, non solo azioni coordinate.

In che modo l’intento condiviso e la conoscenza condivisa consentono l’innovazione collettiva

Per capire dove deve andare l’intelligenza artificiale multi-agente, entrambi i relatori hanno fatto riferimento alla storia dell’intelligenza umana. Mentre gli esseri umani sono diventati intelligenti individualmente circa 300.000 anni fa, la vera intelligenza collettiva è emersa solo circa 70.000 anni fa con l’avvento del linguaggio sofisticato.

Questa svolta ha consentito tre capacità fondamentali: intenti condivisi, conoscenza condivisa e innovazione collettiva.

“Una volta che hai un intento condiviso, un obiettivo condiviso, hai un corpo di conoscenze che puoi modificare, evolvere, sviluppare, puoi quindi andare verso l’innovazione collettiva”, ha detto Pandey.

Goodman, il cui lavoro unisce informatica e psicologia, ha spiegato che il linguaggio è molto più che una semplice codifica e decodifica delle informazioni.

“La lingua è questo tipo di codifica che richiede la comprensione del contesto, delle intenzioni di chi parla, del mondo, di come ciò influisca su ciò che le persone diranno, al superb di capire cosa intendono”, ha detto.

Questa comprensione sofisticata è ciò che sostiene la collaborazione umana e l’evoluzione culturale cumulativa, ed è ciò che attualmente manca nell’interazione da agente advert agente.

Affrontare le lacune dell’Web della Cognizione

“Dobbiamo imitare l’evoluzione umana”, ha spiegato Pandey. “Oltre a far sì che gli agenti diventino sempre più intelligenti, proprio come i singoli esseri umani, dobbiamo costruire un’infrastruttura che consenta l’innovazione collettiva, il che implica la condivisione di intenti, il coordinamento e quindi la condivisione della conoscenza o del contesto e l’evoluzione di story contesto”.

Pandey lo chiama Web of Cognition: un’architettura a tre strati progettata per consentire il pensiero collettivo tra agenti eterogenei:

Livello protocollo: Oltre alla connettività di base, questi protocolli consentono la comprensione, la gestione della condivisione degli intenti, il coordinamento, la negoziazione e la scoperta tra agenti di diversi fornitori e organizzazioni.

Strato di tessuto: Un sistema di memoria condivisa che consente agli agenti di costruire ed evolvere un contesto collettivo, con proprietà emergenti derivanti dalle loro interazioni.

Livello del motore cognitivo: Acceleratori e guardrail che aiutano gli agenti a pensare più velocemente operando entro i vincoli necessari in termini di conformità, sicurezza e costi.

La difficoltà è che le organizzazioni devono costruire un’intelligenza collettiva oltre i confini organizzativi.

“Pensate alla memoria condivisa in modo eterogeneo”, ha detto Pandey. “Abbiamo agenti di various parti che si uniscono. Allora come si fa a far evolvere quella memoria e advert avere proprietà emergenti?”

Nuovi protocolli di formazione di base per migliorare la connessione degli agenti

Presso People&, invece di fare affidamento esclusivamente su protocolli aggiuntivi, il group di Goodman sta cambiando radicalmente il modo in cui i modelli di base vengono addestrati non solo tra un essere umano e un agente, ma tra un essere umano e più agenti, e soprattutto tra un agente e più umani.

“Cambiando la formazione che diamo ai modelli di base e concentrando la formazione su interazioni con orizzonti estremamente lunghi, arriveranno a capire come dovrebbero procedere le interazioni per ottenere i giusti risultati a lungo termine”, ha affermato.

E, aggiunge, si tratta di una divergenza deliberata dal percorso di autonomia più lunga perseguito da molti grandi laboratori.

“Il nostro obiettivo non è un’autonomia sempre più lunga. È una collaborazione sempre migliore”, ha affermato. “People& sta costruendo agenti con una profonda comprensione sociale: entità che sanno chissà cosa, possono favorire la collaborazione e mettere in contatto gli specialisti giusti al momento giusto.”

Stabilire barriere che supportino la cognizione

I guardrail rimangono una sfida centrale nell’implementazione di agenti multifunzionali che toccano ogni parte del sistema di un’organizzazione. La questione è come rafforzare i confini senza soffocare l’innovazione. Le organizzazioni hanno bisogno di barriere rigorose, simili a regole, ma gli esseri umani in realtà non funzionano in questo modo. Invece, le persone operano in base al principio del danno minimo, ovvero pensando in anticipo alle conseguenze e formulando giudizi contestuali.

“Come possiamo fornire i guardrail in un modo che sia simile a una regola, ma supporti anche la cognizione basata sui risultati quando i modelli diventano abbastanza intelligenti per questo?” chiese Goodman.

Pandey ha esteso questo pensiero alla realtà dei group di innovazione che devono applicare le regole con giudizio, non solo seguirle meccanicamente. Capire cosa è suscettibile di interpretazione è un “compito molto collaborativo”, ha detto. “E non lo capisci attraverso una serie di predicati. Non lo capisci attraverso un documento. Lo capisci attraverso la comprensione comune, il radicamento, la scoperta e la negoziazione.”

Intelligenza distribuita: il percorso verso la superintelligenza

La vera superintelligenza non deriverà da modelli individuali sempre più potenti, ma da sistemi distribuiti.

“Mentre costruiamo modelli sempre migliori e agenti sempre migliori, alla superb riteniamo che la vera tremendous intelligenza avverrà attraverso sistemi distribuiti”, ha affermato Pandey

L’intelligenza si espanderà lungo due assi, sia verticali, o meglio agenti individuali, sia orizzontali, o reti più collaborative, in un modo molto simile al tradizionale calcolo distribuito.

Tuttavia, ha affermato Goodman, “Non possiamo andare verso un futuro in cui le IA si spengono e funzionano da sole. Dobbiamo andare verso un futuro in cui esiste un ecosistema integrato, un ecosistema distribuito che unisce perfettamente gli esseri umani e l’IA”.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here