Home Tecnologia OpenAI aggiorna la sua API di risposta per supportare le competenze degli...

OpenAI aggiorna la sua API di risposta per supportare le competenze degli agenti e una shell terminale completa

18
0

Fino a poco tempo fa, la pratica di costruire agenti IA period un po’ come allenare un maratoneta con una memoria di trenta secondi.

Sì, potresti fornire strumenti e istruzioni ai tuoi modelli di intelligenza artificiale, ma dopo qualche dozzina di interazioni – diversi giri in pista, per estendere la nostra analogia con la corsa – perderebbe inevitabilmente contesto e inizierebbe advert avere allucinazioni.

Con Gli ultimi aggiornamenti di OpenAI alla sua API di risposta – l’interfaccia di programmazione dell’applicazione che consente agli sviluppatori sulla piattaforma OpenAI di accedere a più strumenti di agenti come la ricerca sul internet e la ricerca di file con una singola chiamata – l’azienda sta segnalando che l’period dell’agente limitato sta tramontando.

Gli aggiornamenti annunciati oggi includono la compattazione lato server, i contenitori Shell ospitati e l’implementazione del nuovo “Competenze” customary per gli agenti.

Con questi tre importanti aggiornamenti, OpenAI offre effettivamente agli agenti una scrivania permanente, un terminale e una memoria che non svanisce e dovrebbe aiutare gli agenti a evolversi ulteriormente in lavoratori digitali affidabili a lungo termine.

Tecnologia: superare l’“amnesia del contesto”

L’ostacolo tecnico più significativo per gli agenti autonomi è sempre stato il “disordine” dei compiti di lunga durata. Ogni volta che un agente chiama uno strumento o esegue uno script, la cronologia delle conversazioni aumenta.

Alla advantageous, il modello raggiunge il limite di token e lo sviluppatore è costretto a troncare la cronologia, spesso eliminando proprio il “ragionamento” di cui l’agente ha bisogno per completare il lavoro.

La risposta di OpenAI è la compattazione lato server. A differenza del semplice troncamento, la compattazione consente agli agenti di funzionare per ore o addirittura giorni.

Primi dati dalla piattaforma di e-commerce suggerisce Tripla Balena si tratta di una svolta nella stabilità: il loro agente, Moby, è riuscito a navigare con successo in una sessione che coinvolgeva 5 milioni di token e 150 chiamate a strumenti senza un calo di precisione.

In termini pratici, ciò significa che il modello può “riassumere” le proprie azioni passate in uno stato compresso, mantenendo vivo il contesto essenziale e allo stesso tempo eliminando il rumore. Trasforma il modello da un assistente smemorato in un processo di sistema persistente.

Sandbox cloud gestiti

L’introduzione dello strumento Shell sposta OpenAI nel regno del calcolo gestito. Gli sviluppatori possono ora optare per container_auto, che fornisce un ambiente Debian 12 ospitato da OpenAI.

Questo non è solo un interprete di codice: fornisce a ciascun agente il proprio ambiente terminale completo precaricato con:

  • Ambienti di esecuzione nativi inclusi Python 3.11, Node.js 22, Java 17, Go 1.23 e Ruby 3.1.

  • Archiviazione persistente tramite /mnt/knowledgeconsentendo agli agenti di generare, salvare e scaricare artefatti.

  • Funzionalità di rete che consentono agli agenti di accedere a Web per installare librerie o interagire con API di terze parti.

La Shell ospitata e la sua persistente /mnt/knowledge Lo storage fornisce un ambiente gestito in cui gli agenti possono eseguire complesse trasformazioni di dati utilizzando Python o Java senza richiedere al workforce di creare e mantenere un middleware ETL (Extract, Remodel, Load) personalizzato per ogni progetto AI.

Sfruttando questi contenitori ospitati, gli ingegneri dei dati possono implementare attività di elaborazione dati advert alte prestazioni riducendo al minimo le “responsabilità a number of” derivanti dalla gestione di un’infrastruttura su misura, eliminando il sovraccarico della costruzione e proteggendo i propri sandbox. OpenAI sta essenzialmente dicendo: “Dacci le istruzioni, il pc te lo forniremo noi.”

Competenze di OpenAI vs. Competenze di Anthropic

Sia OpenAI che Anthropic ora supportano le “competenze”, istruzioni per gli agenti per eseguire operazioni specifiche, e sono confluiti su una struttura di file notevolmente simile, utilizzando un SKILL.md manifest (markdown) con frontmatter YAML.

Una competenza creata per entrambi può teoricamente essere spostata su VS Code, Cursor o qualsiasi altra piattaforma che adotti la specifica

In effetti, il nuovo agente AI open supply di successo OpenClaw ha adottato esattamente questo SKILL.md manifest e packaging basato su cartelle, che gli consentono di ereditare una ricchezza di conoscenze procedurali specializzate originariamente progettate per Claude.

Questa compatibilità architetturale ha alimentato un “growth di competenze” guidato dalla comunità su piattaforme come ClawHub, che ora ospita oltre 3.000 estensioni create dalla comunità che vanno dalle integrazioni di casa intelligente alle complesse automazioni del flusso di lavoro aziendale.

Questa impollinazione incrociata dimostra che la “Talent” è diventata una risorsa portabile e con versione anziché una funzionalità bloccata dal fornitore. Poiché OpenClaw supporta più modelli, tra cui la serie GPT-5 di OpenAI e le istanze Llama locali, gli sviluppatori possono ora scrivere una competenza una volta e distribuirla in un panorama eterogeneo di agenti.

BMa le strategie alla base di OpenAI e Anthropic rivelano visioni divergenti per il futuro del lavoro.

L’approccio di OpenAI dà priorità a un “substrato programmabile” ottimizzato per la velocità dello sviluppatore. Raggruppando la shell, la memoria e le competenze nell’API Responses, offrono un’esperienza “chiavi in ​​mano” per la creazione rapida di agenti complessi.

Già, startup di ricerca AI aziendale Spigolare ha segnalato un aumento della precisione dello strumento dal 73% all’85% utilizzando il framework Abilities di OpenAI.

Per i decisori tecnici, questo customary aperto si sta trasformando nel modo preferito dal settore per esternalizzare e condividere la “conoscenza agente”, superando le richieste proprietarie verso un’infrastruttura condivisa, ispezionabile e interoperabile.

E c’è un’altra importante distinzione tra le “abilità” di OpenAI e di Anthropic.

OpenAI utilizza la compattazione lato server per gestire lo stato attivo di una sessione di lunga durata. Anthropic utilizza la Progressive Disclosure, un sistema a tre livelli in cui il modello inizialmente è a conoscenza solo dei nomi e delle descrizioni delle abilità.

I dettagli completi e gli script ausiliari vengono caricati solo quando l’attività li richiede specificamente. Ciò consente l’esistenza di enormi librerie di competenze (linee guida del marchio, liste di controllo legali e modelli di codice) senza sovraccaricare la memoria di lavoro del modello.

Implicazioni per i decisori tecnici aziendali

Per gli ingegneri focalizzati su “implementazione rapida e messa a punto”, la combinazione di compattazione lato server e competenze offre un enorme aumento della produttività

Invece di creare una gestione dello stato personalizzata per ogni esecuzione dell’agente, gli ingegneri possono sfruttare la compattazione integrata per gestire attività di più ore.

Le competenze consentono la “IP confezionata”, in cui la messa a punto specifica o la conoscenza procedurale specializzata possono essere modularizzate e riutilizzate in diversi progetti interni.

Per coloro che hanno il compito di spostare l’intelligenza artificiale da una “chat field” a un flusso di lavoro di livello produttivo, l’annuncio di OpenAI segna la advantageous dell’period delle “infrastrutture su misura”.

Storicamente, orchestrare un agente richiedeva un’impalcatura manuale significativa: gli sviluppatori dovevano creare una logica di gestione dello stato personalizzata per gestire lunghe conversazioni e sandbox sicuri ed effimeri per eseguire il codice.

La sfida non è più “Come posso fornire un terminale a questo agente?” ma “Quali competenze sono autorizzate per quali utenti?” e “Come controlliamo gli artefatti prodotti nel filesystem ospitato?” OpenAI ha fornito il motore e il telaio; il compito dell’orchestratore è ora quello di definire le regole della strada.

Per i responsabili delle operazioni di sicurezza (SecOps), fornire a un modello di intelligenza artificiale una shell e l’accesso alla rete è un’evoluzione advert alto rischio. L’utilizzo da parte di OpenAI dei segreti di dominio e delle liste consentite delle organizzazioni fornisce una strategia di difesa approfondita, garantendo che gli agenti possano chiamare le API senza esporre le credenziali grezze al contesto del modello.

Ma man mano che gli agenti diventano più facili da implementare tramite le “competenze”, le SecOps devono prestare attenzione alle “competenze dannose” che potrebbero introdurre vulnerabilità di iniezione immediata o percorsi di esfiltrazione di dati non autorizzati.

Come dovrebbero decidere le imprese?

OpenAI non vende più solo un “cervello” (il modello); sta vendendo l’“ufficio” (il contenitore), la “memoria” (compattazione) e il “manuale di formazione” (le competenze). Per i chief aziendali la scelta sta diventando chiara:

Scegli l’API di risposta di OpenAI se i tuoi agenti richiedono un’esecuzione stateful e intensiva. Abbinando lo customary universale delle competenze alla compattazione lato server e ai contenitori shell ospitati, OpenAI offre un “sistema operativo agente integrato”. Questa è la scelta migliore per i principali ingegneri IA che devono distribuire agenti autonomi e di lunga durata (gestendo oltre 5 milioni di token o oltre 150 chiamate a strumenti) senza il sovraccarico di costruire la propria infrastruttura di gestione della memoria o sandboxing.

Scegli l’API di Anthropic se la tua priorità è l’efficienza modulare e la profondità dell’ecosistema. Sebbene le competenze siano portatili, il motore Progressive Disclosure di Anthropic è ottimizzato per l’efficienza del contesto, caricando solo gli script o i documenti specifici necessari per mantenere bassi i costi dei token. Questo è l'”ecosistema collegabile” ideale per il decisore dell’orchestrazione che fa affidamento su una listing matura di playbook dei companion preconfezionati (da Jira, Figma e Canva) e preferisce il flessibile e sicuro Mannequin Context Protocol (MCP) per la connessione ai dati interni.

In definitiva, questa convergenza segnala che l’intelligenza artificiale è uscita dall’period del “giardino recintato” dell’ingegneria tempestiva. Standardizzandosi su agentkills.io, il settore sta trasformando i “immediate spaghetti” in un’architettura aziendale condivisa, con versioni e scalabile. Sia che tu scelga la potenza pura del runtime stateful di OpenAI o l’ergonomia snella dell’ecosistema antropico, il risultato è lo stesso: la tua “conoscenza agente” è ora una risorsa aziendale permanente e interoperabile.

Aggiornamento 10 febbraio, 18:52 ET: questo articolo è stato successivamente aggiornato per correggere gli errori presenti in una versione precedente riguardanti la portabilità delle competenze di OpenAI rispetto a quelle di Anthropic. Ci rammarichiamo degli errori.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here