Home Tecnologia Il grande investimento di OpenAI da parte di AWS arriva con qualcos’altro:...

Il grande investimento di OpenAI da parte di AWS arriva con qualcos’altro: una nuova architettura “stateful” per agenti aziendali

29
0

Oggi il panorama dell’intelligenza artificiale aziendale è cambiato radicalmente OpenAI ha annunciato nuovi finanziamenti per 110 miliardi di dollari da tre delle più grandi aziende tecnologiche: 30 miliardi di dollari da SoftBank, 30 miliardi di dollari da Nvidia e 50 miliardi di dollari da Amazon.

Ma mentre i primi due attori forniscono denaro, OpenAI sta andando oltre con Amazon in una nuova direzione, creando un prossimo “Stateful Runtime Atmosphere” su Amazon Net Companies (AWS), l’ambiente cloud più utilizzato al mondo.

Ciò segnala la visione di OpenAI e Amazon della prossima fase dell’economia dell’intelligenza artificiale – passando dai chatbot ai “colleghi AI” autonomi noti come agenti – e che questa evoluzione richiede una base architettonica diversa da quella che ha costruito GPT-4.

Per i decisori aziendali, questo annuncio non è solo un titolo che parla di ingenti capitali; è una tabella di marcia tecnica per indicare dove vivrà e respirerà la prossima generazione di intelligenza agente.

E soprattutto per quelle aziende che attualmente utilizzano AWS, è un’ottima notizia, che offre loro più opzioni con un nuovo ambiente runtime di OpenAI in arrivo (le aziende devono ancora annunciare una tempistica precisa per quando arriverà).

Il grande divario tra “apolidi” e “con stato”

Al centro della nuova partnership OpenAI-Amazon c’è una distinzione tecnica che definirà i flussi di lavoro degli sviluppatori per il prossimo decennio: la differenza tra ambienti “stateless” e “stateful”.

Advert oggi, la maggior parte degli sviluppatori ha interagito con OpenAI tramite API stateless. In un modello stateless ogni richiesta è un evento isolato; il modello non ha “memoria” delle interazioni precedenti a meno che lo sviluppatore non reinserisca manualmente l’intera cronologia delle conversazioni nel immediate. Il precedente accomplice cloud di OpenAI e principale investitore, Microsoft Azure, rimane l’esclusivo fornitore cloud di terze parti per queste API stateless.

Il nuovo Stateful Runtime Atmosphere, invece, sarà ospitato su Amazon Bedrock: un cambio di paradigma.

Questo ambiente consente ai modelli di mantenere contesto, memoria e identità persistenti. Invece di una serie di chiamate disconnesse, l’ambiente stateful consente ai “colleghi AI” di gestire progetti in corso, ricordare il lavoro precedente e spostarsi senza problemi tra diversi strumenti software program e origini dati.

COME OpenAI nota sul suo sito web: “Ora, invece di unire manualmente richieste disconnesse per far funzionare le cose, i tuoi agenti eseguono automaticamente passaggi complessi con un ‘contesto di lavoro’ che porta avanti memoria/cronologia, stato di strumenti e flussi di lavoro, utilizzo dell’ambiente e limiti di identità/autorizzazione.”

Per i costruttori di agenti complessi, ciò riduce le “idrauliche” necessarie per mantenere il contesto, poiché l’infrastruttura stessa ora gestisce lo stato persistente dell’agente.

OpenAI Frontier e l’integrazione AWS

Il veicolo di questa stateful intelligence è OpenAI Frontier, una piattaforma end-to-end progettata per aiutare le aziende a creare, distribuire e gestire staff di agenti IA, lanciata all’inizio di febbraio 2026.

Frontier si posiziona come una soluzione al “divario di opportunità dell’intelligenza artificiale”, ovvero la disconnessione tra le capacità del modello e la capacità di un’azienda di metterle effettivamente in produzione.

Le caratteristiche principali della piattaforma Frontier includono:

  • Contesto aziendale condiviso: Connessione di dati isolati da CRM, strumenti di ticketing e database interni in un unico livello semantico.

  • Ambiente di esecuzione dell’agente: Uno spazio affidabile in cui gli agenti possono eseguire codice, utilizzare strumenti informatici e risolvere problemi del mondo reale.

  • Governance integrata: Ogni agente AI ha un’identità univoca con autorizzazioni e limiti espliciti, che ne consentono l’utilizzo in ambienti regolamentati.

Anche se l’applicazione Frontier continuerà a essere ospitata su Microsoft Azure, AWS è stato nominato fornitore esclusivo di distribuzione cloud di terze parti per la piattaforma.

Ciò significa che mentre il “motore” può risiedere su Azure, i clienti AWS saranno in grado di accedere e gestire questi carichi di lavoro degli agenti direttamente tramite Amazon Bedrock, integrato con i servizi dell’infrastruttura esistente di AWS.

OpenAI apre le porte alle imprese: come registrare il tuo interesse per il suo prossimo Stateful Runtime Atmosphere su AWS

Per ora, OpenAI ha lanciato un portale di interesse aziendale dedicato sul suo sito web. Questo funge da punto di ingresso primario per le organizzazioni che desiderano superare i progetti pilota isolati e passare a flussi di lavoro agentici di livello produttivo.

Il portale è un modulo strutturato di “richiesta di accesso” in cui i decisori forniscono:

  • Dati firmografici: Dettagli di base, tra cui le dimensioni dell’azienda (dalle startup da 1 a 50 persone fino alle imprese di grandi dimensioni con oltre 20.000 dipendenti) e le informazioni di contatto.

  • Valutazione delle esigenze aziendali: Un campo dedicato alla management per delineare sfide e requisiti aziendali specifici per i “colleghi AI”.

Inviando questo modulo, le aziende segnalano la loro disponibilità a lavorare direttamente con i staff OpenAI e AWS per implementare soluzioni come supporto clienti multisistema, operazioni di vendita e audit finanziari che richiedono una gestione dello stato advert alta affidabilità.

Reazioni della comunità e della management

La portata dell’annuncio si è rispecchiata nelle dichiarazioni pubbliche dei principali attori sui social media.

Sam Altman, CEO di OpenAI, ha espresso entusiasmo per la partnership con Amazon, evidenziando in particolare “l’ambiente di runtime con stato” e l’uso dei chip Trainium personalizzati di Amazon.

Tuttavia, Altman si è affrettato a chiarire i confini dell’accordo: “La nostra API stateless rimarrà esclusiva di Azure e con loro svilupperemo molta più capacità”.

Il CEO di Amazon, Andy Jassy, ​​ha sottolineato la domanda della sua stessa base di clienti, affermando: “Abbiamo molti sviluppatori e aziende desiderosi di eseguire servizi basati sui modelli OpenAI su AWS”. Ha osservato che la collaborazione “cambierebbe ciò che è possibile per i clienti che creano app e agenti AI”.

I primi advert adottarlo hanno già iniziato a valutare l’utilità dell’approccio Frontier. Joe Park, vicepresidente esecutivo di State Farm, ha osservato che la piattaforma sta aiutando l’azienda advert accelerare le sue capacità di intelligenza artificiale per “aiutare milioni di persone a pianificare in anticipo, proteggere ciò che conta di più e recuperare più velocemente”.

La decisione aziendale: dove spendere i tuoi dollari?

Per i CTO e i decisori aziendali, il triangolo OpenAI-Amazon-Microsoft crea una nuova serie di scelte strategiche. La decisione su dove allocare il finances dipende ora in larga misura dal caso d’uso specifico:

  1. Per attività customary advert alto quantity: Se la tua organizzazione si affida a chiamate API customary per la generazione di contenuto, il riepilogo o la semplice chat, Microsoft Azure rimane la destinazione principale. Queste chiamate “senza stato” sono esclusive di Azure, anche se provengono da una collaborazione collegata advert Amazon.

  2. Per agenti complessi e di lunga durata: Se il tuo obiettivo è creare “colleghi AI” che richiedono una profonda integrazione con i dati ospitati su AWS e memoria persistente per settimane di lavoro, AWS Stateful Runtime Atmosphere è la scelta giusta.

  3. Per l’infrastruttura personalizzata: OpenAI si è impegnata a consumare 2 gigawatt di capacità di AWS Trainium per alimentare Frontier e altri carichi di lavoro avanzati. Ciò suggerisce che le aziende che cercano il modo più conveniente per eseguire modelli OpenAI su larga scala potrebbero trovare un vantaggio nell’ecosistema AWS-Trainium.

Licenze, entrate e la “rete di sicurezza” di Microsoft

Nonostante la massiccia infusione di capitale Amazon, i legami legali e finanziari tra Microsoft e OpenAI rimangono notevolmente rigidi. UN dichiarazione congiunta rilasciata da entrambe le società ha chiarito che il loro “rapporto commerciale e di ripartizione dei ricavi rimane invariato”.

Fondamentalmente, Microsoft continua a mantenere la sua “licenza esclusiva e l’accesso alla proprietà intellettuale su modelli e prodotti OpenAI”. Inoltre, Microsoft riceverà una quota delle entrate generate dalla partnership OpenAI-Amazon.

Ciò garantisce che, mentre OpenAI sta diversificando la propria infrastruttura, Microsoft rimanga il beneficiario finale del successo commerciale di OpenAI, indipendentemente dal cloud su cui viene effettivamente eseguito il calcolo.

Anche la definizione di Intelligenza Generale Artificiale (AGI) rimane un termine protetto nell’accordo Microsoft. I processi contrattuali per determinare quando sarà raggiunta l’AGI – e il conseguente impatto sulle licenze commerciali – non sono stati modificati dall’accordo con Amazon.

In definitiva, OpenAI si sta posizionando come qualcosa di più di un modello o fornitore di strumenti; è un attore infrastrutturale che tenta di cavalcare le due nubi più grandi della Terra.

Per l’utente, questo significa più scelta e ambienti più specializzati. Per le aziende, ciò significa che l’period dell’acquisizione di IA “taglia unica” è finita.

La scelta tra Azure e AWS per i servizi OpenAI è ora una decisione tecnica sulla natura del lavoro stesso: se la tua intelligenza artificiale deve semplicemente “pensare” (senza stato) o “ricordare e agire” (con stato).

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here