Home Tecnologia Una nuova versione del Codex di OpenAI è alimentata da un nuovo...

Una nuova versione del Codex di OpenAI è alimentata da un nuovo chip dedicato

15
0

Giovedì, OpenAI ha annunciato il rilascio di una versione leggera del suo strumento di codifica advert agenti Codex, l’ultimo modello di cui OpenAI ha lanciato all’inizio di questo mese. GPT-5.3-Codex-Spark è descritto dall’azienda come una “versione più piccola” di quel modello, progettata per un’inferenza più rapida. Per alimentare questa deduzione, OpenAI ha introdotto un chip dedicato dal suo companion {hardware} Cerebras, segnando un nuovo livello di integrazione nell’infrastruttura fisica dell’azienda.

IL partenariato tra Cerebras e OpenAI è stato annunciato il mese scorso, quando OpenAI ha dichiarato di aver raggiunto un accordo pluriennale con l’azienda del valore di oltre 10 miliardi di dollari. “Integrare Cerebras nel nostro combine di soluzioni informatiche significa far sì che la nostra intelligenza artificiale risponda molto più velocemente”, ha affermato all’epoca la società. Ora, OpenAI definisce Spark la “prima pietra miliare” in quella relazione.

Spark, che secondo OpenAI è progettato per una collaborazione rapida e in tempo reale e per una “iterazione rapida”, sarà alimentato dal Wafer Scale Engine 3 di Cerebras. Il WSE-3 è di Cerebras terza generazione megachip su scala wafer, decorato con 4 trilioni di transistor. OpenAI descrive il nuovo strumento leggero come un “driver di produttività quotidiana, che aiuta gli utenti con la prototipazione rapida” piuttosto che le attività più lunghe e pesanti per cui è stato progettato l’originale 5.3. Spark sta attualmente godendo di un’anteprima della ricerca per gli utenti ChatGPT Professional nell’app Codex.

Nell’a twittare prima dell’annuncio, il CEO Sam Altman sembrava aver accennato al nuovo modello. “Abbiamo una cosa speciale che verrà lanciata agli utenti del Codex sul piano Professional più tardi oggi”, ha twittato Altman. “Mi dà gioia.”

Nella sua dichiarazione ufficiale, OpenAI ha sottolineato che Spark è progettato per la latenza più bassa possibile su Codex. “Codex-Spark è il primo passo verso un Codex che funziona in due modalità complementari: collaborazione in tempo reale quando si desidera un’iterazione rapida e attività a lungo termine quando sono necessari un ragionamento e un’esecuzione più approfonditi”, ha condiviso OpenAI. La società ha aggiunto che i chip di Cerebras eccellono nell’assistere “flussi di lavoro che richiedono una latenza estremamente bassa”.

Cerebras è in giro per oltre un decennio ma, nell’period dell’intelligenza artificiale, ha goduto di un ruolo sempre più importante nel settore tecnologico. Proprio la scorsa settimana, la società ha annunciato di aver raccolto 1 miliardo di dollari di nuovo capitale con una valutazione di 23 miliardi di dollari. L’azienda ha precedentemente annunciato le sue intenzioni di perseguire una IPO.

“Ciò che ci entusiasma di più di GPT-5.3-Codex-Spark è la collaborazione con OpenAI e la comunità di sviluppatori per scoprire cosa rende possibile l’inferenza rapida: nuovi modelli di interazione, nuovi casi d’uso e un’esperienza di modello fondamentalmente diversa”, ha affermato in una nota Sean Lie, CTO e co-fondatore di Cerebras. “Questa anteprima è solo l’inizio.”

Evento Techcrunch

Boston, MA
|
23 giugno 2026

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here