Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- OpenAI si rivolge alla codifica “conversazionale”, non agli agenti lenti in stile batch.
- Grandi vantaggi in termini di latenza: andata e ritorno più veloce dell’80%, time-to-first-token più veloce del 50%.
- Funziona su chip Cerebras WSE-3 per un livello di servizio Codex con latenza prioritaria.
Il crew Codex di OpenAI lo è a fuoco. Meno di due settimane dopo il rilascio di un’app Codex dedicata basata su agenti per Mac e solo una settimana dopo il rilascio del modello linguistico GPT-5.3-Codex più veloce e più orientabile, OpenAI conta su un fulmine a ciel sereno per la terza volta.
Inoltre: il nuovo GPT-5.3-Codex di OpenAI è il 25% più veloce e ora va ben oltre la codifica: cosa c’è di nuovo
Oggi, la società ha annunciato un’anteprima della ricerca di GPT-5.3-Codex-Spark, una versione più piccola di GPT-5.3-Codex creata per la codifica in tempo reale nel Codex. L’azienda riferisce di generare codice 15 volte più velocemente pur “rimanendo altamente capace per le attività di codifica del mondo reale”. C’è un problema e ne parlerò tra un minuto.
Inoltre: il Codex di OpenAI ha appena ricevuto la sua app per Mac e chiunque può provarla gratuitamente adesso
Codex-Spark sarà inizialmente disponibile solo per gli utenti di livello Professional da $ 200/mese, con limiti di tariffa separati durante il periodo di anteprima. Se segue la consueta strategia di rilascio di OpenAI per le versioni del Codex, gli utenti Plus saranno i prossimi, con gli altri livelli che otterranno l’accesso abbastanza rapidamente.
(Divulgazione: Ziff Davis, la società madre di ZDNET, ha intentato una causa nell’aprile 2025 contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.)
Espansione della famiglia Codex per la collaborazione in tempo reale
OpenAI afferma che Codex-Spark è il suo “primo modello progettato specificamente per lavorare con Codex in tempo reale, apportando modifiche mirate, rimodellando la logica o perfezionando le interfacce e vedendo immediatamente i risultati”.
Decostruiamolo brevemente. La maggior parte degli strumenti di programmazione dell’intelligenza artificiale impiega del tempo per rispondere alle istruzioni. Nel mio lavoro di programmazione, posso dare un’istruzione (e questo vale sia per Codex che per Claude Code) e poi andare a lavorare su qualcos’altro per un po’. A volte sono solo pochi minuti. Altre volte, può essere abbastanza lungo per pranzare.
Inoltre: ho completato 4 anni di sviluppo del prodotto in 4 giorni per $ 200 e sono ancora sbalordito
Apparentemente Codex-Spark è in grado di rispondere molto più velocemente, consentendo un lavoro rapido e continuo. Ciò potrebbe accelerare notevolmente lo sviluppo, soprattutto per richieste e question più semplici.
So che a volte mi sono sentito frustrato quando ho posto a un’intelligenza artificiale una domanda semplicissima che avrebbe dovuto generare una risposta immediata, ma invece ho dovuto comunque aspettare cinque minuti per una risposta.
Rendendo la reattività una caratteristica fondamentale, il modello supporta una codifica più fluida e conversazionale. A volte, l’utilizzo degli agenti di codifica sembra più una codifica in stile batch della vecchia scuola. Questo è progettato per superare quella sensazione.
GPT-5.3-Codex-Spark non è destinato a sostituire il GPT-5.3-Codex base. Spark è stato invece progettato per integrare modelli di intelligenza artificiale advert alte prestazioni realizzati per attività autonome e di lunga durata che durano ore, giorni o settimane.
Prestazione
Il modello Codex-Spark è destinato al lavoro in cui la reattività conta tanto quanto l’intelligenza. Supporta l’interruzione e il reindirizzamento durante l’attività, consentendo cicli di iterazione ravvicinati.
Questa è una cosa che mi attira, perché penso sempre a qualcosa in più da dire all’IA dieci secondi dopo avergli assegnato un compito.
Inoltre: ho usato Claude Code per codificare un’app Mac in 8 ore, ma è stato più lavoro che magia
Il modello Spark prevede per impostazione predefinita modifiche leggere e mirate, apportando modifiche rapide anziché grandi oscillazioni. Inoltre, non esegue automaticamente i take a look at se non richiesto.
OpenAI è stata in grado di ridurre la latenza (turnaround più rapido) nell’intera pipeline di richiesta-risposta. Cube che il sovraccarico per andata e ritorno shopper/server è stato ridotto dell’80%. Il sovraccarico per token è stato ridotto del 30%. Il time-to-first-token è stato ridotto del 50% attraverso l’inizializzazione della sessione e l’ottimizzazione dello streaming.
Un altro meccanismo che migliora la reattività durante l’iterazione è l’introduzione di una connessione WebSocket persistente, in modo che la connessione non debba essere rinegoziata continuamente.
Alimentato dai chip AI Cerebras
A gennaio OpenAI ha annunciato una partnership con il produttore di chip AI Cerebri. Ci occupiamo di Cerebras da un po’. Abbiamo trattato il suo servizio di inferenza, il suo lavoro con DeepSeek, il suo lavoro per migliorare le prestazioni del modello Llama di Meta e l’annuncio di Cerebras di un Veramente grande chip AI, pensato per raddoppiare le prestazioni LLM.
GPT-5.3-Codex-Spark è la prima pietra miliare della partnership OpenAI/Cerebras annunciata il mese scorso. Il modello Spark funziona su Wafer Scale Engine 3 di Cerebras, un’architettura di chip AI advert alte prestazioni che aumenta la velocità mettendo tutte le risorse di calcolo su un singolo processore su scala wafer delle dimensioni di un pancake.
Inoltre: 7 modifiche alle impostazioni di ChatGPT senza le quali non posso più lavorare e sono un utente esperto
Di solito, un wafer semiconduttore contiene un intero gruppo di processori, che successivamente nel processo di produzione vengono tagliati a pezzi e inseriti nella propria confezione. Il wafer Cerebras contiene un solo chip, il che lo rende un processore molto, molto grande con connessioni molto, molto ravvicinate.
Secondo Sean Lie, CTO e co-fondatore di Cerebras, “Ciò che ci entusiasma di più di GPT-5.3-Codex-Spark è la collaborazione con OpenAI e la comunità di sviluppatori per scoprire cosa rende possibile l’inferenza rapida: nuovi modelli di interazione, nuovi casi d’uso e un’esperienza di modello fondamentalmente diversa. Questa anteprima è solo l’inizio.”
I trucchi
Ora, ecco i trucchi.
Innanzitutto, OpenAI afferma che “quando la domanda è elevata, potresti notare un accesso più lento o code temporanee poiché bilanciamo l’affidabilità tra gli utenti”. Quindi, veloce, a meno che troppe persone non vogliano andare veloci.
Ecco il kicker. L’azienda afferma: “Su SWE-Bench Professional e Terminal-Bench 2.0, due benchmark che valutano la capacità di ingegneria del software program degli agenti, GPT-5.3-Codex-Spark ha prestazioni inferiori a GPT-5.3-Codex, ma può eseguire le attività in una frazione del tempo.”
La scorsa settimana, nell’annuncio del GPT-5.3-Codex, OpenAI ha affermato che il GPT-5.3-Codex è stato il primo modello classificato come “advert alta capacità” per la sicurezza informatica, secondo la sua pubblicazione Quadro di preparazione. D’altra parte, la società ha ammesso che GPT-5.3-Codex-Spark “non ha una possibilità plausibile di raggiungere la soglia del nostro quadro di preparazione per un’elevata capacità nella sicurezza informatica”.
Anche: Ho smesso di usare ChatGPT per tutto: questi modelli di intelligenza artificiale lo battono nella ricerca, nella codifica e altro ancora
Pensa a queste affermazioni, caro lettore. Questa intelligenza artificiale non è così intelligente, ma fa le cose non altrettanto intelligenti molto più velocemente. La velocità 15x non è certamente nulla di cui lamentarsi. Ma vuoi davvero che un’intelligenza artificiale commetta errori di codifica 15 volte più velocemente e produca codice meno sicuro?
Lascia che ti dica questo. “Eh, è abbastanza buono” non è davvero abbastanza buono quando hai migliaia di utenti incazzati che ti vengono incontro con torce e forconi perché improvvisamente hai rotto il loro software program con una nuova versione. Chiedimi come lo so.
La settimana scorsa abbiamo appreso che OpenAI utilizza Codex per scrivere Codex. Sappiamo anche che lo usa per poter costruire codice molto più velocemente. Quindi l’azienda ha chiaramente un caso d’uso per qualcosa che è molto più veloce, ma non altrettanto intelligente. Non appena avrò capito meglio di cosa si tratta e dove si inserisce Spark, ti farò sapere.
Qual è il prossimo passo?
OpenAI ha condiviso che sta lavorando verso una doppia modalità di ragionamento e di lavoro in tempo reale per i suoi modelli Codex.
L’azienda afferma: “Codex-Spark è il primo passo verso un Codex con due modalità complementari: ragionamento ed esecuzione con un orizzonte più lungo e collaborazione in tempo reale per una rapida iterazione. Nel tempo, le modalità si fonderanno”.
Il modello di flusso di lavoro che prevede è interessante. Secondo OpenAI, l’intento è che alla advantageous “Codex può mantenerti in uno stretto circuito interattivo delegando il lavoro di lunga durata a sub-agenti in background o distribuendo attività a molti modelli in parallelo quando desideri ampiezza e velocità, quindi non devi scegliere una singola modalità in anticipo. ”
Inoltre: ho provato un rivale di Claude Code che è locale, open supply e completamente gratuito: come è andata
Essenzialmente, sta lavorando verso il meglio di entrambi i mondi. Ma per ora puoi scegliere veloce o accurato. È una scelta difficile. Ma l’accuratezza sta diventando sempre più precisa e ora, almeno, puoi optare per il veloce quando lo desideri (a patto di tenere a mente i compromessi e di pagare per il livello Professional).
E tu? Scambieresti un po’ di intelligenza e capacità di sicurezza con risposte di codifica 15 volte più veloci? Ti attira l’concept di un collaboratore AI in tempo reale e interrompibile o preferisci un modello più deliberato e di maggiore precisione per un lavoro di sviluppo serio?
Quanto sei preoccupato per la distinzione di sicurezza informatica tra Codex-Spark e il modello completo GPT-5.3-Codex? E se sei un utente Professional, ti vedi passare dalla modalità “veloce” a quella “intelligente” a seconda dell’attività? Fatecelo sapere nei commenti qui sotto.
Puoi seguire gli aggiornamenti quotidiani sui miei progetti sui social media. Assicurati di iscriverti a la mia newsletter di aggiornamento settimanalee seguimi su Twitter/X all’indirizzo @DavidGewirtzsu Fb all’indirizzo Facebook.com/DavidGewirtzsu Instagram all’indirizzo Instagram.com/DavidGewirtzsu Bluesky a @DavidGewirtz.come su YouTube all’indirizzo YouTube.com/DavidGewirtzTV.












