Home Tecnologia Qwen3-Coder-Subsequent offre ai codificatori di vibrazioni un potente modello open supply ultra-sparso...

Qwen3-Coder-Subsequent offre ai codificatori di vibrazioni un potente modello open supply ultra-sparso con un throughput 10 volte superiore per le attività di repository

26
0

Il crew Qwen di ricercatori sull’intelligenza artificiale del gigante cinese dell’e-commerce Alibaba è emerso nell’ultimo anno come uno dei chief globali nello sviluppo di intelligenza artificiale open supply, rilasciando una serie di potenti modelli linguistici di grandi dimensioni e modelli multimodali specializzati che si avvicinano, e in alcuni casi, superano le prestazioni dei chief proprietari statunitensi come OpenAI, Anthropic, Google e xAI.

Ora il crew di Qwen è tornato questa settimana con un rilascio avvincente che corrisponde alla frenesia del “vibe coding” che è emersa negli ultimi mesi: Qwen3-Coder-Avantiun modello specializzato da 80 miliardi di parametri progettato per fornire prestazioni agenti d’élite con un ingombro attivo leggero.

È stato rilasciato con una licenza Apache 2.0 permissiva, che ne consente l’uso commerciale da parte di grandi aziende e sviluppatori indipendenti, con il pesi del modello disponibili su Hugging Face in quattro varianti e a relazione tecnica descrivendo alcuni dei suoi approcci formativi e delle innovazioni.

Il rilascio segna un’importante escalation nella corsa agli armamenti globale per l’assistente di codifica definitivo, dopo una settimana che ha visto lo spazio esplodere con nuovi concorrenti. Dai massicci miglioramenti in termini di efficienza del sistema Claude Code di Anthropic al lancio di alto profilo dell’app OpenAI Codex e alla rapida adozione da parte della comunità di framework open supply come OpenClaw, il panorama competitivo non è mai stato così affollato.

In questo ambiente advert alto rischio, Alibaba non sta solo tenendo il passo: sta tentando di stabilire un nuovo normal per l’intelligence a peso aperto.

Per i decisori LLM, Qwen3-Coder-Subsequent rappresenta un cambiamento fondamentale nell’economia dell’ingegneria dell’intelligenza artificiale. Sebbene il modello contenga 80 miliardi di parametri totali, utilizza un’architettura Extremely-sparsa Combination-of-Consultants (MoE) che attiva solo 3 miliardi di parametri per passaggio in avanti.

Questo design gli consente di fornire capacità di ragionamento che rivaleggiano con i massicci sistemi proprietari, pur mantenendo i bassi costi di implementazione e l’elevata produttività di un modello locale leggero.

Risolvere il collo di bottiglia del contesto lungo

La principale innovazione tecnica dietro Qwen3-Coder-Subsequent è un’architettura ibrida progettata specificamente per aggirare i problemi di ridimensionamento quadratico che affliggono i Transformer tradizionali.

Man mano che le finestre di contesto si espandono – e questo modello supporta ben 262.144 token – i tradizionali meccanismi di attenzione diventano computazionalmente proibitivi.

I trasformatori normal soffrono di un “muro di memoria” in cui il costo del contesto di elaborazione cresce quadraticamente con la lunghezza della sequenza. Qwen affronta questo problema combinando Gated DeltaNet con Gated Consideration.

Gated DeltaNet funge da alternativa di complessità lineare all’attenzione softmax normal. Consente al modello di mantenere lo stato attraverso la sua finestra di un quarto di milione di token senza le penalità di latenza esponenziale tipiche del ragionamento a lungo orizzonte.

Se abbinato al MoE ultra-sparso, il risultato è un throughput teorico 10 volte superiore per le attività a livello di repository rispetto a modelli densi di capacità totale simile.

Questa architettura garantisce che un agente possa “leggere” un’intera libreria Python o un complesso framework JavaScript e rispondere con la velocità di un modello 3B, ma con la comprensione strutturale di un sistema 80B.

Per prevenire allucinazioni contestuali durante la formazione, il crew ha utilizzato il Greatest-Match Packing (BFP), una strategia che mantiene l’efficienza senza gli errori di troncamento riscontrati nella tradizionale concatenazione dei documenti.

Addestrato per essere il primo agente

Il “Subsequent” nella nomenclatura del modello si riferisce advert un perno fondamentale della metodologia formativa. Storicamente, i modelli di codifica venivano addestrati su coppie statiche di codice-testo, essenzialmente una formazione di “sola lettura”. Qwen3-Coder-Subsequent è stato invece sviluppato attraverso una massiccia pipeline di “addestramento degli agenti”.

Il rapporto tecnico descrive in dettaglio una pipeline di sintesi che ha prodotto 800.000 attività di codifica verificabili. Questi non erano semplici frammenti; erano scenari reali di correzione dei bug estratti dalle richieste pull di GitHub e abbinati advert ambienti completamente eseguibili.

L’infrastruttura di formazione, nota come MegaFlow, è un sistema di orchestrazione cloud-native basato su Alibaba Cloud Kubernetes. In MegaFlow, ciascuna attività dell’agente è espressa come un flusso di lavoro in tre fasi: implementazione dell’agente, valutazione e post-elaborazione. Durante l’implementazione, il modello interagisce con un ambiente containerizzato dwell.

Se genera codice che fallisce un take a look at unitario o manda in crash un contenitore, riceve un suggestions immediato attraverso l’addestramento intermedio e l’apprendimento per rinforzo. Questa formazione a “circuito chiuso” consente al modello di apprendere dal suggestions ambientale, insegnandogli a riprendersi dai difetti e perfezionare le soluzioni in tempo reale.

Le specifiche del prodotto includono:

  • Supporto per 370 linguaggi di programmazione: Un’espansione da 92 nelle versioni precedenti.

  • Chiamata dello strumento in stile XML: Un nuovo formato qwen3_coder progettato per argomenti ricchi di stringhe, consentendo al modello di emettere lunghi frammenti di codice senza il sovraccarico di virgolette annidate e di escape tipico di JSON.

  • Focus a livello di repository: La fase di formazione intermedia è stata estesa a circa 600 miliardi di token di dati a livello di repository, dimostrandosi di maggiore impatto per la logica di dipendenza tra file rispetto ai soli set di dati a livello di file.

Specializzazione tramite modelli esperti

Un elemento chiave di differenziazione nella pipeline Qwen3-Coder-Subsequent è l’uso di modelli esperti specializzati. Invece di formare un modello generalista per tutte le attività, il crew ha sviluppato esperti specifici del dominio per lo sviluppo Net e l’esperienza utente (UX).

L’esperto di sviluppo Net si occupa di attività full come la costruzione dell’interfaccia utente e la composizione dei componenti. Tutti gli esempi di codice sono stati renderizzati in un ambiente Chromium controllato da Playwright.

Per gli esempi React, è stato distribuito un server Vite per garantire che tutte le dipendenze fossero inizializzate correttamente. Un modello Imaginative and prescient-Language (VLM) ha quindi valutato le pagine renderizzate per l’integrità del structure e la qualità dell’interfaccia utente.

L’Esperto dell’esperienza utente è stato ottimizzato per l’aderenza al formato delle chiamate degli strumenti su diversi scaffold CLI/IDE come Cline e OpenCode. Il crew ha scoperto che la formazione su diversi modelli di chat di strumenti ha migliorato significativamente la robustezza del modello rispetto a schemi invisibili al momento dell’implementazione.

Una volta che questi esperti hanno raggiunto le massime prestazioni, le loro capacità sono state condensate nuovamente nel singolo modello 80B/3B MoE. Ciò garantisce che la versione di distribuzione leggera mantenga la conoscenza sfumata di modelli di insegnanti molto più ampi.

Superare i benchmark offrendo allo stesso tempo un’elevata sicurezza

I risultati di questa formazione specializzata sono evidenti nella posizione competitiva del modello rispetto ai giganti del settore. Nelle valutazioni benchmark condotte utilizzando lo scaffold SWE-Agent, Qwen3-Coder-Subsequent ha dimostrato un’efficienza eccezionale rispetto al conteggio dei parametri attivi.

Su SWE-Bench Verified, il modello ha ottenuto un punteggio del 70,6%. Questa prestazione è particolarmente competitiva se affiancata a modelli significativamente più grandi; supera DeepSeek-V3.2, che ottiene un punteggio del 70,2%, e si colloca solo leggermente dietro il punteggio del 74,2% di GLM-4.7.

Benchmark Qwen3-Coder-Subsequent. Credito: Alibaba Qwen

Fondamentalmente, il modello dimostra una solida consapevolezza della sicurezza intrinseca. Su SecCodeBench, che valuta la capacità di un modello di riparare le vulnerabilità, Qwen3-Coder-Subsequent ha sovraperformato Claude-Opus-4.5 negli scenari di generazione di codice (61,2% contro 52,5%).

Tabella comparativa dei risultati del benchmark Qwen3-Coder-Next SecCodeBench

Tabella comparativa dei risultati del benchmark Qwen3-Coder-Subsequent SecCodeBench. Credito: Alibaba Qwen

In particolare, ha mantenuto punteggi elevati anche senza ricevere suggerimenti sulla sicurezza, indicando che ha imparato advert anticipare le comuni trappole di sicurezza durante la fase di formazione degli agenti da 800.000 attività.

Nelle valutazioni di sicurezza multilingue, il modello ha anche dimostrato un equilibrio competitivo tra generazione di codice funzionale e sicuro, superando sia DeepSeek-V3.2 che GLM-4.7 sul benchmark CWEval con un punteggio func-sec@1 del 56,32%.

Sfidare i colossi proprietari

Il rilascio rappresenta la sfida più significativa al dominio dei modelli di codifica closed-source nel 2026. Dimostrando che un modello con solo 3 miliardi di parametri attivi può affrontare le complessità dell’ingegneria del software program del mondo reale con la stessa efficacia di un “gigante”, Alibaba ha effettivamente democratizzato la codifica advert agenti.

Il “aha!” Il momento più importante per il settore è la consapevolezza che la lunghezza del contesto e il throughput sono le due leve più importanti per il successo degli agenti.

Un modello in grado di elaborare 262.000 token di un repository in pochi secondi e di verificare il proprio lavoro in un contenitore Docker è fondamentalmente più utile di un modello più grande che è troppo lento o costoso da iterare.

Come conclude il crew di Qwen nel loro rapporto: “Il dimensionamento della formazione degli agenti, piuttosto che la sola dimensione del modello, è un fattore chiave per il progresso della capacità degli agenti di codifica nel mondo reale”. Con Qwen3-Coder-Subsequent, l’period del modello di codifica “mammut” potrebbe volgere al termine, sostituita da esperti ultrarapidi e sparsi in grado di pensare tanto profondamente quanto di correre.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here