Home Tecnologia Vuoi codificare l’atmosfera locale? Questo stack AI sostituisce Claude Code e Codex...

Vuoi codificare l’atmosfera locale? Questo stack AI sostituisce Claude Code e Codex ed è gratuito

46
0

Elyse migliora Picaro / ZDNET

Segui ZDNET: Aggiungici come fonte preferita su Google.


I principali punti salienti di ZDNET

  • Goose agisce come l’agente che pianifica, ripete e applica le modifiche.
  • Ollama è il runtime locale che ospita il modello.
  • Qwen3-coder è il LLM incentrato sulla codifica che genera risultati.

Se programmi da un certo numero di anni, hai praticamente vissuto una serie di cicli di hype. Che si tratti di un nuovo ambiente di sviluppo, di un nuovo linguaggio, di un nuovo plugin o di qualche nuovo servizio on-line con un’API così potente che fa risparmiare tempo, è tutto “rivoluzionario” e “cambia il mondo”, almeno secondo i rappresentanti delle pubbliche relazioni che vendono The Huge New Factor.

E poi c’è la codifica dell’intelligenza artificiale degli agenti. Quando uno strumento può aiutarti a realizzare quattro anni di sviluppo del prodotto in quattro giorni, l’impatto è in grado di cambiare il mondo. Sebbene la codifica delle vibrazioni abbia i suoi detrattori (per una buona ragione), gli agenti di codifica AI come Codex e Claude Code di OpenAI sono davvero rivoluzionari. Stanno trasformando radicalmente l’industria del software program.

Inoltre: ho provato un’alternativa a Claude Code che è locale, open supply e completamente gratuita: come funziona

Durante i miei check, ho stabilito che puoi ottenere alcune ore di codifica degli agenti qua e là con i piani da $ 20 al mese delle società di intelligenza artificiale. Ma se hai intenzione di dedicare intere giornate alla programmazione, dovrai passare a piani da $ 100 o $ 200 al mese. Altrimenti, rischierai di essere sospeso finché l’allocazione dei token non verrà ripristinata.

Sebbene sia OpenAI che Anthropic abbiano ripetutamente affermato di rispettare la privateness dei codici base, il fatto è che entrambi stanno svolgendo il proprio lavoro sull’infrastruttura cloud. Questo sforzo ha un rischio intrinseco per la sicurezza. L’utilizzo di queste tecnologie potrebbe anche violare gli accordi basati su come gestisci il codice sorgente o anche su dove viene svolto il tuo lavoro.

Recentemente, tuttavia, è stata pubblicata una possibile soluzione a queste sfide. Combinando tre strumenti separati, potrebbe essere possibile sostituire le costose piattaforme di codifica basate su cloud con un agente AI gratuito che viene eseguito sul tuo laptop locale.

Inoltre: ho testato strumenti di codifica AI gratuiti e a pagamento: ecco quale utilizzerei effettivamente

Nel mio articolo precedente, ti ho mostrato come configurare questo ambiente e ho eseguito alcuni check di base. Sono stato in grado di confermare che questa configurazione può eseguire la codifica con agenti (anche se gli ho fornito solo un semplice problema e presentava alcune sfide).

In questo articolo ti guiderò attraverso i tre strumenti (Goose, Ollama e Qwen3-coder) e spiegherò il contributo di ciascuno alla soluzione complessiva.

Quindi, in un articolo successivo, proverò a utilizzare questo sistema per creare un grande progetto, estendendo la mia app Claude Coded per iPhone, Mac e Apple Watch all’iPad. Invece di usare Claude Code per il progetto, vedrò se questi tre batch di bit possono fare tutto sul mio Mac e gratuitamente.

Qwen3: Il LLM di codifica

Cominciamo con Qwen3-coder, il modello di linguaggio di grandi dimensioni specifico per la codifica. Ho scelto Qwen per questo Il post di Jack Dorsey su Xdicendo “goose + qwen3-coder = wow”, e anche perché Jack Wallen di ZDNET me lo ha consigliato quando ho chiesto informazioni sui modelli di codifica scaricabili.

Inoltre: smetti di usare ChatGPT per tutto: i miei modelli di intelligenza artificiale preferiti per la ricerca, la codifica e altro (e che evito)

Questa è una questione che voglio rafforzare. Sappiamo che modelli come il codice GPT-5.2 di OpenAI e Opus-4.5 di Anthropic sono ottimi per la codifica, ma sono basati su cloud e sono a pagamento. Stiamo esaminando Qwen3-coder perché È gratuito e scaricabile.

Parliamo di cos’è un grande modello linguistico. Pensa a ChatGPT. Quando lo usi, puoi scegliere un modello (o, con la versione gratuita, di solito viene scelto un modello per te). L’interfaccia, o chatbot, è un software program separato dal modello.

Se dovessimo usare un’analogia con l’auto, il modello è il motore e il chatbot è l’abitacolo con volante e cruscotto.

Qwen3-coder è una versione specializzata di Qwen3 LLM di Alibaba. È il pezzo di software program che scrive effettivamente il codice. Questo modello genera codice da immediate e comprende linguaggi di programmazione, framework e modelli. Può eseguire il refactoring del codice (apportare modifiche a livello di codice), eseguire diff (confrontare il codice), creare spiegazioni del codice e correggerlo.

Inoltre: Xcode 26.3 porta finalmente la codifica advert agenti negli strumenti di sviluppo di Apple

Il modello di codifica non è in grado di gestire flussi di lavoro in più fasi. Non sa quando smettere di lavorare su un problema o quando iterare su un problema. Inoltre, il modello non ha memoria di nulla oltre al contesto attualmente in esecuzione.

Ollama: Il runtime del modello

Ollama è il runtime del modello locale e il livello di servizio. I modelli non funzionano da soli. Utilizzando un database come analogia, un modello è come il database stesso, una raccolta di informazioni. Nel caso di un modello, è un gigantesco deposito di conoscenza.

Ollama è come il motore di database. La differenza principale tra un database e un motore di database è che un motore di database inserisce ed estrae i dati dal database vero e proprio. Ollama estrae informazioni solo dal modello linguistico di grandi dimensioni, quindi è più un runtime (un sistema che esegue qualcosa precedentemente creato da un altro sistema) che un motore completo.

Ollama è l’infrastruttura che esegue effettivamente modelli linguistici di grandi dimensioni sulla tua macchina e li rende disponibili advert altri processi tramite un’API locale. Scarica, installa e gestisce LLM locali. Esegue processi di inferenza sul tuo {hardware} (CPU o GPU). Rende i modelli disponibili advert altri processi tramite un endpoint API coerente. Gestisce inoltre il cambio di modello, il controllo delle versioni e il controllo delle risorse.

Inoltre: ChatGPT Plus vale ancora i tuoi $ 20? L’ho confrontato con i piani Free, Go e Professional: ecco il mio consiglio

D’altra parte, Ollama non capisce gli obiettivi del tuo progetto. Non gestisce conversazioni o attività.

C’è un’altra cosa da notare. Ollama stesso non è uno strumento di codifica specializzato. Conosce la codifica solo se il LLM attualmente in esecuzione conosce la codifica.

Poiché accetta chiamate API per l’accesso LLM, Ollama è una sorta di server AI, situato tra LLM e l’interfaccia del chatbot.

Goose: il responsabile della codifica

Goose è fondamentalmente la parte agente del puzzle, che fornisce l’orchestrazione per gli altri componenti principali. È la parte che comprende l’intento, gestisce le attività e determine cosa chiedere al modello di fare successivamente.

Goose interpreta le tue istruzioni di programmazione. Se ti piace l’concept della codifica delle vibrazioni, Goose decodifica le vibrazioni che gli dai e suddivide il lavoro in passaggi relativi all’analisi, pianificazione, generazione del codice e check. È la parte del sistema che mantiene il contesto della conversazione e dell’attività attraverso le iterazioni.

Inoltre: come creare la tua prima app per iPhone con l’intelligenza artificiale: non è necessaria alcuna esperienza di codifica

Di concerto con l’essere umano che lo guida, Goose determine se una modifica merita una riscrittura del modulo o del blocco e se il codice può essere semplicemente modificato. Gestisce anche comandi del flusso di lavoro come “scansiona il repository, proponi modifiche, applica differenze”.

Goose non genera codice da solo. Non esegue direttamente i modelli (anche se parla con loro). E non sa nulla della sintassi del codice a meno che il modello che sta utilizzando non lo aiuti.

Goose è essenzialmente il direttore e il venture supervisor del processo di codifica delle vibrazioni.

Un flusso di lavoro tipico

Quindi, diamo un’occhiata a come tutti e tre i componenti lavorano insieme per consentirti di generare codice:

  • L’essere umano fornisce un suggerimento che descrive un obiettivo di programmazione.
  • Goose interpreta quell’obiettivo e determine cosa fare.
  • Goose invia una richiesta di codifica precisa a Ollama.
  • Ollama esegue Gwen3-coder localmente sul tuo laptop.
  • Gwen3-coder restituisce codice o analisi.
  • Goose determine se applicarlo, perfezionarlo o chiedere di nuovo.

Questo modello di flusso di lavoro è il motivo per cui la codifica delle vibrazioni sembra fluida. Puoi rimanere astratto e intuitivo mentre il sistema traduce le tue richieste in modifiche tangibili del codice.

Inoltre: ho usato Claude Code per codificare un’app Mac in 8 ore, ma è stato più lavoro che magia

Sebbene questo approccio funzioni molto bene per questi tre strumenti, altri ambienti di codifica advert agenti come Claude Code o OpenAI Codex hanno il proprio combine di LLM di codifica, runtime del modello e gestore di programmazione. Stanno tutti correndo dietro l’interfaccia front-end che i prodotti di codifica presentano ai loro utenti sviluppatori.

In termini dei tre strumenti di cui stiamo parlando qui, questa architettura offre molta flessibilità e controllo. Advert esempio, puoi sostituire il programmatore LLM Gwen3 con un altro modello di codifica senza cambiare Goose. Puoi aggiornare o ottimizzare Ollama senza toccare i tuoi flussi di lavoro. Nel corso del tempo, Goose potrebbe evolversi in un agente più intelligente senza riqualificare i modelli. Inoltre, tutto è locale, ispezionabile (credo sia una parola) e modulare.

Il tuo dipartimento di ingegneria del software program in una scatola

Ecco un modo divertente di pensare a questo approccio. Una volta configurato Goose, Ollama e Qwen3-coder sul tuo laptop locale, hai effettivamente un dipartimento di ingegneria del software program in una scatola. Goose è l’ingegnere senior che guida la sessione. Ollama è l’ingegnere delle infrastrutture che gestisce il tuo ambiente informatico. Qwen3-coder è uno sviluppatore junior veloce e talentuoso che scrive codice.

E tu? Hai provato strumenti di codifica locali basati su agenti come Goose with Ollama e un modello di codifica scaricabile? Oppure ti affidi ancora a servizi basati su cloud come Claude Code o Codex?

Ti attira l’concept di mantenere il codice e i immediate interamente sulla tua macchina o vedi dei compromessi che renderebbero questo approccio poco pratico per il tuo lavoro? Che ne dici di mescolare e abbinare componenti, advert esempio scambiando modelli o runtime, invece di utilizzare una piattaforma di codifica all-in-one? Fatecelo sapere nei commenti qui sotto.


Puoi seguire gli aggiornamenti quotidiani sui miei progetti sui social media. Assicurati di iscriverti a la mia newsletter di aggiornamento settimanalee seguimi su Twitter/X all’indirizzo @DavidGewirtzsu Fb all’indirizzo Facebook.com/DavidGewirtzsu Instagram all’indirizzo Instagram.com/DavidGewirtzsu Bluesky a @DavidGewirtz.come su YouTube all’indirizzo YouTube.com/DavidGewirtzTV.



fonte