Home Tecnologia Ho provato un rivale di Claude Code che è locale, open supply...

Ho provato un rivale di Claude Code che è locale, open supply e completamente gratuito: come è andata

69
0

Elyse migliora Picaro / ZDNET

Segui ZDNET: Aggiungici come fonte preferita su Google.


I principali punti salienti di ZDNET

  • Gli strumenti AI gratuiti Goose e Qwen3-coder possono sostituire un costoso piano Claude Code.
  • L’installazione è semplice ma richiede un potente laptop locale.
  • I primi take a look at si mostrano promettenti, anche se permangono problemi con la precisione e i tentativi.

Jack Dorsey è il fondatore di Twitter (ora X), Sq. (ora Block) e Bluesky (ancora blu). A luglio, ha pubblicato a dichiarazione abbastanza criptica su Xdicendo “oca + qwen3-coder = wow”.

Inoltre: vuoi codificare l’atmosfera locale? Questo stack AI sostituisce Claude Code e Codex ed è gratuito

Da allora, l’interesse è cresciuto sia per Goose che per Qwen3. Goose, sviluppato dalla società Block di Dorsey, è un framework di agenti open supply, simile a Claude Code. Qwen3-coder è un modello di linguaggio di grandi dimensioni incentrato sulla codifica simile a Sonnet-4.5. Entrambi sono gratuiti.

Insieme, suggerisce Web, possono unirsi per creare un concorrente completamente gratuito di Claude Code. Ma possono? Veramente? Ho deciso di scoprirlo.

Inoltre: ho usato Claude Code per codificare un’app Mac in 8 ore, ma è stato più lavoro che magia

Questo è il primo di tre articoli che discuteranno dell’integrazione di Goose (il framework dell’agente), Ollama (un server LLM) e Qwen3-coder (il LLM).

In questo articolo ti mostrerò come far funzionare tutto. Nel prossimo articolo ti fornirò una comprensione più approfondita del ruolo svolto da ciascuno di questi tre strumenti nel processo di codifica dell’agente AI. Infine, proverò a utilizzare questi strumenti per creare un’app per iPad completa come estensione delle app che ho creato con Claude Code.

Okay, cominciamo. Lo sto costruendo sul mio Mac, ma puoi installare tutti e tre gli strumenti sul tuo laptop Home windows o Linux, se è così che ti piace.

Obtain del software program

Dovrai iniziare scaricando sia Goose che Ollama. Successivamente scaricherai il modello del codificatore Qwen3 da Ollama:

Inizialmente avevo scaricato e installato prima Goose. Ma non sono riuscito a farlo parlare con Ollama. Riesci a indovinare cosa ho fatto di sbagliato? Sì. Non avevo ancora scaricato e configurato Ollama.

Installazione di Ollama e Qwen3-coder

Il mio consiglio è di installare prima Ollama. Come ho già detto, sto usando MacOS, ma puoi usare quello che preferisci. Puoi anche installare una versione da riga di comando di Ollama, ma preferisco la versione dell’app, quindi è quello che esploreremo:

download-ollama

Schermata di David Gewirtz/ZDNET

Scarica Ollama. Quindi, fare doppio clic sul programma di installazione. Una volta caricata l’applicazione, vedrai un’interfaccia simile a una chat. A destra vedrai il modello. Il mio è predefinito su gpt-oss-20b.

Anche: I Gemelli possono guardare le tue e-mail e le tue foto per “aiutarti” adesso, ma dovresti permetterlo?

Fare clic su di esso e verrà visualizzato un elenco di modelli. Ho scelto Qwen3-coder:30b, dove 30b si riferisce al numero di parametri del modello. Questo è un modello ottimizzato per la codifica con circa 30 miliardi di parametri:

scegli il modello

Schermata di David Gewirtz/ZDNET

Tieni presente che il modello non verrà scaricato finché non sarà costretto a rispondere a un immediate. Ho digitato la parola “take a look at” e il modello è stato scaricato:

modello-download

Schermata di David Gewirtz/ZDNET

Tieni presente che questo modello ha una capacità di 17 GB, quindi assicurati di avere abbastanza spazio di archiviazione. Questo requisito evidenzia uno dei grandi vantaggi dell’intero progetto. La tua IA è locale, in esecuzione sul tuo laptop. Non stai inviando nulla al cloud.

Inoltre: ho testato strumenti di codifica AI gratuiti e a pagamento: ecco quale utilizzerei effettivamente

Una volta installato Qwen3-coder, devi rendere l’istanza di Ollama visibile advert altre applicazioni sul tuo laptop. Per eseguire questo passaggio, seleziona Impostazioni dal menu Ollama sulla barra dei menu:

consentire l'accesso

Schermata di David Gewirtz/ZDNET

Attiva Esponi Ollama alla rete. Lascio che Ollama si installi nella listing .ollama. Questo approccio nasconde la listing, quindi ricorda che hai un file da 17 GB sepolto lì dentro.

Infine, ho impostato la lunghezza del contesto su 32K. Ho 128 GB di RAM sulla mia macchina, quindi se comincio a rimanere fuori contesto, lo aumenterò. Ma volevo vedere come funzionava questo approccio con uno spazio contestuale più piccolo.

Inoltre, tieni presente che non ho effettuato l’accesso a Ollama. Puoi creare un account e utilizzare alcuni servizi cloud. Ma stiamo tentando di farlo in modo completamente gratuito e interamente sul laptop locale, quindi evito di accedere ogni volta che posso.

Inoltre: il tuo agente AI è all’altezza del compito? 3 modi per determinare quando delegare

E questo è tutto per Ollama e il programmatore Qwen3. Dovrai avviare e far funzionare Ollama ogni volta che usi Goose, ma probabilmente non interagirai molto con esso dopo questo.

Installazione di Goose

Successivamente, installiamo Goose. Vai avanti ed esegui il programma di installazione. Come con Ollama, esistono più implementazioni di Goose. Ho scelto la versione MacOS Apple Silicon Desktop:

download-oca

Schermata di David Gewirtz/ZDNET

Una volta avviato Goose per la prima volta, verrà visualizzata questa schermata di benvenuto. Hai numerous scelte di configurazione, ma poiché stiamo optando per una configurazione completamente gratuita, vai alla sezione Altri supplier e fai clic su Vai alle impostazioni del supplier:

benvenuta-oca

Schermata di David Gewirtz/ZDNET

Qui vedrai un elenco molto ampio di vari strumenti agente e LLM che puoi eseguire. Scorri verso il basso, trova Ollama e premi Configura:

fornitori

Schermata di David Gewirtz/ZDNET

Una volta eseguito questo passaggio, ti verrà chiesto di configurare Ollama. È qui che mi sono sentito un po’ confuso perché, stupido, pensavo che “Configura Ollama” significasse che lo ero In realtà configurando Ollama. Non così tanto. Quello che stai facendo (qui e per tutti gli altri supplier) è configurare la tua connessione, in questo caso a Ollama:

oca-ollama

Schermata di David Gewirtz/ZDNET

Ti verrà chiesto di scegliere un modello. Ancora una volta, scegli qwen3-coder:30b:

modello dell'oca

Schermata di David Gewirtz/ZDNET

Dopo aver scelto sia Ollama che qwen3-coder:30b, premi Seleziona modello:

selezionare-modello

Schermata di David Gewirtz/ZDNET

Congratulazioni. Ora hai installato e configurato un agente di codifica locale, in esecuzione sul tuo laptop.

Portando Goose a fare un giro

Come con quasi tutti gli altri chatbot, ti consigliamo di digitare un messaggio nell’apposita space. Ma prima non è una cattiva thought far sapere a Goose la listing che utilizzerai. Per il mio take a look at iniziale, ho impostato Goose in modo che funzioni da una cartella temporanea. Lo specifichi in (1) toccando la listing già mostrata:

prova1

Schermata di David Gewirtz/ZDNET

Tieni inoltre presente che il modello in uso è indicato in (2). Puoi impostare Goose per eseguire più modelli, ma per ora stiamo lavorando solo con questo.

Come take a look at, ho utilizzato la mia sfida di take a look at normal: creare un semplice plugin per WordPress. Nella sua prima esecuzione, Goose/Qwen3 ha fallito. Ha generato un plugin, ma non ha funzionato:

prova2

Schermata di David Gewirtz/ZDNET

Nel mio secondo e terzo tentativo, dopo aver spiegato a Goose/Qwen3 cosa non funzionava, il problema è fallito e fallito di nuovo.

Inoltre: la vera intelligenza artificiale è lontana anni: ecco perché e come ci arriviamo

Al terzo tentativo, ha eseguito la randomizzazione, ma non ha seguito completamente le indicazioni, il che ha vanificato l’intero scopo del plugin originale:

prova3

Schermata di David Gewirtz/ZDNET

Ci sono voluti cinque spherical perché Goose riuscisse a farlo bene, ed period molto, molto soddisfatto di quanto si aspettasse di essere giusto:

prova4

Schermata di David Gewirtz/ZDNET

Prime impressioni

Allora cosa penso di questo approccio? Sono rimasto deluso dal fatto che Goose abbia impiegato cinque tentativi per far funzionare il mio piccolo take a look at. Quando ho testato un gruppo di chatbot gratuiti con questo compito, tutti tranne Grok e un Gemini pre-Gemini 3 hanno superato il mio piccolo take a look at al primo tentativo.

Inoltre: come collaudo l’abilità di codifica di un chatbot AI – e puoi farlo anche tu

Ma una grande differenza tra la codifica chatbot e la codifica advert agenti è che strumenti di codifica advert agenti come Claude Code e Goose lavorano sul codice sorgente effettivo. Pertanto, correzioni ripetute migliorano la base di codice effettiva.

Quando il mio collega Tiernan Ray ha provato Ollama sul suo Mac M1 da 16 GB, ha scoperto che le prestazioni erano insopportabili. Ma sto eseguendo questa configurazione su un M4 Max Mac Studio con 128 GB di RAM. Avevo anche Chrome, Fusion, Closing Lower, VS Code, Xcode, Wispr Stream e Photoshop aperti contemporaneamente.

Finora ho eseguito solo un take a look at di programmazione abbastanza semplice, ma ho scoperto che le prestazioni complessive sono abbastanza buone. Non ho notato una differenza tangibile nei tempi di risposta rispetto alle richieste tra l’istanza locale che esegue Goose sul mio Mac Studio e prodotti ibridi locali/cloud come Claude Code e OpenAI Codex che utilizzano le enormi infrastrutture delle aziende di intelligenza artificiale.

Inoltre: 4 nuovi ruoli guideranno la rivoluzione dell’intelligenza artificiale degli agenti: ecco cosa richiedono

Ma queste sono ancora le prime impressioni. Sarò in grado di dirti meglio se penso che questa soluzione gratuita possa sostituire le various costose come il piano Max da $ 100/mese di Claude Code o il piano Professional da $ 200/mese di OpenAI una volta che avrò eseguito un grande progetto. L’analisi deve ancora arrivare, quindi rimanete sintonizzati.

Hai provato a eseguire localmente un LLM incentrato sulla codifica con strumenti come Goose, Ollama o Qwen? Com’è andata la configurazione e su quale {hardware} la stai eseguendo? Se hai utilizzato opzioni cloud come Claude o OpenAI Codex, come si confrontano le prestazioni locali e la qualità dell’output? Fatecelo sapere nei commenti qui sotto.


Puoi seguire gli aggiornamenti quotidiani sui miei progetti sui social media. Assicurati di iscriverti a la mia newsletter di aggiornamento settimanalee seguimi su Twitter/X all’indirizzo @DavidGewirtzsu Fb all’indirizzo Facebook.com/DavidGewirtzsu Instagram all’indirizzo Instagram.com/DavidGewirtzsu Bluesky a @DavidGewirtz.come su YouTube all’indirizzo YouTube.com/DavidGewirtzTV.



fonte