L’ultima ondata di entusiasmo per l’intelligenza artificiale ci ha portato una mascotte inaspettata: un’aragosta. Clawdbotun assistente personale basato sull’intelligenza artificiale, è diventato virale poche settimane dopo il suo lancio e manterrà il tema dei crostacei nonostante sia stato necessario cambia il suo nome in Moltbot dopo una sfida legale da parte di Anthropic. Ma prima di saltare sul carro, ecco cosa devi sapere.
Secondo il suo slogan, Moltbot (precedentemente Clawdbot) è “l’intelligenza artificiale che fa davvero le cose”, che si tratti di gestire il tuo calendario, inviare messaggi tramite le tue app preferite o effettuare il check-in per i voli. Questa promessa ha attirato migliaia di utenti disposti advert affrontare la configurazione tecnica richiesta, anche se è iniziato come un progetto personale frammentario creato da uno sviluppatore per uso personale.
Quell’uomo è Peter Steinberger, un austriaco sviluppatore e fondatore che è conosciuto on-line come @steipete e blogga attivamente sul suo lavoro. Dopo essersi allontanato dal suo progetto precedente, PSPDFkit, Steinberger si è sentito vuoto e per tre anni ha toccato a malapena il suo pc, ha spiegato sul suo weblog. Ma alla tremendous lui ha ritrovato la sua scintilla – che ha portato a Moltbot.
Sebbene Moltbot sia ormai molto più di un progetto solista, da esso deriva ancora la versione disponibile al pubblico Artiglio“l’assistente di Peter”, ora chiamato Molty, uno strumento che ha creato per aiutarlo a “gestire la sua vita digitale” ed “esplorare cosa può essere la collaborazione uomo-intelligenza artificiale”.
Per Steinberger, ciò significava approfondire lo slancio attorno all’intelligenza artificiale che aveva riacceso la sua scintilla di costruttore. Un “claudoholic” confessatoinizialmente ha chiamato il suo progetto in onore del prodotto di punta dell’intelligenza artificiale di Anthropic, Claude. Successivamente ha rivelato su X che Anthropic lo costrinse modificare il marchio per motivi di copyright. TechCrunch ha contattato Anthropic per un commento. Ma “l’anima da aragosta” del progetto rimane invariato.
Per i suoi primi utilizzatori, Moltbot rappresenta l’avanguardia di quanto possano essere utili gli assistenti IA. Coloro che erano già entusiasti della prospettiva di utilizzare l’intelligenza artificiale per generare rapidamente siti Internet e app, sono ancora più desiderosi che il proprio assistente personale AI esegua le attività per loro. E proprio come Steinberger, sono ansiosi di armeggiarci.
Questo spiega come Moltbot abbia accumulato più di 44.200 stelle su GitHub così velocemente. Moltbot ha prestato così tanta attenzione virale che ha persino spostato i mercati. Le azioni di Cloudflare è aumentato del 14% nel buying and selling pre-mercato martedì, mentre i social media parlavano dell’agente AI riaccendendo l’entusiasmo degli investitori per l’infrastruttura di Cloudflare, che gli sviluppatori utilizzano per eseguire Moltbot localmente sui propri dispositivi.
Evento Techcrunch
San Francisco
|
13-15 ottobre 2026
Tuttavia, c’è ancora molta strada dall’uscire dal territorio degli early adopter, e forse è meglio così. L’installazione di Moltbot richiede essere esperti di tecnologia e ciò embody anche la consapevolezza dei rischi per la sicurezza intrinseci che ne derivano.
Da un lato, Moltbot è costruito pensando alla sicurezza: è open supply, il che significa che chiunque può ispezionare il suo codice per individuare eventuali vulnerabilità, e funziona sul tuo pc o server, non nel cloud. Ma d’altro canto, la sua stessa premessa è intrinsecamente rischiosa. Come imprenditore e investitore Rahul Sood segnalato su X“‘fare effettivamente delle cose’ significa ‘può eseguire comandi arbitrari sul tuo pc.’”
Ciò che tiene sveglio Sood la notte è la “immediate injection attraverso i contenuti”, ovvero una persona malintenzionata potrebbe inviarti un messaggio WhatsApp che potrebbe indurre Moltbot a intraprendere azioni indesiderate sul tuo pc senza il tuo intervento o la tua conoscenza.
Story rischio può essere mitigato in parte mediante un’attenta impostazione. Poiché Moltbot supporta vari modelli di intelligenza artificiale, gli utenti potrebbero voler effettuare scelte di configurazione in base alla loro resistenza a questo tipo di attacchi. Ma l’unico modo per prevenirlo completamente è eseguire Moltbot in un silo.
Questo può essere ovvio per gli sviluppatori esperti che armeggiano con un progetto vecchio di settimane, ma alcuni di loro sono diventati più espliciti nell’avvertire gli utenti attratti dall’hype: le cose potrebbero mettersi male velocemente se si avvicinano con la stessa noncuranza di ChatGPT.
Allo stesso Steinberger è stato ricordato che esistono attori malintenzionati quando ha “incasinato” la ridenominazione del suo progetto. Si è lamentato su X dicendo che sono “truffatori di criptovalute” ha rubato il suo GitHub nome utente e ha creato falsi progetti di criptovaluta a suo nome, e ha avvertito i follower che “qualsiasi progetto elencato [him] in quanto proprietario della moneta è una truffa.” Ha poi pubblicato il problema di GitHub era stato riparato ma ha avvertito che l’account X legittimo è @moltbot, “non nessuna delle 20 varianti di truffa”.
Ciò non significa necessariamente che dovresti stare lontano da Moltbot in questa fase se sei curioso di testarlo. Ma se non hai mai sentito parlare di un VPS – un server privato virtuale, che è essenzialmente un pc remoto che noleggi per eseguire software program – potresti voler aspettare il tuo turno. (È lì che potresti voler eseguire Moltbot per ora. “Non il laptop computer con le tue chiavi SSH, credenziali API e gestore di password”, ha avvertito Sood.)
Al momento, eseguire Moltbot in modo sicuro significa eseguirlo su un pc separato con account usa e getta, il che vanifica lo scopo di avere un utile assistente AI. E risolvere il compromesso tra sicurezza e utilità potrebbe richiedere soluzioni che sfuggono al controllo di Steinberger.
Tuttavia, costruendo uno strumento per risolvere il proprio problema, Steinberger ha mostrato alla comunità degli sviluppatori cosa potrebbero effettivamente realizzare gli agenti di intelligenza artificiale e come l’intelligenza artificiale autonoma potrebbe finalmente diventare veramente utile anziché semplicemente impressionante.










