Clawdbot, l’agente AI che ha colto di sorpresa il mondo della tecnologia, è diventato uno dei progetti in più rapida ascesa su GitHub perché prometteva qualcosa di insolito.
Invece di limitarsi a chattare, Clawdbot può interagire con i tuoi file, inviare messaggi, pianificare eventi del calendario e automatizzare le attività sul tuo laptop, il tutto senza inviare i tuoi dati a un grande server.
La sua capacità di agire per conto degli utenti lo fa sentire come un aiutante personale dell’intelligenza artificiale. Ciò ha contribuito alla sua popolarità e lo ha aiutato a diffondersi rapidamente tra gli sviluppatori e gli utenti curiosi.
Il progetto è stato recentemente rinominato da Clawdbot a Moltbot dopo che Anthropic si è opposta al nome originale, citando potenziali conflitti di marchio. Lo sviluppatore ha accettato la modifica per evitare problemi legali, anche se il software program stesso è rimasto invariato.
Cosa hanno rivelato i controlli di sicurezza su Clawdbot (Moltbot)
Le stesse caratteristiche che facevano sembrare Moltbot potente sono anche ciò che lo rende rischioso. Poiché l’intelligenza artificiale può accedere al sistema operativo, ai file, ai dati del browser e ai servizi connessi, i ricercatori avvertono che crea un’ampia superficie di attacco che i malintenzionati potrebbero sfruttare.
Ricercatori di sicurezza in realtà trovato centinaia di pannelli di controllo amministrativo di Moltbot esposti sull’Web pubblica perché gli utenti hanno distribuito il software program dietro proxy inversi senza un’autenticazione adeguata.
Poiché questi pannelli controllano l’agente AI, gli aggressori potrebbero sfogliare i dati di configurazione, recuperare le chiavi API e persino visualizzare la cronologia completa delle conversazioni da chat e file privati.
In alcuni casi, l’accesso a queste interfacce di controllo significava che gli estranei detenevano essenzialmente la chiave principale per accedere agli ambienti digitali degli utenti. Ciò offre agli aggressori la possibilità di inviare messaggi, eseguire strumenti ed eseguire comandi su piattaforme come Telegram, Slack e Discord come se ne fossero i proprietari.
Lo rivelano altre indagini che Moltbot AI spesso memorizza dati sensibili come token e credenziali in testo semplice, rendendoli facili bersagli per i comuni infostealer e malware per la raccolta di credenziali.
I ricercatori hanno anche dimostrato attacchi proof-of-concept in cui gli exploit della catena di approvvigionamento consentivano di caricare “competenze” dannose nella libreria di Moltbot, consentendo l’esecuzione di comandi remoti su sistemi a valle controllati da utenti ignari.
Questa non è solo teoria. Secondo Il registrogli analisti avvertono che un’istanza non sicura di Moltbot esposta su Web può fungere da backdoor remota.

Esiste anche la possibilità di vulnerabilità di tipo “immediate injection”, in cui gli aggressori ingannano il bot inducendolo a eseguire comandi dannosi; qualcosa che abbiamo già visto nel browser AI di OpenAI, Atlas.
Se Moltbot non è protetto adeguatamente con misure di sicurezza tradizionali come sandboxing, isolamento firewall o accesso amministrativo autenticato, gli aggressori possono accedere a informazioni sensibili o persino controllare parti del tuo sistema.
Poiché Moltbot può automatizzare le azioni del mondo reale, un sistema compromesso potrebbe essere utilizzato per diffondere malware o infiltrarsi ulteriormente nelle reti. Ecco cosa pensa Heather Adkins, vicepresidente del group di sicurezza di Google, del chatbot:
In breve, Moltbot rappresenta un passo intrigante verso assistenti IA personali più capaci, ma i suoi profondi privilegi di sistema e l’ampio accesso significano che dovresti pensarci due volte e comprendere i rischi prima di installarlo sul tuo laptop.
I ricercatori suggeriscono di trattarlo con la stessa cautela che useresti per qualsiasi software program che possa toccare parti critiche del tuo sistema.












