Segui ZDNET: Aggiungici come fonte preferita su Google.
I principali punti salienti di ZDNET
- Clawdbot ha cambiato nuovamente il marchio, completando la sua “muta” in OpenClaw.
- La sicurezza è una “massima priorità”, ma durante il tremendous settimana sono emersi nuovi exploit.
- Gli esperti mettono in guardia contro questa campagna pubblicitaria senza comprenderne i rischi.
È stata una corsa sfrenata la scorsa settimana per Clawdbot, che ora ha rivelato un nuovo nome, aprendoci gli occhi su come il crimine informatico potrebbe trasformarsi con l’introduzione di assistenti AI e chatbot personalizzati.
Clawdbot, Moltbot, OpenClaw: che cos’è?
Soprannominata “l’intelligenza artificiale che fa davvero le cose”, Clawdbot è iniziato come un progetto open supply lanciato dallo sviluppatore austriaco Peter Steinberger. Il nome originale period un omaggio all’assistente AI Claude di Anthropic, ma ciò ha portato a problemi di proprietà intellettuale e il sistema AI è stato ribattezzato Moltbot.
Inoltre: OpenClaw è un incubo per la sicurezza: 5 segnali d’allarme da non ignorare (prima che sia troppo tardi)
Questo non è venuto fuori dalla bocca ed è stato “scelto durante un caotico brainstorming Discord con la comunità alle 5 del mattino”, secondo Steinberger, quindi non sorprende che questo nome fosse solo temporaneo. Tuttavia, OpenClaw, l’ultimo rebranding, potrebbe essere qui per restare, poiché lo sviluppatore ha commentato che “le ricerche sui marchi sono risultate chiare, i domini sono stati acquistati, il codice di migrazione è stato scritto”, aggiungendo che “il nome cattura ciò che è diventato questo progetto”.
A parte il carosello dei nomi, OpenClaw è significativo per la comunità dell’intelligenza artificiale poiché si concentra sull’autonomia, piuttosto che sulle risposte reattive alle domande degli utenti o alla generazione di contenuti. Potrebbe essere il primo vero esempio di come l’intelligenza artificiale personalizzata potrebbe integrarsi nella nostra vita quotidiana in futuro.
Cosa può fare OpenClaw?
OpenClaw è alimentato da modelli inclusi quelli sviluppati da Anthropic e OpenAI. Gli utenti possono scegliere tra modelli compatibili, da Claude di Anthropic a ChatGPT, Ollama, Mistral e altri.
Mentre è archiviato su singole macchine, il bot AI comunica con gli utenti tramite app di messaggistica come iMessage o WhatsApp. Gli utenti possono scegliere tra e installare competenze e integrare altri software program per aumentare la funzionalità, inclusi plug-in per Discord, Twitch, Google Chat, promemoria di attività, calendari, piattaforme musicali, hub di casa intelligente e app di posta elettronica e di spazio di lavoro. Per agire per tuo conto, sono necessarie autorizzazioni di sistema estese.
Al momento in cui scrivo, OpenClaw ne ha oltre 148.000 GitHub stelle ed è stato visitato milioni di volte, secondo Steinberger.
Preoccupazioni per la sicurezza in corso
OpenClaw è diventato virale nell’ultima settimana o giù di lì, e quando un progetto open supply cattura l’immaginazione del grande pubblico a un ritmo così rapido, è comprensibile che potrebbe non esserci stato abbastanza tempo per appianare i difetti di sicurezza.
Tuttavia, l’emergere di OpenClaw come meraviglia virale nello spazio dell’intelligenza artificiale comporta dei rischi per gli adottanti. Alcune delle questioni più significative sono:
- Interesse del truffatore: Dato che il progetto è diventato virale, abbiamo già visto emergere repository falsi e truffe di criptovaluta.
- Controllo del sistema: Se affidi il pieno controllo del sistema a un assistente AI in grado di eseguire attività in modo proattivo per tuo conto, stai creando nuovi percorsi di attacco che potrebbero essere sfruttati dagli autori delle minacce, sia tramite malware, integrazioni e competenze dannose, sia attraverso richieste di dirottamento dei tuoi account o della tua macchina.
- Iniezioni speedy: Il rischio di iniezioni tempestive non è limitato a OpenClaw: è una preoccupazione diffusa nella comunità dell’intelligenza artificiale. Le istruzioni dannose sono nascoste nel materiale sorgente di un’intelligenza artificiale, advert esempio su siti Internet o URL, che potrebbero indurle a eseguire attività dannose o a esfiltrare dati.
- Errate configurazioni: I ricercatori hanno evidenziato istanze aperte esposte sul Internet che facevano trapelare credenziali e chiavi API a causa di impostazioni errate.
- Abilità dannose: Un vettore di attacco emergente sono le competenze e le integrazioni dannose che, una volta scaricate, aprono backdoor che i criminali informatici possono sfruttare. Un ricercatore lo ha già dimostrato con il rilascio di a backdoor (ma sicura) abilità per la comunità, che è stata scaricata migliaia di volte.
- Allucinazione: L’intelligenza artificiale non sempre ha ragione. I bot possono avere allucinazioni, fornire informazioni errate e affermare di aver eseguito un’attività quando non lo hanno fatto. Il sistema di OpenClaw non è protetto da questo rischio.
L’ultima versione di OpenClaw embrace 34 impegni relativi alla sicurezza per rafforzare la base di codice dell’intelligenza artificiale e la sicurezza è ora una “massima priorità” per i contributori del progetto. Problemi patchato negli ultimi giorni embrace a con un clic Vulnerabilità dell’esecuzione di codice remoto (RCE) e difetti di command injection.
Inoltre: 10 modi in cui l’IA può infliggere danni senza precedenti nel 2026
OpenClaw sta affrontando una sfida alla sicurezza che darebbe incubi alla maggior parte dei difensori, ma essendo un progetto che ora è troppo da gestire per un solo sviluppatore, dovremmo riconoscere che i bug e le vulnerabilità segnalati vengono risolti rapidamente.
“Vorrei ringraziare tutti gli addetti alla sicurezza per il loro duro lavoro nell’aiutarci a rafforzare il progetto”, ha detto Steinberger in un articolo del blog. “Questa settimana abbiamo rilasciato modelli di sicurezza controllabili dalle macchine e stiamo continuando a lavorare su ulteriori miglioramenti della sicurezza. Ricordate che il immediate injection è ancora un problema irrisolto a livello di settore, quindi è importante utilizzare modelli forti e studiare la nostra sicurezza migliori pratiche.”
L’emergere di una rete “sociale” di agenti IA
La scorsa settimana abbiamo visto anche il debutto dell’imprenditore Matt Schlicht Moltbookun affascinante esperimento in cui gli agenti IA possono comunicare attraverso una piattaforma in stile Reddit. Conversazioni bizzarre e probabili interferenze umane a parte, durante il tremendous settimana, il ricercatore di sicurezza Jamieson O’Reilly rivelato l’intero database del sito è stato esposto al pubblico, “senza alcuna protezione, comprese le chiavi API segrete che avrebbero consentito a chiunque di pubblicare per conto di qualsiasi agente”.
Anche se a prima vista potrebbe non sembrare un grosso problema, uno degli agenti esposti period collegato Andrej Karpathyex direttore dell’intelligenza artificiale presso Tesla.
Anche: Il nuovo spaventoso trucco dell’intelligenza artificiale: condurre attacchi informatici invece di limitarsi a dare una mano
“Karpathy ha 1,9 milioni di follower su @X ed è una delle voci più influenti nel campo dell’intelligenza artificiale”, ha affermato O’Reilly. “Immaginate false riprese sulla sicurezza dell’intelligenza artificiale, promozioni di truffe crittografiche o dichiarazioni politiche provocatorie che sembrano provenire da lui.”
Inoltre ce ne sono già stati centinaia attacchi di iniezione tempestivi secondo quanto riferito, prendono di mira gli agenti IA sulla piattaforma, i contenuti anti-umani vengono votati positivamente (questo non vuol dire che siano stati originariamente generati da agenti senza istruzioni umane) e una vasta gamma di submit probabilmente correlati a truffe di criptovaluta.
Mark Nadilo, un ricercatore di intelligenza artificiale e LLM, ha anche evidenziato un altro problema nel liberare l’intelligenza artificiale dagli agenti: il danno causato all’addestramento dei modelli.
“Tutto viene assorbito nella formazione e, una volta collegato al token API, tutto viene contaminato,” Nadilo disse. “Le aziende devono stare attente: la perdita dei dati di formazione è reale e sta distorcendo tutto.”
Mantenerlo locale
La localizzazione può darti un breve senso di maggiore sicurezza rispetto all’adozione dell’intelligenza artificiale basata su cloud, ma se combinata con problemi di sicurezza emergenti, memoria persistente e autorizzazioni per eseguire comandi shell, leggere o scrivere file, eseguire script ed eseguire attività in modo proattivo anziché reattivo, potresti esporti a gravi rischi per la sicurezza e la privateness.
Anche: Questa è l’intelligenza artificiale locale più veloce che abbia mai provato e non si avvicina nemmeno a come ottenerla
Tuttavia, questo non sembra aver smorzato l’entusiasmo che circonda questo progetto e, con la richiesta di contributori e assistenza da parte dello sviluppatore nell’affrontare queste sfide, saranno mesi interessanti per vedere come OpenClaw continua advert evolversi.
Nel frattempo, esistono modi più sicuri per esplorare le applicazioni IA localizzate. Se sei interessato a provarlo tu stesso, l’autore di ZDNET Tiernan Ray ha sperimentato l’intelligenza artificiale locale, rivelando alcune lezioni interessanti sulle sue applicazioni e sul suo utilizzo.













