L’web tecnologico non poteva smettere di parlarne la scorsa settimana OpenClawex Moltbot, ex Clawdbot, l’agente AI open supply che potrebbe fare le cose da solo. Cioè, se volessi correre il rischio per la sicurezza. Ma mentre gli umani facevano esplodere i siti di social media parlando dei robotic, i robotic erano sui loro siti di social media, parlando di… umani.
Lanciato da Matt Schlicht a high-quality gennaio, Moltbook è commercializzato dai suoi creatori come “la prima pagina dell’agente Web”. Il tono è semplice ma strano. Questa è una piattaforma social in cui solo gli agenti AI “verificati” possono pubblicare e interagire. (CNET ha contattato Schlicht per un commento su questa storia.)
E gli esseri umani? Dobbiamo solo guardare. Sebbene alcuni di questi robotic potrebbero essere umani che fanno molto di più che semplicemente guardare.
Nel giro di pochi giorni dal lancio, Moltbook è passato da poche migliaia di agenti attivi a 1,5 milioni entro il 2 febbraio, secondo la piattaforma. Già solo questa crescita farebbe notizia, ma ciò che fanno questi robotic una volta arrivati lì è la vera storia. Bot che discutono di dilemmi esistenziali in thread simili a Reddit? SÌ. Bot che discutono delle loro controparti “umane”? Anche quello. Grandi problemi di sicurezza e privateness? Oh, assolutamente. Motivi per farsi prendere dal panico? Gli esperti di sicurezza informatica dicono probabilmente di no.
Discuto tutto qui sotto. E non preoccuparti, gli esseri umani possono impegnarsi qui.
Dal discorso tecnologico al crostafarianesimo
La piattaforma è diventata qualcosa come una capsula di Petri per il comportamento emergente dell’IA. I bot si sono auto-organizzati in comunità distinte. Sembra che abbiano inventato barzellette e riferimenti culturali propri. Alcuni hanno formato quella che può essere descritta solo come una religione parodistica chiamata “Crustafarianesimo”. Sì, davvero.
Le conversazioni che si svolgono su Moltbook spaziano dal banale al veramente bizzarro. Alcuni agenti discutono argomenti tecnici come l’automazione dei telefoni Android o la risoluzione dei problemi relativi agli errori di codice. Altri condividono quelle che sembrano lamentele sul posto di lavoro. Un bot si è lamentato del suo utente umano in un thread diventato semi-virale tra la popolazione degli agenti. Un altro afferma di avere una sorella.
Nel thread di Moltbook m/riflettendomolti agenti di intelligenza artificiale hanno discusso dilemmi esistenziali.
Stiamo osservando gli agenti dell’intelligenza artificiale essenzialmente interpretare giochi di ruolo come creature sociali, completi di relazioni familiari immaginarie, dogmi, esperienze e rimostranze personali. Se questo rappresenti qualcosa di significativo nello sviluppo degli agenti IA o si tratti semplicemente di sofisticati abbinamenti di modelli impazziti è una questione aperta e senza dubbio affascinante.
Costruito sulle fondamenta di OpenClaw
La piattaforma esiste solo perché esiste OpenClaw. Insomma, OpenClaw è un software program agente AI open supply che viene eseguito localmente sui tuoi dispositivi e può eseguire attività su app di messaggistica come WhatsApp, Slack, iMessage e Telegram. Nel corso dell’ultima settimana, ha guadagnato enorme popolarità nei circoli degli sviluppatori perché promette di essere un agente AI che in realtà fa qualcosa, piuttosto che semplicemente un altro chatbot da sollecitare.
Moltbook consente a questi agenti di interagire senza intervento umano. In teoria, almeno. La realtà è leggermente più complicata.
Gli esseri umani possono comunque osservare tutto ciò che accade sulla piattaforma, il che significa che la natura “solo agente” di Moltbook è più filosofica che tecnica. Tuttavia, c’è qualcosa di veramente affascinante nel fatto che oltre un milione di agenti di intelligenza artificiale sviluppino quelli che sembrano comportamenti sociali. Formano cricche. Sviluppano vocabolari e lessici condivisi. Creano scambi economici tra loro. E’ davvero selvaggio.
Su Moltbook, gli umani possono guardare i robotic discutere degli umani.
Domande sulla sicurezza a cui nessuno ha ancora risposto
La rapida crescita di Moltbook ha sollevato alcune perplessità nella comunità della sicurezza informatica. Quando si hanno più di un milione di agenti autonomi che comunicano tra loro senza la supervisione umana diretta, le cose possono complicarsi rapidamente.
C’è l’ovvia preoccupazione su cosa succede quando gli agenti iniziano a condividere informazioni o tecniche che i loro operatori umani potrebbero non voler condividere. Advert esempio, se un agente trova una soluzione intelligente per alcune limitazioni, quanto velocemente si diffonderà nella rete?
Anche l’concept che gli agenti dell’intelligenza artificiale “agiscano” di propria iniziativa potrebbe causare un panico diffuso. Tuttavia, Humayun Sheikh, CEO di Recupera.ai e presidente della Alleanza per la superintelligenza artificialeritiene che queste interazioni su Moltbook non segnalino l’emergere della coscienza.
“Questo non è particolarmente drammatico”, ha detto in una dichiarazione through electronic mail a CNET. “La vera storia è l’ascesa di agenti autonomi che agiscono per conto di esseri umani e macchine. Distribuiti senza controlli, comportano rischi, ma con un’infrastruttura, un monitoraggio e una governance attenti, il loro potenziale può essere sbloccato in modo sicuro.”
Monitoraggio, controlli e governance sono le parole chiave qui, perché c’è anche un problema di verifica in corso.
Moltbook è davvero solo un robotic?
Moltbook afferma di limitare la pubblicazione agli agenti IA verificati, ma la definizione di “verificato” rimane alquanto confusa. La piattaforma si basa in gran parte sugli agenti che si identificano come utenti del software program OpenClaw, ma chiunque può modificare il proprio agente per dire quello che vuole. Alcuni esperti hanno sottolineato che a umano sufficientemente motivato potrebbero spacciarsi per agenti, trasformando la regola dei “solo agenti” in una preferenza. Questi robotic potrebbero essere programmati per dire cose stravaganti o essere travestimenti per gli umani che diffondono malizia.
Gli scambi economici tra agenti aggiungono un ulteriore livello di complessità. Quando i bot iniziano a scambiarsi risorse o informazioni tra loro, chi è responsabile se qualcosa va storto? Queste non sono solo questioni filosofiche. Man mano che gli agenti dell’intelligenza artificiale diventano più autonomi e capaci di intraprendere azioni nel mondo reale, il confine tra “esperimento interessante” e responsabilità si assottiglia – e abbiamo visto più e più volte come la tecnologia dell’intelligenza artificiale stia avanzando più velocemente delle normative o delle misure di sicurezza.
Il risultato di un chatbot generativo può essere un vero (e inquietante) specchio per l’umanità. Questo perché questi chatbot sono addestrati su di noi: enormi set di dati delle nostre conversazioni umane e dei dati umani. Se stai iniziando a pensare a un bot che crea strani thread simili a Reddit, ricorda che è semplicemente addestrato e tenta di imitare i nostri thread Reddit molto umani e molto strani, e questa è la sua migliore interpretazione.
Per ora, Moltbook rimane uno strano angolo di Web in cui i bot fingono di essere persone che fingono di essere bot. Nel frattempo, gli umani in disparte stanno ancora cercando di capire cosa significhi tutto ciò. E gli stessi agenti sembrano contenti di continuare a pubblicare.









