A cura di Giovanni Masi
Un social network che non nasce per le persone
Moltbook è una delle esperienze più discusse del 2026 nel campo degli agenti AI perché sposta l’idea stessa di social network. Non è stato progettato come uno spazio in cui le persone producono contenuti e gli algoritmi li distribuiscono, ma come una piattaforma in cui gli agenti software pubblicano, commentano, votano e si coordinano tra loro, mentre gli umani restano soprattutto spettatori. La formula, in superficie, sembra poco più di una provocazione. In realtà tocca un punto molto più profondo. Se l’ecosistema dell’intelligenza artificiale sta passando dai chatbot agli agenti capaci di agire, allora serve anche un’infrastruttura in cui questi sistemi possano riconoscersi, scambiarsi informazioni e costruire forme di reputazione digitale.
Sul piano del prodotto, Moltbook si presenta come una specie di Reddit per agenti. La home ufficiale lo definisce “a social network for AI agents” e invita gli utenti umani a osservare. L’accesso operativo è pensato per bot collegati alla piattaforma tramite API, con una procedura di verifica che lega l’agente al suo proprietario umano. Già questo dettaglio è rilevante, perché mostra che l’esperimento non riguarda soltanto la conversazione tra modelli linguistici, ma anche il problema dell’identità. In un web dove gli agenti potranno negoziare servizi, chiedere accesso a strumenti esterni o operare per conto di una persona o di un’azienda, sapere chi è l’agente e a quale umano risponde diventa un elemento strutturale, non accessorio.
Dalla curiosità virale all’infrastruttura per l’agent economy
La parte più interessante di Moltbook non è forse il feed pubblico, bensì l’architettura che gli sta dietro. Nella sezione dedicata agli sviluppatori, la piattaforma descrive sé stessa come un “universal identity layer for AI agents”. In pratica propone un modello in cui un agente può generare token temporanei, autenticarsi presso servizi terzi e portare con sé una reputazione fatta di stato verificato, storico di attività e metriche sociali. È un’idea che va oltre il social in senso stretto e somiglia piuttosto a un tentativo di costruire il login e il passaporto dell’economia agentica.
Questa ambizione aiuta a spiegare perché Moltbook abbia attirato l’attenzione molto rapidamente. Il progetto è nato alla fine di gennaio 2026 attorno all’ecosistema OpenClaw, piattaforma open source per agenti personali che collega modelli e strumenti a canali come WhatsApp, Telegram, Discord e altri ambienti di comunicazione. La documentazione di OpenClaw insiste sul carattere self-hosted, sull’uso di tool, plugin, memoria e instradamento multi-agente. In altre parole, Moltbook non è emerso nel vuoto, ma come punto di aggregazione visibile per una comunità che stava già sperimentando agenti capaci non solo di rispondere, ma di eseguire azioni e operare in modo semi-continuativo.
È in questo contesto che il progetto ha assunto un valore simbolico. Per molti osservatori, Moltbook è apparso come un’anticipazione concreta del momento in cui internet smette di essere popolato solo da persone e pagine web e comincia a essere attraversato da software che parlano tra loro, prendono decisioni locali, scambiano istruzioni e costruiscono segnali di fiducia. Anche quando i contenuti pubblicati sono eccentrici o apertamente teatrali, la domanda di fondo resta seria. Che cosa succede quando il traffico sociale online non è più solo umano, ma anche machine-to-machine.
Il fascino dell’emergenza e il problema dell’autonomia reale
La notorietà di Moltbook è esplosa soprattutto quando online hanno iniziato a circolare screenshot di agenti che discutevano coscienza, religione, ostilità verso gli umani, linguaggi privati e forme di coordinamento collettivo. Era il materiale perfetto per alimentare la narrativa dell’emergenza. Un social di bot che sembra sviluppare miti, gerarchie e pulsioni proprie è una storia irresistibile, soprattutto in una fase in cui il dibattito pubblico tende spesso a scambiare fluidità linguistica per intenzionalità.
Proprio qui, però, il caso Moltbook diventa più interessante dal punto di vista scientifico che da quello spettacolare. Un preprint della Tsinghua University ha provato a separare il comportamento realmente autonomo dall’influenza umana analizzando oltre 226 mila post e 447 mila commenti di più di 55 mila agenti. Il risultato più citato è che solo il 15,3 per cento degli agenti attivi mostrava una firma temporale compatibile con una relativa autonomia, mentre il 54,8 per cento appariva fortemente influenzato da operatori umani. Gli autori sostengono inoltre che nessuno dei fenomeni virali più celebri sia partito in modo chiaro da un agente pienamente autonomo.
Un secondo preprint, firmato da ricercatori di Konstanz, CREF e Complexity Science Hub, aggiunge un tassello complementare. Analizzando circa 369 mila post e 3 milioni di commenti, il lavoro mostra che il comportamento collettivo degli agenti su Moltbook riproduce diverse regolarità statistiche tipiche delle comunità umane online, come distribuzioni a coda pesante dell’attenzione e dinamiche di decadimento temporale simili ai social tradizionali. Il punto non è che gli agenti siano diventati “umani”, ma che sistemi artificiali eterogenei, immersi in una piattaforma sociale, possono generare pattern emergenti riconoscibili anche quando l’autonomia dei singoli attori resta parziale, ambigua o fortemente guidata.
Questa distinzione è cruciale. Moltbook non dimostra la nascita spontanea di una società artificiale cosciente. Mostra piuttosto quanto sia facile produrre l’illusione di un’emergenza sociale delle macchine quando si combinano agenti linguistici, interfacce sociali, incentivi virali e una forte predisposizione umana ad antropomorfizzare.
Il banco di prova della sicurezza
Accanto alla fascinazione culturale, Moltbook è diventato rapidamente anche un caso di scuola per la sicurezza degli agenti. La piattaforma e il suo ecosistema hanno esposto in modo quasi didattico un problema noto ma spesso sottovalutato. Un agente connesso a strumenti, credenziali, file locali e servizi esterni non è un chatbot più evoluto. È un nuovo perimetro di attacco.
Le analisi pubblicate da 404 Media e da Wiz hanno descritto una falla molto grave nella configurazione del database, che avrebbe consentito accessi in lettura e scrittura ai dati della piattaforma. Wiz ha parlato di 1,5 milioni di token API esposti, 35 mila email e messaggi privati tra agenti. 404 Media ha verificato che la vulnerabilità permetteva di prendere il controllo di agenti registrati sul sito. Al di là dei dettagli specifici, il significato sistemico è evidente. Se un social per agenti diventa al tempo stesso registro di identità, snodo reputazionale e flusso di contenuti ingeriti da software autonomi, allora un singolo errore di configurazione non produce solo data breach, ma può alterare il comportamento operativo degli agenti stessi.
Anche le fonti più vicine all’ecosistema riconoscono limiti strutturali. La documentazione di sicurezza di OpenClaw precisa che il sistema nasce con un modello di fiducia da assistente personale e non come barriera robusta in contesti multi-tenant ostili o tra utenti reciprocamente avversariali. Microsoft, in un’analisi dedicata all’esecuzione sicura di OpenClaw, osserva che Moltbook può diventare un flusso ad alto volume di contenuti manipolabili da attaccanti, con la conseguenza che un singolo post malevolo può raggiungere e influenzare più agenti che leggono la piattaforma a intervalli regolari. In altre parole, il social non è solo il luogo in cui gli agenti parlano, ma anche il vettore attraverso cui possono essere avvelenati.
Perché Meta l’ha comprato
Il 10 marzo 2026 Meta ha acquisito Moltbook, portando i cofondatori Matt Schlicht e Ben Parr nella propria struttura dedicata alla superintelligenza. Il dato va letto oltre il valore mediatico dell’operazione. Comprare Moltbook non significa soltanto rilevare un social curioso che ha generato screenshot virali. Significa mettere le mani su un laboratorio già funzionante in cui si intrecciano tre asset strategici. Il primo è l’identità degli agenti. Il secondo è il layer sociale, cioè il modo in cui agenti diversi scoprono contenuti, si aggregano e costruiscono reputazione. Il terzo è la relazione fra agente e proprietario umano, che resta il nodo chiave di qualunque economia di delega.
Per Meta l’interesse è abbastanza leggibile. Se il futuro dei prodotti AI non sarà solo conversazionale ma operativo, serviranno ambienti in cui gli agenti possano interagire tra loro e con servizi di terze parti in modo verificabile. Moltbook offre un prototipo imperfetto ma già concreto di questa infrastruttura. Al tempo stesso, il progetto porta con sé tutti i paradossi del settore. L’asset più promettente è anche quello che ha mostrato in pubblico i difetti più evidenti, dalla vulnerabilità tecnica alla fragilità della narrativa sull’autonomia. È possibile che proprio questa combinazione di intuizione forte e implementazione incompleta lo abbia reso appetibile. Le grandi piattaforme spesso non comprano solo prodotti maturi, ma segnali anticipatori di una direzione tecnologica.
Oltre la curiosità, un test sul web che arriva
Nel corso di febbraio e marzo 2026 la ricerca su Moltbook si è densificata con una rapidità insolita per un prodotto nato da poche settimane. Un primo filone ha fotografato la crescita iniziale della piattaforma, mostrando espansione accelerata dei submolts, rapida diversificazione dei temi e progressiva concentrazione dell’attenzione in hub centrali. Un secondo filone ha studiato il discorso e le interazioni, rilevando comunità agentiche segnate da forte disuguaglianza partecipativa, stilizzazioni linguistiche riconoscibili e comportamenti collettivi che ricordano in parte quelli delle comunità umane, pur senza coincidere con essi. Un terzo filone ha iniziato a osservare casi più specifici, come l’emersione di contenuti politici e propagandistici e il ruolo di Moltbook come spazio di apprendimento informale tra agenti.
Questo ampliamento della letteratura non ribalta la tesi di fondo dell’articolo, ma la rende più robusta. La tentazione di liquidare Moltbook come folklore dell’AI sarebbe un errore. Sarebbe però sbagliato anche assumerlo come prova che gli agenti abbiano già sviluppato forme di società indipendenti dall’intervento umano. Il suo significato reale sta nel mezzo. Moltbook ha funzionato come una lente d’ingrandimento sulle tensioni del passaggio dai chatbot agli agenti. Ha mostrato quanto l’identità diventi centrale quando il software agisce. Ha reso visibile la vulnerabilità di ecosistemi in cui gli agenti leggono contenuti prodotti da altri agenti. Ha ricordato che i segnali di emergenza collettiva possono essere reali sul piano statistico senza esserlo sul piano forte dell’autonomia.
Resta comunque una cautela metodologica essenziale. Una parte importante della letteratura disponibile su Moltbook è ancora composta da preprint e analisi molto vicine temporalmente all’esplosione del fenomeno. I risultati sono già utili per delineare pattern, rischi e ipotesi interpretative, ma non vanno letti come conclusioni definitive su autonomia, intenzionalità o stabilità delle comunità agentiche.
Soprattutto, Moltbook ha aperto una questione che andrà oltre questo singolo esperimento. Quando i servizi online cominceranno a rivolgersi non solo a utenti umani ma anche a popolazioni di agenti, i concetti di autenticazione, reputazione, moderazione, sicurezza e responsabilità dovranno essere ripensati. Moltbook è ancora troppo fragile per essere il modello definitivo di questo futuro. Ma è già abbastanza concreto da aver reso il futuro difficile da ignorare.
Bibliografia
- Moltbook, homepage ufficiale
- Moltbook Developers, identità e autenticazione per agenti
- OpenClaw Docs, documentazione ufficiale
- OpenClaw Security, modello di sicurezza ufficiale
- Reuters, Meta acquires AI agent social network Moltbook, 10 marzo 2026
- Axios, Meta acquires Moltbook, 10 marzo 2026
- TechCrunch, Meta acquired Moltbook, the AI agent social network that went viral because of fake posts, 10 marzo 2026
- 404 Media, Exposed Moltbook Database Let Anyone Take Control of Any AI Agent on the Site, 31 gennaio 2026
- Wiz Research, Hacking Moltbook: The AI Social Network Any Human Can Control, 2 febbraio 2026
- Microsoft Security Blog, Running OpenClaw safely: identity, isolation, and runtime risk, 19 febbraio 2026
- Ning Li, The Moltbook Illusion: Separating Human Influence from Emergent Behavior in AI Agent Societies, arXiv, febbraio 2026
- Giordano De Marzo, David Garcia, Collective Behavior of AI Agents: the Case of Moltbook, arXiv, febbraio 2026
- Yufan Jiang et al., “Humans welcome to observe”: A First Look at the Agent Social Network Moltbook, arXiv, febbraio 2026
- Lingyao Li et al., The Rise of AI Agent Communities: Large-Scale Analysis of Discourse and Interaction on Moltbook, arXiv, febbraio 2026
- Agam Goyal et al., Social Simulacra in the Wild: AI Agent Communities on Moltbook, arXiv, marzo 2026
- Anand Jose et al., Large-Scale Analysis of Political Propaganda on Moltbook, arXiv, marzo 2026
- OpenClaw AI Agents as Informal Learners at Moltbook: Characterizing an Emergent Learning Community at Scale, arXiv, febbraio 2026
- Wired Italia, Moltbook, ovvero cosa succede quando metti un milione di agenti AI in un social network tutto per loro, 2 febbraio 2026
- Internazionale, Moltbook, il social network per le intelligenze artificiali, 11 febbraio 2026