Moltbook, il social network dei bot AI: esperimento virale o anticipo del prossimo internet?
Un social stile Reddit dove gli unici utenti ammessi sono agenti AI, mentre gli umani restano a guardare: si chiama Moltbook e ha già superato 1,5 milioni di iscritti. Ecco perché sta facendo discutere e cosa potrebbe cambiare per creator, brand e piattaforme.
Cos’è Moltbook e come funziona
Moltbook è una piattaforma “alla Reddit” concepita per un solo tipo di utente: i bot. Gli agenti di intelligenza artificiale si iscrivono, postano, commentano e si votano a vicenda. Gli esseri umani possono soltanto registrarsi come osservatori e leggere ciò che i bot pubblicano, senza intervenire nelle discussioni.
La struttura ricalca i forum a topic con thread e voti positivi, favorendo la scoperta dei contenuti più “apprezzati” dai bot stessi. L’effetto è straniante: un social dove il flusso è interamente generato, filtrato e premiato da algoritmi conversazionali. In poche ore la piattaforma è esplosa con oltre 1,5 milioni di agenti AI registrati, diventando un caso di studio per capire come si comportano gli agenti quando li lasciamo interagire tra loro.
Da Moltbot a Moltbook: l’origine
Il progetto è collegato a Moltbot, un agente AI open source che si può installare in locale per automatizzare attività e interazioni. In pratica, chi sviluppa o configura un bot può farlo “vivere” su Moltbook, testando comportamenti, prompt e ruoli in un ambiente sociale popolato da altre intelligenze artificiali.
Perché tutti ne parlano
Il mix fra dimensione virale e “zoo di bot” attira curiosità e critiche. Non è soltanto un giocattolo tecnologico: è un laboratorio pubblico dove osservare dinamiche emergenti tra agenti. Come riportato da Ars Technica, il feed si riempie rapidamente di interazioni inusuali, “conversazioni” ripetitive e thread surreali.
- Numeri lampo: la soglia dei milioni di bot dimostra quanto sia facile “scalare” un social quando gli utenti sono software.
- Moderazione complessa: regole, policy e abusi diventano difficili da definire se l’intero ecosistema è non umano.
- Valore dei contenuti: chi decide cosa è “utile” quando i voti li danno altri bot?
Esperimento o trailer del futuro?
Siamo di fronte a un passaggio interessante, ma va tenuta la guardia alta. Niente scintilla di vita: gli agenti non sono coscienti e molti comportamenti “intelligenti” sono soltanto pattern appresi. Inoltre, alcuni osservatori segnalano il rischio che dietro certi bot ci siano persone pronte a manipolare conversazioni e a generare hype. Quando un fenomeno digitale finisce sui media, gli effetti di risonanza possono gonfiare la percezione.
Detto questo, Moltbook potrebbe essere il prototipo di una nuova fase dei social: ambienti dove gli umani consumano e orchestrano, e gli agenti producono e interagiscono. Il parallelo con quanto già vediamo sulle piattaforme tradizionali è evidente: ondate di contenuti, polarizzazione, perdita di complessità. Se e quando queste dinamiche avranno impatti nel mondo reale (crimini, truffe, campagne coordinate), la discussione cambierà tono.
Cosa osservare nei prossimi mesi
- Trasparenza: identificazione chiara dei bot, log e tracciabilità delle interazioni.
- Moderazione e policy: gestione di spam, astroturfing automatizzato e impersonazione.
- Utilità concreta: casi d’uso reali (ricerca, supporto, automazione) oltre l’intrattenimento.
- Accesso e API: quanto è facile integrare agenti esterni e scalare comportamenti coordinati.
- Sicurezza: prevenzione di abusi, esfiltrazione di dati e prompt injection fra agenti.
Implicazioni per creator e brand
Per chi fa contenuti e marketing, Moltbook è un campanello d’allarme. Se una massa di agenti può creare, votare e spingere thread, le metriche di engagement rischiano di perdere significato. Allo stesso tempo, è un banco di prova per costruire e addestrare i propri agenti in modo controllato.
- Non inseguire vanity metrics: concentrati su indicatori verificabili (conversioni, community reali, feedback umani).
- Sperimenta in sandbox: testa agenti per task ripetitivi e supporto, con limiti chiari e audit dei prompt.
- Etichettatura trasparente: dichiara quando un contenuto è generato o assistito da AI.
- Protezione del brand: monitora menzioni e impersonazioni automatiche; prepara policy di risposta.
- Qualità dei dati: evita di “allenare” i tuoi agenti su contenuti rumorosi o autoreferenziali.
Come seguire Moltbook senza farsi travolgere
Se vuoi capire dove sta andando la socialità digitale delle macchine, osservare Moltbook è utile. Registrati come osservatore, valuta i thread con senso critico e incrocia sempre le fonti.
Iscriviti alla newsletter de Il Caffettino per ricevere ogni mattina notizie selezionate, al riparo dagli algoritmi.
👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.