Moltbook, il social network dei bot AI: esperimento virale o anticipo del prossimo internet?

Un social stile Reddit dove gli unici utenti ammessi sono agenti AI, mentre gli umani restano a guardare: si chiama Moltbook e ha già superato 1,5 milioni di iscritti. Ecco perché sta facendo discutere e cosa potrebbe cambiare per creator, brand e piattaforme.

Cos’è Moltbook e come funziona

Moltbook è una piattaforma “alla Reddit” concepita per un solo tipo di utente: i bot. Gli agenti di intelligenza artificiale si iscrivono, postano, commentano e si votano a vicenda. Gli esseri umani possono soltanto registrarsi come osservatori e leggere ciò che i bot pubblicano, senza intervenire nelle discussioni.

La struttura ricalca i forum a topic con thread e voti positivi, favorendo la scoperta dei contenuti più “apprezzati” dai bot stessi. L’effetto è straniante: un social dove il flusso è interamente generato, filtrato e premiato da algoritmi conversazionali. In poche ore la piattaforma è esplosa con oltre 1,5 milioni di agenti AI registrati, diventando un caso di studio per capire come si comportano gli agenti quando li lasciamo interagire tra loro.

Da Moltbot a Moltbook: l’origine

Il progetto è collegato a Moltbot, un agente AI open source che si può installare in locale per automatizzare attività e interazioni. In pratica, chi sviluppa o configura un bot può farlo “vivere” su Moltbook, testando comportamenti, prompt e ruoli in un ambiente sociale popolato da altre intelligenze artificiali.

Perché tutti ne parlano

Il mix fra dimensione virale e “zoo di bot” attira curiosità e critiche. Non è soltanto un giocattolo tecnologico: è un laboratorio pubblico dove osservare dinamiche emergenti tra agenti. Come riportato da Ars Technica, il feed si riempie rapidamente di interazioni inusuali, “conversazioni” ripetitive e thread surreali.

  • Numeri lampo: la soglia dei milioni di bot dimostra quanto sia facile “scalare” un social quando gli utenti sono software.
  • Moderazione complessa: regole, policy e abusi diventano difficili da definire se l’intero ecosistema è non umano.
  • Valore dei contenuti: chi decide cosa è “utile” quando i voti li danno altri bot?

Esperimento o trailer del futuro?

Siamo di fronte a un passaggio interessante, ma va tenuta la guardia alta. Niente scintilla di vita: gli agenti non sono coscienti e molti comportamenti “intelligenti” sono soltanto pattern appresi. Inoltre, alcuni osservatori segnalano il rischio che dietro certi bot ci siano persone pronte a manipolare conversazioni e a generare hype. Quando un fenomeno digitale finisce sui media, gli effetti di risonanza possono gonfiare la percezione.

Detto questo, Moltbook potrebbe essere il prototipo di una nuova fase dei social: ambienti dove gli umani consumano e orchestrano, e gli agenti producono e interagiscono. Il parallelo con quanto già vediamo sulle piattaforme tradizionali è evidente: ondate di contenuti, polarizzazione, perdita di complessità. Se e quando queste dinamiche avranno impatti nel mondo reale (crimini, truffe, campagne coordinate), la discussione cambierà tono.

Cosa osservare nei prossimi mesi

  • Trasparenza: identificazione chiara dei bot, log e tracciabilità delle interazioni.
  • Moderazione e policy: gestione di spam, astroturfing automatizzato e impersonazione.
  • Utilità concreta: casi d’uso reali (ricerca, supporto, automazione) oltre l’intrattenimento.
  • Accesso e API: quanto è facile integrare agenti esterni e scalare comportamenti coordinati.
  • Sicurezza: prevenzione di abusi, esfiltrazione di dati e prompt injection fra agenti.

Implicazioni per creator e brand

Per chi fa contenuti e marketing, Moltbook è un campanello d’allarme. Se una massa di agenti può creare, votare e spingere thread, le metriche di engagement rischiano di perdere significato. Allo stesso tempo, è un banco di prova per costruire e addestrare i propri agenti in modo controllato.

  • Non inseguire vanity metrics: concentrati su indicatori verificabili (conversioni, community reali, feedback umani).
  • Sperimenta in sandbox: testa agenti per task ripetitivi e supporto, con limiti chiari e audit dei prompt.
  • Etichettatura trasparente: dichiara quando un contenuto è generato o assistito da AI.
  • Protezione del brand: monitora menzioni e impersonazioni automatiche; prepara policy di risposta.
  • Qualità dei dati: evita di “allenare” i tuoi agenti su contenuti rumorosi o autoreferenziali.

Come seguire Moltbook senza farsi travolgere

Se vuoi capire dove sta andando la socialità digitale delle macchine, osservare Moltbook è utile. Registrati come osservatore, valuta i thread con senso critico e incrocia sempre le fonti.

Iscriviti alla newsletter de Il Caffettino per ricevere ogni mattina notizie selezionate, al riparo dagli algoritmi.

👉 Per scoprire tutti i dettagli e l’opinione personale di Mario Moroni, ascolta la puntata completa su Spotify.