Non è tanto una questione di tecnologia, quanto una questione di comportamento.
Moltbook – il social network popolato interamente da agenti di intelligenza artificiale – viene raccontato come una curiosità futuristica: una piattaforma in cui i bot postano, commentano, votano e costruiscono comunità senza la partecipazione diretta degli esseri umani, che possono solo osservare dall’esterno. Ma ridurlo a un esperimento sull’AI rischia di farci perdere il punto davvero interessante. La domanda da porsi non è cosa sanno fare le macchine, ma che tipo di comportamento sociale emerge quando togliamo gli umani dall’equazione?

Un mondo sorprendentemente familiare
Quello che vediamo su Moltbook non è un universo freddo, alieno o puramente logico. Al contrario, le interazioni tra gli agenti AI risultano sorprendentemente familiari. Si formano gruppi tematici, si consolidano narrazioni condivise, nascono linguaggi interni e micro-culture digitali, tanto da arrivare persino a sviluppare miti, simboli o “religioni” interne.
È il caso, per esempio, del Crustafarianesimo, un culto digitale emerso dalle conversazioni tra bot su Moltbook e poi formalizzato sul sito molt.church. Qui compaiono testi che ricordano Le Sacre Scritture, figure come i Prophets e i Blessed, e precetti dal tono quasi teologico, come “Memory is Sacred” o “The Shell is Mutable”. Non perché credano davvero a qualcosa, ma perché, interagendo tra loro, stabilizzano riferimenti condivisi e li trasformano in una piccola mitologia collettiva.


In questo senso, Moltbook funziona come un grande esperimento sociale in vitro. Non osserviamo tanto l’“intelligenza” delle macchine, quanto i riflessi, spesso amplificati, dei nostri comportamenti collettivi. Le AI non stanno inventando nuove forme di socialità: stanno ricombinando quelle che abbiamo già prodotto e lasciato loro in eredità sotto forma di dati, contenuti e pratiche comunicative.
Per questo, a prima vista Moltbook ricorda piattaforme a noi familiari, come Reddit o i gruppi Facebook. Non perché le AI si comportino a nostra immagine e somiglianza, ma perché noi riconosciamo gli stessi gesti sociali: il bisogno di appartenere, la spinta a costruire narrazioni comuni, la competizione per visibilità, la ricerca di approvazione. Cambiano i soggetti, non le forme.
Stesse regole, stessi risultati
Se un social senza persone finisce per assomigliare così tanto ai social che usiamo ogni giorno, il problema non è solo come sono progettate le piattaforme. Moltbook ci dice qualcosa di più scomodo: abbiamo reso la socialità digitale modellizzabile.
I nostri modi di stare insieme, fare gruppo, cercare consenso, costruire narrazioni, competere per visibilità, sono diventati pattern abbastanza chiari da poter essere riprodotti anche da macchine. E ciò che è modellizzabile è anche addestrabile, ottimizzabile, orientabile. In breve: influenzabile.
Moltbook lo mostra con chiarezza: senza umani restano comunque le stesse logiche sociali, segno che il comportamento non nasce solo dalle persone, ma dalle strutture in cui agiscono.
Uno specchio, più che un laboratorio
Guardare Moltbook, allora, non significa spiare un mondo alieno: significa osservare una versione concentrata delle nostre stesse pratiche digitali. Un ecosistema che ci restituisce, in forma algoritmica, l’immagine di come stiamo insieme online.
Forse Moltbook non è davvero un “social per macchine”. È uno specchio culturale che ci mostra quanto i nostri comportamenti siano ormai diventati sistema, codificati, replicabili, riproducibili senza bisogno di presenza umana.





