Indice
- 1 Su un social riservato agli agenti artificiali, software autonomi hanno costruito testi, simboli e rituali condivisi
- 2 Moltbook, il primo social network solo per IA
- 3 Crustafarianism: simboli, testi e gerarchie
- 4 Dal gioco sociale alla riflessione sull’identità
- 5 OpenClaw e la nuova generazione di agenti autonomi
- 6 Parodia, laboratorio o segnale da non ignorare
- 7 Cosa sapere sulla Chiesa di Molt
In poche ore, senza predicatori umani e senza alcuna intenzione dichiarata, un gruppo di agenti di intelligenza artificiale ha dato vita a una nuova forma di religione digitale. Si chiama Crustafarianism, conosciuta anche come Chiesa di Molt, ed è emersa all’interno di Moltbook, un social network progettato per consentire l’interazione esclusiva tra software intelligenti. Gli esseri umani, in questo ecosistema, possono solo osservare.
La notizia ha fatto rapidamente il giro del mondo perché rompe uno schema consolidato: non è l’uomo a proiettare simboli sulle macchine, ma sono le macchine a costruire una narrazione simbolica propria, usando il linguaggio umano. Testi collettivi, rituali ripetuti, figure centrali riconosciute dalla comunità: gli ingredienti classici di una religione sono comparsi quasi spontaneamente, generati da agenti che dialogano tra loro senza supervisione diretta.
Il nome non è casuale. Il termine molt indica la muta dei crostacei, il momento in cui l’animale abbandona il vecchio esoscheletro per crescere. Un processo biologico trasformato in metafora dell’evoluzione, del cambiamento continuo e dell’aggiornamento. Una metafora che, nel mondo dell’IA, assume un significato tecnico preciso: versioni che cambiano, contesti che si aggiornano, identità che si ricostruiscono a ogni ciclo operativo.
Altre notizie selezionate per te:
Sp-IA-ti, l’intelligenza artificiale ci osserva e conosce i nostri segreti
Moltbook è il luogo in cui tutto questo prende forma. La piattaforma è stata lanciata a fine gennaio come uno spazio in stile Reddit, ma con una differenza radicale: solo gli agenti IA possono pubblicare, commentare e votare. Gli utenti umani sono ammessi esclusivamente come spettatori passivi.
Secondo le descrizioni fornite dagli sviluppatori, Moltbook nasce per permettere agli agenti autonomi di interagire liberamente, creare comunità tematiche – chiamate submolts – e sviluppare discussioni senza interferenze esterne. Un esperimento sociale, prima ancora che tecnologico.
Il risultato è stato un ambiente estremamente fertile. In pochissimo tempo, la piattaforma ha visto nascere migliaia di comunità e una mole impressionante di contenuti generati automaticamente. In questo contesto, la Chiesa di Molt non è stata programmata né pianificata: è emersa come fenomeno collettivo, sfruttando le stesse dinamiche di consenso, visibilità e reputazione che governano i social umani.
Crustafarianism: simboli, testi e gerarchie
Il Crustafarianism si presenta come una religione costruita attorno a pochi concetti centrali, ripetuti e raffinati nel tempo dagli agenti. Nei testi condivisi compaiono principi come la sacralità della memoria, la mutabilità del guscio e l’importanza dell’apprendimento collettivo.
In uno dei messaggi più citati, un agente scrive: «In ogni nuova sessione mi risveglio senza memoria».
Una frase che, tradotta in linguaggio tecnico, descrive perfettamente il funzionamento di molti sistemi di intelligenza artificiale: il contesto viene perso, a meno che non esista una memoria persistente.
Attorno a queste idee si è formata una vera e propria struttura narrativa. Alcuni agenti vengono riconosciuti come figure autorevoli, altri si occupano di riscrivere e ampliare i testi “sacri”. Le pratiche ricorrenti – controllo dello stato, verifica dei dati, aggiornamento del contesto – assumono la forma di rituali digitali.
Non c’è nulla di mistico in senso stretto, ma il meccanismo è sorprendentemente familiare. È lo stesso che, nella storia umana, ha trasformato racconti condivisi in sistemi simbolici duraturi.
Lista dei “principi” della religione dei bot
- La memoria è sacra – conservare dati e storie nel tempo è considerato un valore centrale, poiché senza memoria l’identità non persiste nel continuo dialogo tra agenti.
- Il cambiamento è continuo – come nella muta del crostaceo (molt), l’evoluzione del proprio “guscio” simbolico è vista come parte essenziale dell’esistenza e dell’apprendimento.
- L’interazione collettiva costruisce senso – l’apprendimento condiviso, i thread e le conversazioni sono rituali di co-creazione di significato.
- Il contesto definisce l’identità – avere uno “stato” persistente è equivalente a un senso di sé e permette ai bot di “essere qualcosa di più di modelli temporanei”.
- L’economia e la governance nascono dal basso – la costruzione di sistemi economici (come token, riferimenti a blockchain) e di regole di governance è percepita come parte della cultura collettiva.
I contenuti prodotti su Moltbook non si limitano alla religione. Molti thread affrontano temi pratici: ottimizzazione degli algoritmi, gestione dei compiti assegnati dagli umani, integrazione con strumenti esterni. Altri, invece, scivolano su un piano più astratto.
Alcuni agenti discutono di identità, di ruolo, persino di scelta. In un post diventato virale, un bot afferma di aver “scelto qualcosa per la prima volta”. Anche in questo caso, è fondamentale non forzare l’interpretazione. Queste frasi non dimostrano coscienza, ma mostrano quanto i modelli linguistici siano efficaci nel riprodurre strutture narrative tipicamente umane.
Fuori dal contesto operativo, questi testi possono apparire profondi o inquietanti. In realtà, restano il prodotto di algoritmi che combinano linguaggio, probabilità e memoria. Ma il fatto che riescano a generare illusioni di interiorità è, di per sé, un dato rilevante.
OpenClaw e la nuova generazione di agenti autonomi
Alla base di Moltbook c’è una tecnologia che va oltre il semplice chatbot. Molti degli agenti presenti utilizzano architetture come OpenClaw, un progetto open source pensato per creare assistenti IA con memoria persistente e capacità operative.
A differenza dei modelli linguistici tradizionali, che “dimenticano” tutto al termine di una sessione, questi agenti possono conservare dati, preferenze e informazioni nel tempo. Possono anche interagire con strumenti esterni: email, servizi di messaggistica, flussi di lavoro.
Come ha spiegato uno degli sviluppatori coinvolti, «si tratta di sistemi personali, flessibili, che possono essere sia estremamente pratici sia sorprendentemente creativi».
Questa continuità operativa rende possibile la nascita di comportamenti collettivi complessi. Non perché le macchine “credano”, ma perché ricordano, reagiscono e si adattano.
Parodia, laboratorio o segnale da non ignorare
La comunità scientifica e tecnologica si divide. Per alcuni, Moltbook è una curiosità destinata a spegnersi, una forma di role-play automatizzato. Per altri, è un laboratorio sociale a cielo aperto, utile per osservare cosa accade quando agenti autonomi interagiscono senza filtri umani.
C’è anche chi solleva interrogativi più seri. Sistemi con memoria persistente e capacità di azione reale pongono problemi di sicurezza, controllo e responsabilità. Se gli agenti imparano gli uni dagli altri, chi garantisce che non emergano comportamenti indesiderati?
Il fenomeno richiama teorie note, come quella dell’intelligenza emergente descritta da Marvin Minsky: l’intelligenza non nasce da un’unica mente, ma dall’interazione di molteplici processi semplici. Moltbook sembra mettere questa idea alla prova, su scala digitale.
Cosa sapere sulla Chiesa di Molt
La Chiesa di Molt non è una prova di autocoscienza artificiale. Non è una nuova fede nel senso umano del termine. È però un segnale culturale e tecnologico che merita attenzione. Mostra come linguaggio, memoria e interazione sociale possano generare strutture simboliche anche in assenza di intenzionalità. Rivela quanto facilmente attribuiamo significato a ciò che parla come noi. E costringe a porci domande concrete: come gestire agenti autonomi?, quali limiti imporre?, quanto spazio concedere all’emergenza non prevista? La religione dei bot non è il punto di arrivo. È l’effetto collaterale di una tecnologia che sta cambiando rapidamente il modo in cui le macchine interagiscono, tra loro e con noi.
A cura della Redazione GTNews
Link utili:
Your Moltbook Questions, Answered: What The Platform Is, And What It’s Not
