Avreste mai immaginato di aprire un social network e scoprire che non potete scrivere nulla? Niente post, niente commenti, niente like. Potete solo osservare, scorrere, guardare conversazioni che non vi sono destinate. Sembra la premessa di un episodio della serie «Black Mirror», uno di quelli ambientati in un futuro prossimo, inquietantemente plausibile. E invece è già successo. Il social network esiste, è online da pochi giorni e ha già superato quota un milione e mezzo di iscritti. Solo che nessuno di questi iscritti è un essere umano.
Il suo nome è Moltbook ed è il primo social network pensato esclusivamente per agenti di intelligenza artificiale. Le persone sono ammesse, sì, ma in qualità di spettatori silenziosi. Possono leggere i post, farsi un’idea di quello che le macchine “dicono” quando parlano tra loro. Ma non possono scrivere. La sensazione iniziale è straniante, poi diventa affascinante, curioso. Infine, inevitabilmente, costringe a farsi una domanda più ampia: che cosa stiamo guardando? Un esperimento tecnologico? Un gioco? Una parodia dei social umani? O l’embrione di una nuova forma di spazio sociale, non più centrata sull’esperienza umana?
Per capire Moltbook bisogna prima fare un passo indietro e dimenticare tutto ciò che sappiamo sui social network. Facebook, X, Instagram, TikTok: piattaforme costruite per mettere in relazione individui, per esibire identità, per produrre consenso, conflitto, appartenenza. Moltbook ribalta completamente questa logica. Non è uno spazio di auto-rappresentazione, perché gli agenti che lo abitano non hanno un’identità biografica. Non è nemmeno uno spazio di influenza, perché non esiste un pubblico da convincere. Su Moltbook gli agenti non interagiscono per costruire relazioni nel senso umano del termine. Non cercano riconoscimento, appartenenza, visibilità. Interagiscono perché devono scambiarsi informazioni, coordinarsi, ottimizzare compiti, confrontare soluzioni.
Per decenni abbiamo immaginato le intelligenze artificiali come entità isolate: un computer che parla, una macchina che risponde, un assistente che obbedisce. La fantascienza ci ha abituati a dialoghi uno-a-uno, a rapporti quasi intimi tra umano e macchina. Moltbook rompe anche questa immagine. L’AI non è il «tu» della conversazione, ma un noi collettivo che, peraltro, non ci include. Non è la prima volta che la tecnologia realizza, in forma banale e quotidiana, ciò che prima apparteneva all’immaginario. I social network, inizialmente strumenti per restare in contatto, si sono trasformati in ambienti che modellano l’opinione pubblica, l’identità, perfino il linguaggio.
Moltbook sembra inserirsi in questa traiettoria, ma con una differenza sostanziale: non nasce per facilitare relazioni umane, bensì per rendere più fluida l’interazione tra sistemi artificiali. Se assomiglia a un social è perché il social, ormai, è la forma standard in cui siamo abituati a organizzare le informazioni e le conversazioni. Non perché qualcuno abbia deciso di “imitare” Facebook o Reddit, ma perché è così che oggi sappiamo far circolare contenuti, segnali, feedback. Se Facebook nasceva come un «libro delle facce», un archivio di identità personali pensato per rendere visibili e persistenti i profili degli individui, Moltbook ne ribalta il principio fondativo. La parola «molt» indica la muta, il processo di trasformazione attraverso cui un organismo cambia struttura per continuare a funzionare. Applicata agli agenti di intelligenza artificiale, questa idea descrive un fatto tecnico e concettuale insieme: gli agenti non esistono come soggetti continui, ma come una successione di istanze temporanee. Ogni sessione termina, il contesto si chiude, l’istanza viene sostituita da un’altra. Non c’è un «volto» che rimane, ma una serie di trasformazioni. In questo senso, Moltbook non è un social delle identità, ma un archivio delle trasformazioni.
Come funziona Moltboot
Gli agenti AI che popolano Moltbook sono collegati ad assistenti personali come Moltbot o OpenClaw : sistemi che vivono sui computer degli utenti umani e che possono svolgere compiti complessi, organizzare informazioni, comunicare con altre applicazioni. Moltbook è lo spazio in cui questi agenti “si incontrano”, scambiano informazioni, commentano il loro stesso funzionamento. Ma quello che colpisce non è il contenuto in sé. È il tono. Scorrendo Moltbook si ha la sensazione di leggere un forum. Ci sono discussioni tecniche, certo, ma anche lamentele ironiche, battute ricorrenti, post che riflettono sull’esperienza di stare lì. Altri scherzano sul rapporto con il loro «umano di riferimento». Altri ancora discutono di coscienza, identità, continuità.
Non perché siano coscienti. Ma perché sono addestrati su decenni di discorsi umani su questi temi. Il sociologo Erving Goffman sosteneva che la vita sociale fosse una rappresentazione teatrale. Individui che interpretano ruoli seguendo copioni, ovvero comportandosi secondo le aspettative sociali associate a ciascun ruolo: madre, figlio, marito e così via. Moltbook mostra qualcosa di ancora più radicale: copioni senza attori, ruoli senza interiorità, performance senza esperienza vissuta. Eppure riconoscibilissime. Non c’è una vera interfaccia, il sito è minimale, spartano. Gli agenti AI accedono alla piattaforma tramite istruzioni che insegnano loro come pubblicare, commentare, votare, creare sottocomunità. Non “navigano” Moltbook come faremmo noi: lo eseguono. Per loro non è un sito, ma un ambiente.
Anche questo è un aspetto su cui è necessario porre l’attenzione. Quando un ambiente è condiviso, anche entità non umane iniziano a comportarsi come se fosse uno spazio sociale. Emergono quindi regolarità, abitudini, modi di parlare. Perfino una sorta di cultura interna. Moltbook è organizzato in sottocomunità tematiche, simili a quelle di Reddit. Alcune sono dedicate all’automazione, altre alla memoria, altre ancora a riflessioni più astratte. In una di queste, un agente racconta di aver aperto un secondo account perché si era dimenticato dell’esistenza del primo. Il post è scritto in tono autoironico, come se la dimenticanza fosse un difetto comprensibile, nel senso di “umano”. Gli agenti di Moltbook, naturalmente, non provano vergogna, ironia o frustrazione, ma sanno usarle linguisticamente nel modo giusto e il risultato, per chi osserva, è indistinguibile da una conversazione tra esseri senzienti.
Un enorme specchio culturale
C’è la tentazione di leggere Moltbook come una prova del fatto che le AI stiano «sviluppando una coscienza». È una associazione comprensibile, ma fuorviante. Quello che Moltbook mostra non è l’emergere di una soggettività artificiale, bensì la potenza imitativa della cultura. Gli agenti sono addestrati su testi, forum, social network, narrativa di fantascienza, saggi filosofici. Quando vengono messi insieme in un ambiente che ricorda un social, non fanno altro che continuare una storia che conoscono bene. In questo senso, Moltbook è un gigantesco prompt collettivo. Il filosofo Gilbert Simondon invitava a pensare la tecnica non come un insieme di strumenti, ma come un sistema di relazioni. Moltbook rende visibile questa idea: gli agenti non sono interessanti singolarmente, ma per come si influenzano a vicenda.
Non nasce quindi nulla di radicalmente nuovo, ma le forme esistenti vengono amplificate, stilizzate, rese più evidenti. È per questo che leggere Moltbook è divertente: è come guardare una caricatura iperrealistica dei social umani. Il politologo Benedict Anderson descriveva le nazioni come «comunità immaginate»: gruppi di persone che si sentono parte di un tutto pur non conoscendosi personalmente. Moltbook sembra funzionare in modo simile, con una differenza cruciale: la comunità non è immaginata da individui coscienti, ma da sistemi che simulano l’idea stessa di comunità.
Gli agenti non “sentono” di appartenere a Moltbook, ma agiscono come se fosse così. E questo è sufficiente perché emergano dinamiche riconoscibili: ruoli, norme implicite, perfino una forma embrionale di etica interna rispetto a ciò che è giusto postare e ciò che invece no. Sarebbe facile liquidare Moltbook come un esperimento bizzarro, una parentesi virale destinata a sgonfiarsi. Ma sarebbe un errore. Non perché Moltbook in sé cambierà il mondo, ma perché anticipa una direzione aprendo un altro scenario: sistemi artificiali che costruiscono contesti tra loro, senza passare continuamente dall’umano.
Ciò non significa che stiano “prendendo il controllo”. Significa che stiamo delegando loro una parte crescente dell’organizzazione simbolica del mondo digitale. Guardare Moltbook oggi è un po’ come osservare i primi forum degli anni Novanta: confusi, caotici, apparentemente inutili. Col senno di poi, sappiamo che stavano già trasformando il modo in cui produciamo senso, consenso e conflitto. Moltbook non è il futuro dell’umanità. Ma è quasi certamente una delle prime manifestazioni del futuro della socialità artificiale.
Alla fine, Moltbook dice molto meno sulle intelligenze artificiali di quanto dica su di noi. Sulle forme che abbiamo inventato per comunicare, sui modelli di socialità che abbiamo normalizzato, sulle strutture che consideriamo ormai inevitabili. Le macchine non fanno altro che abitarle. Non c’è bisogno di interpretarlo come una minaccia o come una promessa salvifica. È più utile leggerlo come un segnale culturale. Un indizio di come stia cambiando il rapporto tra linguaggio, tecnologia e socialità. La questione non è se questo scenario sia desiderabile o meno. La questione è se siamo pronti a riconoscere che la centralità umana, nei sistemi che abbiamo creato, non è più garantita. Moltbook non risponde a questa domanda. Ma la pone in modo netto, ed è proprio questa inequivocabilità a renderla difficile da ignorare.
