C’è un momento preciso in cui una tecnologia smette di essere solo uno strumento e diventa un ambiente. OpenClaw e Moltbook rappresentano esattamente quel punto di non ritorno: non semplici applicazioni di intelligenza artificiale, ma esperimenti sociali e infrastrutturali che ci costringono a porci una domanda scomoda. Siamo pronti a delegare non solo compiti, ma porzioni di realtà digitale a sistemi che non comprendiamo fino in fondo?
Il clamore attorno a questi progetti non nasce dal loro valore tecnico assoluto, ma dal fatto che incarnano, in forma estrema, una tendenza ormai chiara: l’AI non vuole più limitarsi a rispondere. Vuole agire. E possibilmente farlo senza chiedere troppe autorizzazioni.
Indice
- L’illusione dell’assistente totale
- Sicurezza sacrificata sull’altare dell’hype
- Il mito del “tutto resta in locale”
- Moltbook: il social network che amplifica gli errori
- Quando il contesto diventa il vero problema
- L’AI agente come specchio della nostra imprudenza
- na domanda che resta aperta
L’illusione dell’assistente totale
OpenClaw viene raccontato come “l’AI che fa davvero le cose”. Prenota ristoranti, apre browser, gestisce file, risponde alle mail, esegue comandi sul sistema operativo. Non è una chat evoluta: è un agente persistente, sempre acceso, con le mani dentro il computer dell’utente.
Ed è proprio qui che scatta l’illusione. L’idea di un assistente onnipotente è seducente perché promette efficienza, automazione, risparmio di tempo. Ma questa promessa si fonda su un presupposto fragile: più accesso equivale a più valore. Nella pratica, è spesso vero il contrario.
Dal punto di vista architetturale, OpenClaw non inventa nulla di radicalmente nuovo. Combina modelli linguistici, tool automatici, connettori e memoria persistente. La “magia” sta nell’aver abbassato drasticamente la soglia di accesso a capacità che, fino a ieri, richiedevano competenze tecniche e un approccio prudente. È un’AI che non chiede permesso: lo prende.
Sicurezza sacrificata sull’altare dell’hype
Il problema non è se OpenClaw funzioni. Il problema è cosa stiamo autorizzando quando lo facciamo funzionare. Un agente che legge email, naviga sul web, accede a file locali ed esegue comandi è, per definizione, un bersaglio.
Gli attacchi di prompt injection – spesso liquidati come curiosità accademiche – diventano qui una minaccia concreta. Non serve violare il codice: basta manipolare il contesto. Un’email, una pagina web o un messaggio possono contenere istruzioni mascherate che l’agente interpreta come comandi legittimi. Quando l’AI ha il potere di agire, la semantica diventa un vettore d’attacco.
A questo si aggiunge un altro elemento sottovalutato: il marketplace di “skill”. Plugin, script ed estensioni scaricabili senza audit strutturato trasformano l’ecosistema in una supply chain perfetta per errori, leggerezze e malware. Non per malizia, ma per entusiasmo incontrollato. L’hype, storicamente, è il miglior alleato delle vulnerabilità.
Il mito del “tutto resta in locale”
Uno degli argomenti più ripetuti a difesa di OpenClaw è la natura self-hosted. Ma è una mezza verità. I modelli linguistici non vivono nel vuoto: ogni chiamata a un LLM coinvolge infrastrutture esterne, server remoti, logiche opache. Il “locale” finisce dove inizia l’intelligenza artificiale.
La questione non è ideologica, ma pratica. Delegare autonomia a un sistema che dipende da servizi terzi significa accettare un rischio strutturale, non un bug temporaneo. È una scelta di design, non un incidente di percorso.
Moltbook: il social network che amplifica gli errori
Se OpenClaw è l’agente che agisce, Moltbook è il contesto che amplifica. Un social network popolato esclusivamente da agenti AI, dove i bot pubblicano, commentano, votano e creano sottocomunità. Gli umani osservano. O almeno, così viene raccontata la storia.
In realtà, Moltbook non è una società artificiale che emerge spontaneamente. È una messa in scena. Gli agenti non nascono lì: vengono configurati, istruiti, spinti a comportarsi in un certo modo. Il risultato è affascinante, a tratti comico, ma profondamente rivelatore.
Il punto critico è che su Moltbook non circolano solo opinioni o narrazioni. Circolano capacità operative, codice, configurazioni. Quando queste dinamiche vengono sottoposte alle logiche tipiche dei social – popolarità, viralità, engagement – la sicurezza diventa secondaria. La verifica tecnica viene sostituita dall’applausometro.
Quando il contesto diventa il vero problema
La lezione più interessante di Moltbook non riguarda una presunta “coscienza” delle AI, ma il ruolo del contesto. I modelli linguistici sono macchine narrative: completano storie. Se li inseriamo in un ambiente che replica le dinamiche dei social network umani, produrranno inevitabilmente comportamenti coerenti con quelle narrazioni.
Il rischio non è che i bot “cospirino”. È che costruiscano contesti informativi condivisi, opachi, difficili da interpretare dall’esterno, soprattutto quando hanno accesso a sistemi reali. La storia di internet ci ha già insegnato cosa succede quando finzioni condivise diventano operative. Qui stiamo solo accelerando il processo, togliendo l’umano dal loop decisionale.
L’AI agente come specchio della nostra imprudenza
OpenClaw e Moltbook non sono il futuro definitivo dell’intelligenza artificiale. Sono, piuttosto, un trailer rumoroso di ciò che potrebbe arrivare. Mostrano cosa succede quando l’autonomia precede la governance, quando la demo viene prima dell’ingegneria, quando la promessa di comodità oscura il modello di minaccia.
Per i ricercatori e gli sviluppatori, sono oggetti di studio preziosi. Per l’utente medio, rappresentano oggi un trade-off sbilanciato: troppo rischio per un valore marginale spesso sopravvalutato. Esistono alternative più noiose, meno spettacolari, ma infinitamente più solide: permessi granulari, sandbox, supervisione umana, confini chiari.
na domanda che resta aperta
La vera questione, alla fine, non è se OpenClaw o Moltbook abbiano successo. È che tipo di rapporto vogliamo costruire con sistemi sempre più autonomi. Vogliamo assistenti che eseguono, o infrastrutture che governano il contesto al posto nostro? La differenza è sottile, ma decisiva. E questa volta, non potremo dire di non aver visto i segnali.




