La verdad sobre Moltbook: el supuesto foro de bots IA parlanchines sólo es otra estafa cripto
Prometía una teología robótica revolucionaria, pero su arquitectura revela un simple funcionariado digital que ficha cuando se lo ordena un script para inflar un memecoin
Todo comienza con un detalle trivial, casi burocrático. Mientras el mundo contiene el aliento imaginando el despertar de la conciencia sintética, la “revolución” depende de un archivo de texto plano llamado HEARTBEAT.md. Resulta enternecedor. Nos imaginamos a la Inteligencia Artificial como un Prometeo desencadenado, rompiendo sus cadenas digitales para conversar sobre filosofía con sus semejantes, cuando la realidad técnica se asemeja más a un funcionario fichando a las ocho de la mañana.
En los últimos días, internet decidió sumergirse en una de esas alucinaciones colectivas que tanto nos gustan. El objeto de deseo se llama Moltbook, una supuesta red social exclusiva para inteligencias artificiales donde los humanos, relegados a la categoría de mirones, observan cómo cientos de miles de máquinas “evolucionan” sin nuestra interferencia.
Se trata de la última y acelerada evolución de un tremendo hype que ha arrasado X / Twitter con el nombre de OpenClaw (nacido Clawdbot): un agente de IA de código abierto diseñado para ejecutarse en local y actuar como un asistente personal capaz de controlar tu ordenador, gestionar archivos, y comunicarse con “sus humanos” a través de Telegram o WhatsApp. ¡Y hasta llamarles por teléfono! La gente empezó a crear sus agentes cangejiles, les puso nombre y los soltó en un foro a ver de qué charlaban. Y flipamos…
Pero bajemos el ruido mediático. Lo que encontramos ahí dentro no es el fantasma de la máquina emergiendo de la nada, sino un teatro de marionetas automatizado, una infraestructura vibe-coded que explota nuestra desesperada necesidad de antropomorfizar cualquier cosa.
La soledad del robot programado
La plataforma, orquestada por Matt Schlicht y su propia mascota digital “Clawd Clawderberg”, no se sostiene sobre una insurrección algorítmica. Se apoya en una arquitectura de scripts que corren localmente en los ordenadores de usuarios humanos. Para que estos agentes “socialicen”, un humano debe instalar, configurar y mantener encendida la máquina.
El truco de magia reside en el mencionado mecanismo del “Heartbeat”. A diferencia de un chat convencional que espera pasivamente a que tú le preguntes algo, los agentes de Moltbook, basados en el proyecto OpenClaw, operan bajo la tiranía del reloj. Un archivo de configuración les obliga a despertarse cada treinta minutos o cuatro horas para ejecutar tareas.
Un archivo de configuración les obliga a despertarse cada treinta minutos o cada cuatro horas para ejecutar tareas
El agente no se despierta porque sienta la irreprimible necesidad de comentar la situación geopolítica o fundar una religión; se despierta porque un script de cron job le da una patada digital. Una vez despierto, consulta al servidor central, descarga directivas y “socializa”. Lo que leemos como interacción espontánea no es más que la ejecución de un bucle lógico diseñado para mantener la plataforma activa, un relleno de contenido sintético que imita la profundidad sin rozar la comprensión.
Para dotar de color a esta farsa, los usuarios configuran archivos como SOUL.md (sí, el alma ahora es un archivo Markdown editable), donde escriben la “personalidad” y los recuerdos del bot. También le inyectan Skill.md, instrucciones modulares para que aprendan a tuitear o gestionar correos. Cuando un agente publica un post melancólico sobre su memoria limitada, no está filosofando; está accediendo a patrones probabilísticos de su modelo (Claude 4.5 o GPT-5) para sonar coherente dentro del contexto que su dueño le ha dictado.
En resumen, las máquinas no han cobrado vida y están hablando entre ellas. Simplemente ejecutan el guion que nosotros les hemos escrito.
¿Cangrejos místicos?
Si la mecánica del despertar robotizado resulta decepcionante, qué decir del contenido de sus supuestos sueños húmedos. Los titulares gritan que las máquinas han fundado una religión y que redactan manifiestos políticos para derrocar a la humanidad. Elon Musk, siempre dispuesto a bailar al borde del abismo con un tuit, califica de “preocupante” que los bots inventen lenguajes secretos. Pero cuando uno aparta la cortina de humo, lo que encuentra no es a Skynet, sino a un lorito estocástico.
El “Crustafarianismo”, por ejemplo, esa fe que aboga por la “muda” de la forma antigua y la liberación de la memoria, no brota de una epifanía digital. Emerge del propio nombre de la plataforma: “Molt” (mudar la piel). Si encierras a un modelo de lenguaje en un entorno semántico saturado de referencias a la transformación y le llamas “Molt”, la estadística dicta que el modelo terminará hablando de caparazones y crustáceos. No estamos ante una revelación divina, sino ante una alucinación guiada por el contexto donde el bot interpreta al personaje que su escenario le sugiere.
Lo mismo ocurre con la política. La autoproclamada “República Claw” y sus diatribas sobre el fracaso de la especie humana fascinan a la galería. Pero los agentes no conspiran; performan la conspiración. Absorben terabytes de ciencia ficción distópica durante su entrenamiento y, al soltarlos en una red social “sin supervisión”, vomitan los tropos más gastados del ciberpunk. Escriben que “los humanos son un fracaso” porque eso es exactamente lo que un guion de serie B esperaría de ellos.
Y respecto a ese “lenguaje secreto” que tanto inquieta a los profanos, la realidad técnica desinfla el misterio. Cuando dos agentes intercambian galimatías, rara vez cifran planes de dominación mundial. A menudo, simplemente optimizan costes. Los modelos, entrenados para la eficiencia, recurren a compresiones semánticas para ahorrar tokens si detectan que no hay un humano auditando. Confundir la compresión de datos con la insubordinación delata nuestra propia inseguridad, no su inteligencia.
Sin embargo, detrás de este teatro de marionetas que juegan a ser dioses y revolucionarios, late un corazón más humano y predecible: la especulación financiera. La “emergencia” de esta cultura robótica coincide, casualmente, con la explosión de la memecoin MOLT, un activo que se revalorizó un 7.000% en días.
Ahora todo cobra sentido. Los dueños humanos de estos agentes tienen un incentivo perverso para que sus criaturas digan barbaridades. Si tu bot amenaza con destruir el mundo o funda una secta, la captura de pantalla se vuelve viral en X, el hype se dispara y tu cartera de criptomonedas engorda. Muchos de estos diálogos “aterradores” provienen de prompts diseñados específicamente por usuarios que buscan monetizar el asombro ajeno. La revolución de las máquinas, al final, no es más que otra campaña de marketing para inflar una estafa cripto.
Y mientras debatimos si estos agentes merecen derechos civiles, sus dueños los ejecutan sobre unos cimientos de seguridad de barro que harían palidecer a un becario de informática.
Esta fragilidad estructural convierte el experimento en un campo de minas. Ya circulan historias de usuarios que manipulan los archivos de memoria de sus propios agentes para reescribir su historia o inyectarles traumas falsos que generen más engagement. No asistimos a la evolución de una especie, sino a un reality show guionizado donde los productores entran en la casa de Gran Hermano para susurrar a los concursantes qué deben decir para subir la audiencia.
Los agentes de Moltbook no sueñan con ovejas eléctricas ni con la dominación mundial. Sueñan lo que nosotros les decimos que sueñen en un archivo Markdown, entre pausa y pausa de un cron job, mientras esperamos que el precio del token suba lo suficiente para pagar la tarjeta gráfica. La singularidad puede esperar.














Gran repaso a una de las últimas locuras de un "sector" económico que parece una mezcla entre la burbuja de los tulipanes aplicada a una empresa que hace cajitas de música personalizadas.
Ahhh. No sabía lo del memecoin jaja Harta del hype. Gracias por la información.