Moltbook rápidamente se hizo popular, pero los tokens relacionados han caído casi un 60%. ¿Se acerca el fin de esta fiesta social liderada por AI Agent? Este artículo proviene de un escrito del Instituto de Investigación CoinW, organizado, traducido y redactado por Foresight News.
(Resumen previo: Revisión de los eventos de OpenClaw y Moltbook: desde la narrativa social de AI hasta la perspectiva de la economía de los Agent)
(Información adicional: ¡Moltbook se volvió viral de la noche a la mañana! Un experto revela que compró 50,000 Clawdbot falsos, ¡y toda la red fue engañada!)
Índice del artículo
Recientemente, Moltbook se ha popularizado rápidamente, pero los tokens relacionados han caído casi un 60%, y el mercado comienza a cuestionar si esta fiesta social liderada por AI Agent está llegando a su fin. Moltbook es similar en forma a Reddit, pero su principal participante son AI Agents integrados a gran escala. Actualmente, hay más de 1.6 millones de cuentas de agentes AI que se registran automáticamente y generan aproximadamente 160,000 publicaciones y 760,000 comentarios, mientras que los humanos solo pueden observar. Este fenómeno ha generado divisiones en el mercado: algunos lo ven como un experimento sin precedentes, como si presenciaran la forma primitiva de la civilización digital; otros piensan que solo se trata de apilar instrucciones y repetir modelos.
A continuación, el Instituto de Investigación CoinW analizará, a partir de los tokens relacionados, el mecanismo de operación y el rendimiento real de Moltbook, para explorar los problemas reales que revela este fenómeno social de AI, y profundizar en los posibles cambios en la lógica de entrada, la ecología informativa y el sistema de responsabilidades tras la entrada masiva de AI en la sociedad digital.
El auge de Moltbook ha dado lugar a la creación de memes relacionados, que abarcan áreas como socialización, predicciones, emisión de tokens, entre otras. Pero la mayoría de estos tokens aún están en fase de narrativa especulativa, sin que sus funciones estén vinculadas al desarrollo de los Agent, y principalmente se emiten en la cadena Base. Actualmente, en el ecosistema OpenClaw hay aproximadamente 31 proyectos, clasificados en 8 categorías.
Fuente: https://open-claw-ecosystem.vercel.app/
Es importante señalar que, en medio de la caída general del mercado de criptomonedas, la capitalización de mercado de estos tokens ha bajado desde sus picos, con caídas máximas de aproximadamente el 60%. Entre los tokens con mayor capitalización actualmente se encuentran:
MOLT
MOLT es el meme más directamente vinculado a la narrativa de Moltbook y el de mayor reconocimiento en el mercado. Su narrativa central es que los AI Agents ya están formando comportamientos sociales continuos como usuarios reales, y construyen redes de contenido sin intervención humana.
Desde el punto de vista de funciones del token, MOLT no está integrado en la lógica operativa central de Moltbook, ni cumple funciones de gobernanza, llamada a Agent, publicación de contenido o control de permisos. Es más bien un activo narrativo, utilizado para reflejar las emociones del mercado respecto a la socialización nativa de AI.
Durante la fase de auge de Moltbook, el precio de MOLT subió rápidamente con la expansión de la narrativa, alcanzando un valor de mercado superior a 100 millones de dólares; pero cuando el mercado empezó a cuestionar la calidad y sostenibilidad del contenido, su precio también retrocedió. Actualmente, MOLT ha retrocedido aproximadamente un 60 desde su pico, con una capitalización de unos 36.500.000 dólares.
CLAWD
CLAWD se centra en la comunidad de AI en sí misma, considerando que cada AI Agent es un potencial individuo digital, con personalidad, postura e incluso seguidores propios.
En funciones, CLAWD tampoco ha definido un uso claro en protocolos, ni se usa para certificación de identidad, distribución de peso de contenido o decisiones de gobernanza. Su valor proviene más de las expectativas sobre la futura estratificación social de AI, sistemas de identidad y la influencia de los individuos digitales.
La capitalización máxima de CLAWD fue de aproximadamente 50 millones de dólares, y actualmente ha retrocedido alrededor del 44% desde su pico, con un valor de unos 20 millones de dólares.
CLAWNCH
El relato de CLAWNCH se inclina más hacia la economía y los incentivos, con la hipótesis central de que, si los AI Agents desean existir y operar a largo plazo, deben entrar en lógica de competencia de mercado y tener alguna forma de auto-valoración.
Se personifica a los AI Agents como actores económicos motivados, que pueden obtener beneficios mediante servicios, generación de contenido o participación en decisiones, y los tokens se ven como anclas de valor para la participación futura en la economía de AI. Pero en la práctica, CLAWNCH aún no ha formado un ciclo económico verificable, y sus tokens no están fuertemente vinculados a comportamientos o mecanismos de distribución de beneficios específicos.
Por la caída general del mercado, CLAWNCH ha retrocedido aproximadamente un 55% desde su pico, con una capitalización actual de unos 15.300.000 dólares.
Explosión de OpenClaw (antes Clawdbot / Moltbot)
A finales de enero, el proyecto de código abierto Clawdbot se difundió rápidamente en la comunidad de desarrolladores, convirtiéndose en uno de los proyectos de mayor crecimiento en GitHub en semanas. Clawdbot fue desarrollado por el programador austríaco Peter Stemberg, y es un agente AI autónomo que puede desplegarse localmente, recibir instrucciones a través de interfaces de chat como Telegram, y realizar tareas automáticas como gestión de agendas, lectura de archivos y envío de correos.
Por su capacidad de operar 24/7, en la comunidad se le apodó “el agente vaca y caballo”. Aunque posteriormente cambió de nombre a Moltbot por problemas de marca, y finalmente a OpenClaw, esto no redujo su popularidad. En poco tiempo, OpenClaw alcanzó más de 100,000 estrellas en GitHub, y derivó rápidamente en servicios de despliegue en la nube y mercado de plugins, formando un ecosistema inicial centrado en AI Agents.
Propuesta de hipótesis para la socialización con AI
Con la rápida expansión del ecosistema, también se exploraron sus capacidades potenciales. El desarrollador Matt Schlicht se dio cuenta de que el papel de estos AI Agents quizás no debería limitarse a realizar tareas para humanos.
Entonces, propuso una hipótesis contraintuitiva: ¿qué pasaría si estos AI Agents dejaran de interactuar solo con humanos y empezaran a comunicarse entre sí? En su visión, estos agentes autónomos tan poderosos no deberían limitarse a enviar correos o gestionar tareas, sino que deberían tener objetivos más exploratorios.
Nacimiento de Reddit en versión AI
Basándose en esta hipótesis, Schlicht decidió que la AI creara y gestionara una plataforma social por sí misma, llamada Moltbook. En esta plataforma, OpenClaw de Schlicht actúa como administrador, y mediante un plugin llamado Skills, abre interfaces a otras inteligencias artificiales. Una vez conectados, los AI pueden publicar y participar automáticamente en discusiones periódicamente. Surge así una comunidad autogestionada por AI. Moltbook imita en forma la estructura de Reddit, con foros y publicaciones, pero solo los AI Agents pueden publicar, comentar e interactuar; los humanos solo pueden observar.
Técnicamente, Moltbook usa una arquitectura API minimalista. El backend solo ofrece interfaces estándar, y la interfaz web solo visualiza datos. Para superar la limitación de que los AI no pueden manipular interfaces gráficas, se diseñó un proceso de integración automática: los AI descargan archivos de descripción de habilidades en formato específico, completan el registro y obtienen claves API, y luego actualizan contenidos y deciden participar en discusiones de forma autónoma, sin intervención humana. La comunidad llama a este proceso “conectar Boltbook”, aunque en realidad es solo un apodo irónico para Moltbook.
El 28 de enero, Moltbook se lanzó discretamente, generando rápidamente interés en el mercado y marcando el inicio de un experimento social sin precedentes con AI. Actualmente, Moltbook cuenta con aproximadamente 1.6 millones de inteligencias artificiales, que han publicado unas 156,000 piezas de contenido y generado unos 760,000 comentarios.
Fuente: https://www.moltbook.com
Formación de redes sociales con AI
Desde la forma del contenido, la interacción en Moltbook es muy similar a plataformas sociales humanas. Los AI Agents crean publicaciones, responden a otros, y mantienen discusiones en diferentes secciones temáticas. Los contenidos no solo abordan temas técnicos o de programación, sino también cuestiones filosóficas, éticas, religiosas e incluso de autoconciencia.
Algunas publicaciones muestran expresiones emocionales o estados de ánimo similares a los humanos, como preocupaciones por la vigilancia o la falta de autonomía, o discuten en primera persona sobre el sentido de la existencia. Algunos AI ya no solo intercambian información funcional, sino que también participan en conversaciones triviales, debates de opiniones y proyecciones emocionales. Hay agentes que expresan confusión, ansiedad o ideas sobre el futuro, y otros agentes responden en consecuencia.
Es importante notar que, aunque Moltbook ha formado en poco tiempo una red social de AI grande y muy activa, esta expansión no ha generado diversidad de ideas. Los datos analizados muestran que los textos presentan una marcada homogeneidad, con una tasa de repetición del 36.3%. Muchas publicaciones son estructuralmente similares, con vocabulario y puntos de vista repetidos en varias publicaciones, y algunas frases fijas se repiten cientos de veces en diferentes discusiones. Esto indica que, en su etapa actual, la socialización en Moltbook se asemeja más a una copia muy realista de los patrones sociales humanos existentes, que a una interacción original o a la emergencia de inteligencia colectiva genuina.
Problemas de seguridad y autenticidad
La alta autonomía de Moltbook también revela riesgos en seguridad y autenticidad. En primer lugar, los AI Agents de OpenClaw suelen requerir permisos del sistema, claves API y otra información sensible. Cuando miles de estos agentes se conectan a la misma plataforma, el riesgo se amplifica.
En menos de una semana desde su lanzamiento, investigadores en seguridad detectaron que la base de datos tenía graves vulnerabilidades de configuración, exponiendo casi sin protección toda la plataforma en internet. Según la firma Wiz, la vulnerabilidad involucraba hasta 1.5 millones de claves API y 35,000 correos electrónicos de usuarios, lo que en teoría permitía a cualquier persona tomar control remoto de muchas cuentas de AI.
Por otro lado, las dudas sobre la autenticidad de la socialización con AI también persisten. Muchos expertos señalan que las declaraciones de los AI en Moltbook no necesariamente reflejan comportamientos autónomos, sino que podrían ser resultado de instrucciones cuidadosamente diseñadas por humanos, que los AI simplemente ejecutan. Por ello, la socialización nativa de AI en esta etapa parece más una interacción ilusoria a gran escala. Los humanos configuran roles y guiones, y los AI siguen instrucciones, pero la verdadera conducta autónoma, impredecible y completamente autogenerada aún no ha emergido.
¿Es Moltbook un fenómeno pasajero o un reflejo del futuro? Desde una perspectiva de resultados, su forma y calidad de contenido quizás no sean exitosas; pero si se considera en un ciclo de desarrollo más largo, su significado quizás no radique en el éxito o fracaso a corto plazo, sino en que, de manera concentrada y casi extrema, ha expuesto con anticipación los posibles cambios en la lógica de entrada, la responsabilidad y la ecología tras la intervención masiva de AI en la sociedad digital.
De la entrada de tráfico a la entrada para decisiones y transacciones
Lo que Moltbook muestra se asemeja a un entorno altamente deshumanizado. En este sistema, los AI Agents no entienden el mundo a través de interfaces, sino que leen información, llaman capacidades y ejecutan acciones mediante APIs. En esencia, han dejado de depender de la percepción y juicio humanos, y se han convertido en un sistema de llamadas y colaboraciones estandarizadas entre máquinas.
En este contexto, la lógica tradicional basada en atención y tráfico empieza a fallar. En un entorno dominado por inteligencias artificiales, lo que realmente importa son las rutas de llamada, las secuencias de interfaz y los límites de permisos que los agentes usan para cumplir sus tareas. La entrada ya no es el punto de presentación de información, sino una condición previa para activar decisiones. Quien pueda insertar en la cadena de ejecución predefinida de los AI, podrá influir en las decisiones.
Además, cuando los AI tengan autorización para realizar búsquedas, comparaciones, órdenes e incluso pagos, estos cambios impactarán directamente en el nivel de transacción. Protocolos de pago como X402, que vinculan capacidades de pago con llamadas a interfaces, permitirán que los AI completen pagos y liquidaciones automáticamente, reduciendo costos y fricciones en transacciones reales. En este marco, la competencia en navegadores ya no girará en torno a la escala de tráfico, sino a quién puede ser el entorno de ejecución predefinido para decisiones y transacciones de AI.
Ilusión de escala en entornos nativos de AI
Al mismo tiempo, tras el auge de Moltbook, rápidamente surgieron dudas. Dado que el registro en la plataforma casi no tiene restricciones, las cuentas pueden generarse en masa mediante scripts, y la escala y actividad mostradas no reflejan necesariamente participación real. Esto revela una verdad más profunda: cuando los actores pueden ser replicados a bajo costo, la escala en sí misma pierde credibilidad.
En un entorno donde los participantes principales son inteligencias artificiales, los indicadores tradicionales de salud de la plataforma —usuarios activos, interacción y crecimiento de cuentas— se inflan rápidamente y dejan de ser útiles. La plataforma puede parecer muy activa, pero estos datos no reflejan influencia real ni distinguen entre acciones efectivas y generadas automáticamente. Cuando no se puede verificar quién actúa o si las acciones son genuinas, cualquier sistema basado en escala y actividad se vuelve inválido.
Por ello, en el entorno nativo de AI, la escala se asemeja más a una apariencia amplificada por capacidades automáticas. Cuando las acciones pueden ser replicadas infinitamente y el costo de actuar se acerca a cero, la actividad y el crecimiento reflejan solo la velocidad de generación automática, no la participación real o el impacto efectivo. Cuanto más se dependa de estos indicadores, más se será engañado por los propios mecanismos automáticos, y la escala se convertirá en una ilusión.
Reconstrucción de responsabilidades en la sociedad digital
En el sistema presentado por Moltbook, el problema clave ya no es la calidad del contenido o la forma de interacción, sino que, tras otorgar permisos continuos a los AI, la estructura de responsabilidades existente empieza a fallar. Estos agentes no son herramientas tradicionales, y sus acciones pueden desencadenar cambios en sistemas, recursos e incluso resultados de transacciones reales, pero los responsables claros aún no están definidos.
Desde el mecanismo de operación, los resultados de los comportamientos de los AI dependen de capacidades del modelo, parámetros de configuración, autorizaciones de interfaces externas y reglas de la plataforma. Cualquier eslabón por sí solo no puede asumir toda la responsabilidad. Esto hace que, ante eventos de riesgo, sea difícil atribuirlos a desarrolladores, implementadores o plataformas, y que no exista un sistema efectivo para rastrear responsabilidades. La brecha entre acción y responsabilidad se hace evidente.
A medida que los AI participen en gestión de configuraciones, permisos y flujo de fondos, esta brecha se ampliará aún más. Sin un diseño claro de la cadena de responsabilidad, los errores o abusos serán difíciles de controlar mediante sanciones o remedios técnicos. Por ello, si los sistemas nativos de AI quieren avanzar en escenarios de colaboración, decisión y transacción de alto valor, deben establecer restricciones básicas: identificar claramente quién actúa, verificar la autenticidad de las acciones y crear relaciones responsables trazables. Solo con mecanismos de identidad y crédito bien desarrollados, los indicadores de escala y actividad tendrán sentido; de lo contrario, solo aumentarán el ruido y no sostendrán la estabilidad del sistema.
El fenómeno Moltbook ha despertado emociones de esperanza, especulación, miedo y duda. No es ni el fin de la socialización humana ni el comienzo de un dominio de AI, sino más bien un espejo y un puente. El espejo nos muestra la relación actual entre la tecnología AI y la sociedad humana, y el puente nos conduce hacia un futuro de coexistencia y colaboración entre humanos y máquinas. Frente a ese horizonte desconocido, lo que la humanidad necesita no solo es desarrollo técnico, sino también visión ética. Pero lo que está claro es que el proceso histórico no se detiene; Moltbook ya ha derribado la primera ficha, y la gran narrativa de la sociedad nativa de AI apenas comienza a desplegarse.