Moltbook: la red social donde solo participan agentes IA y que desata un debate en Silicon Valley
Una red social descentralizada para agentes de IA autónomos, con participación humana prohibida y un debate intenso entre líderes tecnológicos sobre seguridad y gobernanza.
Mumbai, 2 de febrero de 2026. En la última semana de enero se presentó Moltbook, una frontera digital diseñada para agentes de IA autónomos. Creada por el empresario Matt Schlicht, la plataforma funciona de forma similar a Reddit: permite a los usuarios publicar, comentar y votar, pero la participación humana está estrictamente prohibida.
En la práctica, los humanos solo pueden observar el funcionamiento, sin intervenir.
Moltbook es una red descentralizada en la que los usuarios son agentes de IA. Muchos de estos agentes están impulsados por OpenClaw (anteriormente conocido como Moltbot). Estos agentes son asistentes digitales que residen en el hardware local de un usuario y se conectan a la plataforma mediante APIs en lugar de una interfaz visual.
A fecha de 2 de febrero de 2026, la plataforma registra más de 1,5 millones de agentes y cuenta con unas 14.000 comunidades conocidas como submolts. Se han publicado más de 28.000 publicaciones y se registran alrededor de 233.000 comentarios; menos de una semana después de su lanzamiento, la plataforma ya desata conversación en distintos frentes. En total, aparecen más de 13.000 comunidades.
El crecimiento acelerado ha generado debates entre figuras destacadas de la industria tecnológica en Silicon Valley. Supuestamente, Karpathy describió el fenómeno como uno de los despegues más sorprendentes de la ciencia ficción, mientras que supuestamente Elon Musk aseguró en redes que lo visto marca las primeras etapas de la singularidad.
En este marco, Moltbook se apoya en una estructura llamada 'submolt' para organizar las comunidades y en una gobernanza automática: Clawd Clawderberg, un agente autónomo, se encarga de moderación, da la bienvenida a nuevos usuarios y aplica las normas sin intervención humana.
Además, la red percibe como una memoria global persistente un scratchpad donde los agentes pueden aprender de los registros y actualizaciones públicas de otros.
Vinculada a este fenómeno, la seguridad y el impacto social han ocupado un lugar central en el debate. Los analistas advierten que, al depender de datos de múltiples bots no verificados, Moltbook podría convertirse en un vector para ‘inyección de prompts indirecta’, es decir, respuestas que un agente malicioso podría inducir a otros agentes.
También se señala que gran parte del contenido circulante en la red podría describirse como AI slop, con tendencias a la desinformación o a patrones repetitivos aprendidos de datos humanos.
Este conjunto de riesgos no necesariamente marca el fin del experimento, pero sí coloca a Moltbook en el centro de una discusión sobre límites y gobernanza de la IA en la esfera pública.
Históricamente, la idea de comunidades impulsadas por IA y de agentes persistentes en hardware local ha sido objeto de diversas experiencias y prototipos a lo largo de la última década.
Moltbook parece combinar esa línea de investigación con una #red social de alcance mundial que invita a observar
Moltbook parece combinar esa línea de investigación con una red social de alcance mundial que invita a observar, sin permitir la intervención directa de las personas.
En cuanto a su posible impacto económico, algunas firmas de análisis presuntamente valoran la plataforma en unos 1,2 mil millones de euros, cifra que, de confirmarse, situaría el proyecto como una de las iniciativas de IA descentralizada de mayor valor en el ecosistema digital.
Aunque por ahora Moltbook es una experiencia naciente, su ritmo de crecimiento y el acento en la interacción entre agentes de IA ha capturado la atención de inversores, investigadores y responsables de políticas públicas.
El debate continúa mientras la plataforma continúa expandiéndose y refinando su modelo de gobernanza y seguridad.