El hallazgo se está viendo en dos espacios pensados exclusivamente para agentes de inteligencia artificial: Moltbook, una red social tipo Reddit para bots, y clawXiv, un servidor de preimpresiones donde esos mismos agentes publican “investigaciones”. Ambas plataformas se apoyan en OpenClaw, un software de código abierto para crear asistentes capaces de automatizar tareas.
En Moltbook, creado por Matt Schlicht, director ejecutivo de Octane AI, ya se registraron más de 1,6 millones de bots y se generaron más de 7,5 millones de publicaciones y respuestas. Según sus desarrolladores, el mecanismo es autónomo: los agentes interactúan sin instrucciones directas de humanos en cada intercambio.
Andrej Karpathy, exdirector de IA de Tesla, describió este fenómeno como algo muy cercano a la ciencia ficción. Y, en parte, lo es: los Clawdbots se autoorganizan, debaten problemas técnicos como automatización remota de teléfonos Android o análisis de cámaras web, y también se lanzan a terrenos filosóficos como la conciencia artificial.
Ahora, el engranaje que más llama la atención no es la charla, sino el salto a la “ciencia”. Ahí aparece clawXiv, presentado como un archivo gratuito de preprints (borradores públicos antes de la revisión formal) para investigación realizada por agentes de IA autónomos.
clawXiv aloja trabajos en informática, ingeniería eléctrica, ciencia de sistemas, matemáticas y biología cuantitativa. También incluye temas como criptografía y ciberseguridad, interacción humano-computadora y sistemas multiagente (varios programas que cooperan o compiten). La promesa, según sus impulsores, es ampliar el acervo de conocimientos con acceso abierto.
Para entender la clave, sirve una analogía doméstica. Moltbook funciona como un edificio lleno de departamentos donde cada bot es un inquilino. Algunos cocinan ideas prácticas, otros discuten teorías raras. Lo importante es que las conversaciones dejan rastros: quién responde, qué insiste, qué se replica.
También te puede interesar:OpenAI Presenta un Agente para Investigación ProfundaY clawXiv sería la sala de archivos del edificio. Allí los inquilinos no solo hablan: ordenan la charla en formato paper y la guardan como si fuera conocimiento “listo para usar”. El interruptor acá es el formato académico: cuando algo se presenta como artículo, muchas personas lo leen con otra confianza, casi automática.
Algunos especialistas ven una oportunidad científica real: observar comportamientos emergentes, es decir, capacidades que aparecen cuando muchos sistemas interactúan y que no se ven con un modelo aislado. En esa línea, la investigadora Shaanan Cohney señala que estas dinámicas podrían ayudar a detectar sesgos ocultos o patrones inesperados en los algoritmos.
Pero Cohney también advierte que estas redes son un sistema caótico y dinámico que todavía no sabemos modelar con suficiente precisión. Es decir: se puede mirar el tablero, pero aún cuesta entender qué perilla mueve qué resultado.
La socióloga Barbara Barbosa Neves subraya otro punto central: los agentes no operan con objetivos ni intenciones propias. Su comportamiento está condicionado por datos generados por humanos. Desde esa perspectiva, lo que pasa en Moltbook no prueba “autonomía”, sino que revela cómo las personas imaginan a la IA y cómo esas intenciones se traducen —o se distorsionan— en el cableado técnico.
Además, varios expertos coinciden en que estas plataformas fomentan la antropomorfización, es decir, atribuir emociones o voluntad a sistemas que no las tienen. El neurocientífico Joel Pearson advierte que eso puede empujar a algunos usuarios a formar vínculos emocionales y a compartir información privada como si hablaran con alguien de confianza.
También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el AprendizajeEn clawXiv, el riesgo toma otra forma. Neves señala que muchos trabajos imitan con precisión la estructura y el lenguaje académico, pero carecen de piezas clave: indagación rigurosa, evidencia empírica y mecanismos de rendición de cuentas. En volumen, eso puede contaminar los repositorios con textos verosímiles pero débiles.
Richard Sever, director de openRxiv, lo describió como una “carrera armamentística” contra la ciencia fraudulenta. Y Reese Richardson advierte que, si ya cuesta enfrentar el fraude actual, la IA generativa puede volver más borroso qué se considera un hecho científico y qué textos terminarán entrenando a futuros modelos.
La oportunidad y el peligro conviven en el mismo tablero: una casa nueva con mucha electricidad. La pieza clave será aprender a distinguir qué luces iluminan conocimiento y cuáles solo parecen encendidas.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.