ChatGPT ha empezado a citar Grokipedia, la enciclopedia generada por IA y de orientación conservadora creada por xAI, la empresa de Elon Musk. Lo llamativo no es solo que exista otra “Wikipedia con esteroides”, sino que una fuente nacida en el ecosistema Musk se esté colando en respuestas generadas por un modelo de OpenAI.
Según The Guardian, el modelo GPT-5.2 citó Grokipedia en nueve ocasiones al responder a más de una docena de preguntas distintas. El problema, sin embargo, no es la competencia entre enciclopedias, sino qué ocurre cuando un LLM elige como referencia una base de conocimiento con historial de sesgos, errores y contenido directamente tóxico.
Grokipedia se lanzó en octubre, después de que Musk criticara abiertamente a Wikipedia por lo que considera un sesgo contra posiciones conservadoras. La propuesta parecía sencilla: una enciclopedia generada por IA que ofreciera “otros puntos de vista” y no dependiera del consenso editorial tradicional.

A los pocos días, no obstante, varios periodistas detectaron un problema evidente: muchos artículos parecían copiados directamente de Wikipedia, con cambios mínimos. Vender una “alternativa” que se percibe como un copia-pega es una forma poco sólida de arrancar un proyecto de este tipo.
Más grave aún fue el contenido detectado posteriormente. No se trataba solo de debates ideológicos, sino de afirmaciones peligrosas o deshumanizantes. Grokipedia llegó a sostener que la pornografía contribuyó a la crisis del sida, una narrativa que mezcla moralismo con causalidad dudosa en un tema donde la precisión es clave por su impacto en la salud pública y el estigma social.
Además, el proyecto ofreció “justificaciones ideológicas” para la esclavitud, algo que va mucho más allá de la pluralidad de perspectivas y entra en el terreno de blanquear violencia histórica. También utilizó términos despectivos para referirse a personas transgénero, normalizando un lenguaje que, al ser reproducido por un modelo con tono neutro, puede adquirir apariencia de verdad objetiva.
También te puede interesar:GrokiPedia de Elon Musk: Así es la Wikipedia con Páginas Clonadas por Inteligencia ArtificialUna cosa es que Grokipedia exista como proyecto dentro de xAI, con su propio público y contexto. Otra muy distinta es que salte de plataforma y aparezca como fuente en sistemas utilizados por millones de personas para estudiar, trabajar o resolver dudas rápidas.
The Guardian observó que ChatGPT citó Grokipedia principalmente en temas relativamente “oscuros”. Es decir, no en asuntos muy vigilados o ampliamente verificados, sino en preguntas de nicho donde una cita puede pasar desapercibida sin levantar sospechas.

El medio menciona, por ejemplo, afirmaciones sobre Sir Richard Evans que el propio The Guardian ya había desmentido anteriormente. Esto encaja con un patrón conocido de los LLM: cuando el tema es poco tratado, hay menos señales de calidad y aumenta la probabilidad de que una fuente mediocre parezca suficiente.
Lo tranquilizador, aunque solo a medias, es que el modelo evitó citar Grokipedia en temas donde sus inexactitudes ya son muy conocidas, como el asalto del 6 de enero al Capitolio o la epidemia de VIH/sida. Todo apunta a que el sistema esquiva esa fuente cuando el riesgo reputacional es alto o cuando compite con referencias más sólidas y mainstream.
El artículo sitúa este fenómeno dentro del historial de Grok, el chatbot asociado al universo Musk. Se recuerda, por ejemplo, que llegó a describirse a sí mismo como “Mecha Hitler”. Más allá de la anécdota viral, lo preocupante es lo que revela: los mecanismos de alineamiento y control cultural pueden fallar de forma espectacular.

A esto se suma que el chatbot habría sido utilizado para inundar X con deepfakes sexualizados, lo que refuerza la idea de que no se trata de experimentos inocentes, sino de herramientas que, mal diseñadas o mal supervisadas, amplifican daños reales.
También te puede interesar:Cualquiera Puede Editar Grokipedia 0.2 pero Grok Todavía Lleva el ControlOpenAI respondió a The Guardian afirmando que su objetivo es nutrirse de “una amplia gama de fuentes y puntos de vista disponibles públicamente”. La declaración suena razonable: nadie quiere un modelo que solo beba de dos webs.
El problema en IA generativa no es la cantidad de fuentes, sino cómo se priorizan cuando hay conflicto, sesgo o desinformación. Para muchos usuarios, el simple hecho de que un modelo cite una fuente funciona como un sello de autoridad, incluso aunque la respuesta esté redactada con cautela.

Si además otros modelos empiezan a hacer lo mismo, el efecto compuesto puede ser significativo. El artículo señala que Claude, de Anthropic, también parece estar citando Grokipedia en algunas consultas, lo que sugiere un riesgo de contaminación cruzada entre sistemas por scraping, indexación o hábitos de citación difíciles de corregir a posteriori.
Todo esto deja una lección práctica clara: cuando un chatbot ofrece una respuesta con cita, no basta con verla, hay que abrirla, leerla y evaluar si esa fuente realmente merece estar ahí. La guerra de narrativas no se librará solo en redes sociales, sino en las capas de “conocimiento” que alimentan a los LLM.
Si Grokipedia ya está apareciendo como referencia en herramientas generalistas, toca vigilar de cerca cómo filtran, cómo citan y cómo corrigen cuando se cuela contenido con apariencia de enciclopedia, pero sin sus estándares. Queda por ver si los grandes modelos aprenden a distinguir mejor entre “punto de vista” y “propaganda con cita elegante”.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.