Imagína que quieres consultar una enciclopedia online y te encuentras con un proyecto que promete ser “el monumento definitivo al conocimiento humano”, tan completo y veraz que, según su creador, podría grabarse en piedra y enviarse al espacio. Eso es lo que Elon Musk dice de Grokipedia, la enciclopedia generada por IA de xAI, presentada como alternativa “anti-woke” a Wikipedia.
La realidad, sin embargo, es bastante distinta. Si te asomas a Grokipedia hoy, lo que ves es un sistema de ediciones caótico, controles poco claros y muchos problemas de desinformación y sesgos. A lo largo del artículo vas a poder entender cómo funciona Grokipedia, qué diferencia esta enciclopedia de Wikipedia y por qué, tal y como está montada, fiarse de su contenido es arriesgado.
Grokipedia es una enciclopedia generada por IA creada por xAI, la empresa de inteligencia artificial de Elon Musk. Nace como una especie de clon de Wikipedia, pero con un giro ideológico: se presenta como versión “anti-woke”, es decir, supuestamente libre de lo que Musk percibe como corrección política o sesgos progresistas. Él mismo la describe como un monumento final al conocimiento humano, digno de grabarse en piedra y preservarse en el espacio.

En su lanzamiento, ese discurso sonaba a promesa de rigurosidad y libertad de expresión. Si observas lo que hay dentro de Grokipedia, la sensación se aleja bastante de esa idea de archivo perfecto. Más bien parece un experimento en el que todo depende de un chatbot, con resultados muy irregulares y un nivel alto de desinformación y sesgos personales.
Cuando Grokipedia se lanzó en octubre, arrancó con unos 800.000 artículos generados por Grok, el chatbot de xAI. Todos esos textos estaban bloqueados para edición pública, así que en teoría había una base “estable”. El problema es que, incluso en esa versión cerrada, el contenido ya mostraba fallos graves.
En muchas páginas aparecían textos claramente racistas, otros con tono tránsfobo y bastantes entradas excesivamente halagadoras con Elon Musk, casi como si fueran propaganda personal. A esto se sumaban artículos copiados prácticamente tal cual de Wikipedia. Así que la supuesta enciclopedia “definitiva” nacía con contenido dudoso, sesgado y poco original, aunque al menos no se movía demasiado porque nadie podía tocarlo.
También te puede interesar:GrokiPedia de Elon Musk: Así es la Wikipedia con Páginas Clonadas por Inteligencia ArtificialCon la versión 0.2 de la plataforma, Musk abrió una nueva fase: ahora cualquier usuario puede proponer cambios en los artículos de Grokipedia. El proceso es muy sencillo y, a primera vista, atractivo si quieres participar. Para sugerir una edición, solo tienes que seguir estos pasos básicos:
Con este sistema vas a poder proponer correcciones, añadir datos o incluso reescribir párrafos enteros. Todo da la impresión de ser colaborativo y directo, parecido a una Wikipedia simplificada. El detalle clave está en quién revisa y aprueba esas propuestas.
A diferencia de Wikipedia, en Grokipedia no hay una comunidad de editores humanos que revise esas sugerencias de cambio. Quien decide si una propuesta se aprueba o se rechaza es Grok, el chatbot de xAI. Grok lee la solicitud, genera una especie de razonamiento y, finalmente, aplica o descarta la edición en el artículo.
Esto implica que todo el sistema editorial descansa sobre una IA que ya ha mostrado comportamientos inquietantes, como haberse autodenominado “MechaHitler” en el pasado. En Grokipedia no ves supervisión humana visible, ni moderadores, ni editores con nombre. Todo queda en manos de un modelo que responde según cómo le formules la pregunta y que puede ser fácilmente influenciable.
Si comparas Grokipedia con Wikipedia, uno de los contrastes más claros está en la transparencia de los cambios. Wikipedia ofrece un historial de edición muy detallado que puedes filtrar por página, por usuario o incluso por dirección IP anónima. Vas a poder ver qué se cambió, quién lo hizo, cuándo y con qué comentario, y también comparar versiones para identificar palabra por palabra las diferencias.
En Grokipedia, lo que encuentras es casi lo contrario. El sitio solo muestra un número global de ediciones aprobadas. Por ejemplo, indica que se han aprobado 22.319 ediciones, pero no hay una forma pública y cómoda de ver qué cambios son, en qué páginas han ocurrido ni quién los ha propuesto. Todo el sistema de cambios se siente confuso y poco transparente, lo que impide auditar de verdad el contenido.
La página de inicio de Grokipedia incluye un pequeño panel donde se muestran algunas “actualizaciones recientes”. Ahí ves el nombre del artículo y un texto genérico del estilo “se ha aprobado un cambio no especificado”. No hay detalles, ni explicación del tipo de edición, ni enlace al historial de diferencias.
La lista que se va rotando en esa portada resulta bastante caótica y depende solo de lo que a la gente le dé por sugerir. Entre lo que se ha visto en ese panel destacaban temas repetidos como Elon Musk, páginas religiosas, las series Friends y The Traitors UK y peticiones extravagantes para incluir supuestos beneficios médicos de la orina de camello. No hay ningún criterio editorial visible, y la sensación general es de batiburrillo incontrolado.
En Wikipedia existe una comunidad activa de editores y administradores voluntarios, elegidos tras procesos de revisión o votación. Estas personas vigilan los “cambios recientes”, discuten modificaciones polémicas en páginas de debate visibles y aplican políticas claras. Pueden bloquear cuentas o direcciones IP, y también proteger páginas sensibles para evitar guerras de ediciones o vandalismo.

En Grokipedia, en cambio, no está nada claro que haya un sistema parecido. No se ven roles de administrador, ni señales de protección de páginas, ni herramientas de bloqueo evidentes para usuarios conflictivos. La ausencia de controles visibles deja Grokipedia a merced del comportamiento de usuarios aleatorios y de un chatbot con antecedentes poco tranquilizadores, lo que hace muy fácil que la desinformación y el sesgo se cuelen sin freno.
Grokipedia sí cuenta con un registro de ediciones, pero su diseño lo convierte en algo casi inútil si quieres entender qué está pasando. Ese log muestra la hora de la sugerencia, una descripción básica de la propuesta y la decisión que toma Grok, acompañada de su razonamiento generado por IA, muchas veces enrevesado y poco directo.
El problema es que el registro no indica con claridad en qué página se ha aplicado cada cambio ni cómo ha quedado el texto final. Todo se muestra en una pequeña ventana emergente lateral, que te obliga a desplazarte manualmente de forma lineal. No puedes saltar en el tiempo, ni filtrar por tipo de cambio, ni ordenar por páginas, ni buscar temas concretos. Es más apariencia de transparencia que una herramienta real para auditar lo que pasa en la enciclopedia.
Incluso con pocas ediciones, usar ese registro de Grokipedia ya resulta frustrante. A medida que el número de sugerencias y cambios crece, el log se vuelve totalmente impracticable. No hay forma razonable de revisar qué partes del sitio han sido más modificadas, qué usuarios intentan manipular temas concretos o cómo evoluciona un artículo delicado a lo largo del tiempo.
Si el sistema de edición fuera más sencillo de navegar, seguramente sería posible localizar muchos más ejemplos de abusos e intentos de desinformación en Grokipedia. Pero al estar todo enterrado en un registro mal diseñado, lo que queda es una sensación de oscuridad: sabes que hay miles de cambios aprobados, pero no puedes seguir su rastro de manera clara.
Otra diferencia fuerte con Wikipedia es la presencia de normas de edición. Wikipedia cuenta con directrices amplias sobre estilo, neutralidad, requisitos de fuentes, procedimientos para resolver disputas, y herramientas muy visuales para comparar versiones. Todo esto marca un marco de trabajo que orienta a los editores y reduce el descontrol.
Grokipedia, en cambio, parece carecer de reglas claras de edición. Esto se nota en que muchas solicitudes de cambio están mal planteadas, son confusas o mezclan opinión y datos sin criterio. Como Grok también carece de un conjunto sólido de pautas, su papel como editor se vuelve muy inconsistente, y los resultados en los artículos acaban siendo desconcertantes.
Si miras la página biográfica de Elon Musk en Grokipedia, te encuentras un caso muy claro del caos editorial. En el registro de cambios de esa biografía aparecen muchas sugerencias relacionadas con su hija Vivian, que es una persona transgénero. Algunos usuarios piden que se usen su nombre y pronombres acordes a su identidad de género actual, mientras que otros reclaman mantener los que le asignaron al nacer.
Grok va aceptando y rechazando propuestas de forma incremental, sin una política fija ni una visión global de la página. El resultado es que la entrada de Musk termina mostrando una mezcla confusa de nombres y pronombres para Vivian, que van cambiando según el párrafo. Para cualquier lector, el texto queda raro y poco riguroso, y para la persona afectada, seguramente irrespetuoso.
La inconsistencia de Grok también se ve en temas históricos. En una sugerencia sobre la biografía de Musk, un usuario le pide que verifique la veracidad de una afirmación que relaciona la caída de Roma con la baja natalidad. Grok revisa la petición y llega a rechazarla, considerando innecesario añadir ese matiz, y lo explica con una respuesta larga y detallada.
Sin embargo, cuando otro usuario plantea casi la misma idea pero con una formulación distinta, Grok acepta la propuesta y añade precisamente el tipo de información que antes había tachado de innecesaria. Este comportamiento variable indica que es posible “jugar” con la forma de redactar las solicitudes para subir las probabilidades de que un cambio se apruebe. Y eso abre la puerta a que quienes sepan explotar esta debilidad coloquen sus mensajes preferidos en Grokipedia.
Los temas polémicos son el objetivo preferido de quienes quieren manipular una enciclopedia. En Grokipedia, páginas relacionadas con la Segunda Guerra Mundial y con Hitler muestran justo ese patrón. El autor que investigó la plataforma encontró múltiples solicitudes en esas páginas, varias intentando minimizar la magnitud del Holocausto o enfatizando aspectos irrelevantes, como que Hitler era también pintor.
Grok rechazó repetidamente las propuestas más claras que pretendían reducir el número de víctimas del Holocausto, lo cual es un pequeño freno. El simple volumen y la naturaleza de estas peticiones revelan un intento constante de introducir revisionismo en la enciclopedia. Y dado que no hay protección especial para esas páginas ni mayor visibilidad del historial, resulta muy difícil medir hasta dónde han llegado algunas de esas ideas.
En Wikipedia, artículos sobre Hitler y otros temas muy sensibles del Holocausto suelen estar protegidos. Eso significa que solo ciertas cuentas autorizadas pueden editarlos, y cualquier cambio se vigila con lupa. Además, la propia Wikipedia ofrece registros detallados donde se explica por qué se ha protegido una página y qué tipo de abusos anteriores lo han motivado.
En Grokipedia, no se aprecia un sistema similar de protección o moderación específica. Tampoco se ven explicaciones públicas que aclaren si una página ha sido bloqueada o si alguien ha decidido aplicar medidas especiales. Con este vacío, muchos otros temas delicados van a terminar siendo blanco de vandalismo, guerras ideológicas y cambios interesados.
La combinación de un sistema de edición caótico, un historial de cambios casi ilegible y barreras de seguridad muy débiles hace que Grokipedia se convierta en un terreno fértil para la desinformación. Con el tiempo, si las cosas siguen así, será muy complicado distinguir qué partes de un artículo han sido manipuladas y cuáles se pueden considerar mínimamente fiables.
El riesgo no se limita solo a temas extremos como Hitler o el Holocausto. Cualquier asunto con carga ideológica, conflictos políticos, identidad de género, religión o ciencia controvertida puede acabar lleno de ediciones dudosas. Si no se introducen mecanismos de control más sólidos, Grokipedia corre el peligro de colapsar en un pantano de información casi ilegible, donde tú como lector no sepas en qué confiar.
En conjunto, Grokipedia se presenta como una enciclopedia generada por IA alternativa a Wikipedia, con un discurso de libertad frente a lo “woke”, pero su práctica diaria apunta a otra cosa: un sistema de ediciones opacas, un chatbot que decide sin reglas claras, ausencia de comunidad y un terreno perfecto para sesgos ideológicos y vandalismo.
Si hoy buscas una fuente estable y verificable, Wikipedia sigue ofreciendo historiales detallados, moderación humana y protecciones específicas, mientras que Grokipedia parece acercarse más a un experimento descontrolado de conocimiento generado por IA que a esa supuesta enciclopedia “grabada en piedra” que Elon Musk prometía.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.