¿Alguna vez confiaste en una traducción “instantánea” y recién al final notaste que algo no cerraba? En Internet, ese pequeño tropiezo suele quedar en tu pantalla. Pero cuando ocurre dentro de Wikipedia, el error puede convertirse en un engranaje suelto que desordena información para millones.
Eso es lo que empezó a verse en una serie de artículos traducidos con ayuda de inteligencia artificial generativa, esos sistemas que producen texto en segundos. La comunidad de Wikipedia detectó frases que no existían en las fuentes citadas y referencias que no encajaban con lo que el artículo afirmaba.

Según 404 Media, las traducciones problemáticas estaban vinculadas a un proyecto impulsado por Open Knowledge Association (OKA), una organización sin ánimo de lucro que buscaba ampliar contenidos en varios idiomas usando modelos de lenguaje grandes (programas que predicen palabras). El hallazgo encendió una alarma: la velocidad, sin control, puede colar errores difíciles de ver.
El episodio se volvió concreto con un borrador sobre la familia real francesa La Bourdonnaye. Allí se citaba un libro y hasta una página específica para justificar el origen familiar. El editor Ilyas Lebleu (Chaotic Enby en Wikipedia) revisó la fuente y encontró la pieza clave: la página citada no correspondía con lo dicho.
Y no fue un caso aislado. En una revisión rápida, Lebleu reportó referencias intercambiadas, frases sin fuente y párrafos apoyados en material no relacionado con el tema. El mecanismo del error no era “una mala coma”. Era un cableado de citas que parecía prolijo, pero no conectaba donde decía conectar.
¿Cómo se cuela un error cuando todo “parece” bien citado?

Es como un electricista que te deja la casa con llaves nuevas, pero te mezcla los cables del tablero: las luces encienden, sí, pero en el ambiente equivocado. En Wikipedia, esa mezcla se ve cuando una cita real termina justificando una afirmación distinta. Porque un modelo de lenguaje (texto por predicción) puede sonar seguro aunque no lo sea.
Además, la IA generativa puede “inventar” continuidad. No necesariamente crea un libro falso, pero sí puede torcer el sentido: toma una fuente verdadera, la “acomoda” en un párrafo y la deja como soporte de algo que no está allí. En un proyecto de traducción masiva, ese interruptor de velocidad puede pasar por encima del control fino.
Reglas nuevas y un control más duro

Con más ejemplos sobre la mesa, la comunidad de Wikipedia decidió intervenir y regular el proyecto de traducciones. La medida central apunta a los participantes vinculados a OKA: si acumulan cuatro advertencias por contenido no verificable en seis meses, pueden ser bloqueados sin nuevo aviso si reinciden.
Además, el contenido añadido por un traductor que termine bloqueado puede eliminarse de forma preventiva. Esa limpieza se puede evitar si otro editor con buena reputación se hace responsable de revisar lo publicado y lo avala.
Quedó una pregunta abierta: ¿cuántos textos con problemas llegaron a publicarse y cuántos se frenaron en borradores? Al menos uno de los casos se detectó antes de hacerse visible, lo que permitió corregirlo. Con la información disponible, no se puede determinar el alcance total.
OKA dio su versión. Su fundador y presidente, Jonathan Zimmermann, explicó que los traductores cobran por hora y que no existe un objetivo fijo de artículos por semana. Zimmermann admitió que “los errores ocurren”, pero defendió que su sistema incluye verificación humana y revisión de fuentes.
Tras la polémica, OKA está introduciendo una segunda revisión con otro modelo de IA para identificar posibles fallos antes de publicar. También evalúa sumar revisión por pares entre personas si hace falta.
La oportunidad, para el lector común, es clara: la IA puede ser una herramienta útil, pero en una enciclopedia la confianza no se traduce, se construye. Y a veces, la diferencia entre un dato sólido y uno brillante pero falso es un simple cable bien conectado.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.








