Wikipedia, en su nueva guía en inglés, acaba de endurecer su postura y prohíbe usar modelos de lenguaje, como ChatGPT, Gemini o Claude, para escribir, reescribir o ampliar artículos. El hallazgo de fondo no es técnico, sino editorial: la comunidad considera que ese mecanismo choca con la verificabilidad, la neutralidad y el uso riguroso de fuentes.
Además, la pieza clave de la decisión es que la norma anterior ya no alcanzaba. Antes se bloqueaba sobre todo la redacción completa desde cero. Ahora el interruptor se movió también sobre la reescritura y la expansión de contenidos existentes con IA.

La discusión no fue menor. La propuesta se abrió el 15 de marzo de 2026 y se cerró el 20 de marzo, con 44 votos a favor y 2 en contra. El consenso fue tan amplio que se aprobó bajo el criterio SNOW, una fórmula interna que se usa cuando el resultado ya es muy claro.
Un modelo de lenguaje, o LLM (sistema que predice palabras), puede sonar impecable. Pero muchas veces actúa como un electricista que deja las paredes prolijas mientras mezcla cables por detrás. El texto queda elegante, aunque nadie pueda ver con facilidad de dónde salió cada afirmación.
También te puede interesar:Wikipedia Refuerza Su Lucha Contra el Contenido Generado por Inteligencia ArtificialAhí está la clave del problema. Para Wikipedia no alcanza con que una frase parezca correcta. Tiene que poder rastrearse, verificarse y sostenerse sin sesgos. Y los editores advierten que la IA complica justo ese engranaje central.
Las dos únicas puertas que quedaron abiertas
Sin embargo, la enciclopedia no cerró todo. La nueva guía permite dos usos limitados. El primero es corregir el estilo de un texto propio, siempre que la IA no agregue información nueva. Es decir, se puede pulir la pintura, pero no mover paredes.

El segundo caso son las traducciones iniciales. Allí la IA puede servir como borrador, pero con una condición estricta: un editor competente en ambos idiomas debe revisar el resultado de forma exhaustiva. Además, la traducción tiene que reflejar fielmente las fuentes originales y respetar las normas de atribución.
Ese detalle importa porque traducir no es copiar palabras. Es trasladar sentido, contexto y matices. Si la IA altera una fuente o inventa un puente entre ideas, el artículo ya nace con una falla en su estructura.
También te puede interesar:Wikipedia Refuerza Su Lucha Contra el Contenido Generado por Inteligencia ArtificialQué cambia para los editores
En la práctica, Wikipedia no creó castigos nuevos solo por usar IA. El criterio no será si un texto “suena a ChatGPT”, sino si incumple las políticas ya existentes. Esa diferencia revela un enfoque más preciso: no se persigue una herramienta, sino el daño que puede causar.

Por eso, las medidas van desde marcar o limpiar artículos hasta pedir el borrado rápido de contenido claramente generado por IA sin revisión humana, bajo el criterio G15. También puede haber avisos escalonados y, si la conducta es reiterada o disruptiva, bloqueos a los editores.
La versión en español ya prohíbe usar IA para crear o ampliar artículos, aunque no regula con la misma precisión la traducción o la corrección de estilo. Cada edición lingüística tiene su propio mecanismo, pero el movimiento de la versión en inglés puede funcionar como una señal para el resto.
Al final, Wikipedia no le baja la persiana a la inteligencia artificial. Le pide algo más básico y más difícil: que no toque el cableado central de la confianza. Y en una época en la que todo parece escribirse más rápido, esa cautela también puede ser una oportunidad.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.










