Wikipedia, en su nueva guía en inglés, acaba de endurecer su postura y prohíbe usar modelos de lenguaje, como ChatGPT, Gemini o Claude, para escribir, reescribir o ampliar artículos. El hallazgo de fondo no es técnico, sino editorial: la comunidad considera que ese mecanismo choca con la verificabilidad, la neutralidad y el uso riguroso de fuentes.

Además, la pieza clave de la decisión es que la norma anterior ya no alcanzaba. Antes se bloqueaba sobre todo la redacción completa desde cero. Ahora el interruptor se movió también sobre la reescritura y la expansión de contenidos existentes con IA.

Wikipedia prohíbe usar modelos de lenguaje

La discusión no fue menor. La propuesta se abrió el 15 de marzo de 2026 y se cerró el 20 de marzo, con 44 votos a favor y 2 en contra. El consenso fue tan amplio que se aprobó bajo el criterio SNOW, una fórmula interna que se usa cuando el resultado ya es muy claro.

Un modelo de lenguaje, o LLM (sistema que predice palabras), puede sonar impecable. Pero muchas veces actúa como un electricista que deja las paredes prolijas mientras mezcla cables por detrás. El texto queda elegante, aunque nadie pueda ver con facilidad de dónde salió cada afirmación.

También te puede interesar:Wikipedia Refuerza Su Lucha Contra el Contenido Generado por Inteligencia Artificial

Ahí está la clave del problema. Para Wikipedia no alcanza con que una frase parezca correcta. Tiene que poder rastrearse, verificarse y sostenerse sin sesgos. Y los editores advierten que la IA complica justo ese engranaje central.

Las dos únicas puertas que quedaron abiertas

Sin embargo, la enciclopedia no cerró todo. La nueva guía permite dos usos limitados. El primero es corregir el estilo de un texto propio, siempre que la IA no agregue información nueva. Es decir, se puede pulir la pintura, pero no mover paredes.

La IA se podrá utilizar solo para correcciones de textos propios y traducciones.

El segundo caso son las traducciones iniciales. Allí la IA puede servir como borrador, pero con una condición estricta: un editor competente en ambos idiomas debe revisar el resultado de forma exhaustiva. Además, la traducción tiene que reflejar fielmente las fuentes originales y respetar las normas de atribución.

Ese detalle importa porque traducir no es copiar palabras. Es trasladar sentido, contexto y matices. Si la IA altera una fuente o inventa un puente entre ideas, el artículo ya nace con una falla en su estructura.

También te puede interesar:Wikipedia Refuerza Su Lucha Contra el Contenido Generado por Inteligencia Artificial
También te puede interesar:Wikipedia Asegura que Pierde Usuarios por el Auge de los Resúmenes de IA en Internet

Qué cambia para los editores

En la práctica, Wikipedia no creó castigos nuevos solo por usar IA. El criterio no será si un texto “suena a ChatGPT”, sino si incumple las políticas ya existentes. Esa diferencia revela un enfoque más preciso: no se persigue una herramienta, sino el daño que puede causar.

Por eso, las medidas van desde marcar o limpiar artículos hasta pedir el borrado rápido de contenido claramente generado por IA sin revisión humana, bajo el criterio G15. También puede haber avisos escalonados y, si la conducta es reiterada o disruptiva, bloqueos a los editores.

La versión en español ya prohíbe usar IA para crear o ampliar artículos, aunque no regula con la misma precisión la traducción o la corrección de estilo. Cada edición lingüística tiene su propio mecanismo, pero el movimiento de la versión en inglés puede funcionar como una señal para el resto.

Al final, Wikipedia no le baja la persiana a la inteligencia artificial. Le pide algo más básico y más difícil: que no toque el cableado central de la confianza. Y en una época en la que todo parece escribirse más rápido, esa cautela también puede ser una oportunidad.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios