¿Alguna vez buscaste un dato histórico “rápido” y terminaste con una explicación tan prolija que parecía escrita para calmar discusiones? Es cómodo. Pero también abre una pregunta incómoda: si ese relato suena neutral, ¿puede estar moviendo, milímetro a milímetro, tu manera de pensar?

Un hallazgo publicado en PNAS Nexus pone el foco justo ahí. El estudio comparó resúmenes sobre historia de Estados Unidos escritos por Wikipedia con resúmenes generados por GPT-4o, el modelo de lenguaje (programa que produce texto) de OpenAI. Y encontró un mecanismo de influencia sutil, incluso cuando todo lo dicho era correcto.

El trabajo fue preregistrado, es decir, con el plan de análisis escrito antes de ver los resultados, y reunió a 1.912 participantes en Estados Unidos. Se centró en dos episodios del siglo XX: la huelga general de Seattle y las protestas estudiantiles del Third World Liberation Front. La clave no fue la “verdad” de los datos, sino el encuadre, la manera de ordenar y subrayar los hechos.

Los autores —Matthew Shu, Daniel Karell, Keitaro Okura y Thomas R. Davidson— distinguieron dos engranajes de sesgo. Por un lado, el sesgo latente (inclinación incorporada en el entrenamiento). Por otro, el sesgo inducido por prompting (instrucción al sistema), o sea, cuando se le pide explícitamente que escriba desde una mirada liberal o conservadora.

Y aquí aparece la pieza clave: quienes leyeron resúmenes “por defecto” de GPT-4o mostraron opiniones más liberales que quienes leyeron Wikipedia.

Cuando el texto se generaba con un encuadre liberal explícito, el desplazamiento hacia posiciones más liberales crecía. Y cuando el resumen se pedía con encuadre conservador, las opiniones se movían hacia posturas más conservadoras. En una escala ideológica de cinco puntos, los cambios fueron modestos, pero sistemáticos: del centro hacia una leve inclinación.

La analogía doméstica ayuda a verlo. Un modelo de lenguaje no es una “máquina de mentiras”, sino más bien un tablero eléctrico: los hechos serían los electrodomésticos conectados, pero el relato funciona como el cableado que decide qué circuito recibe más corriente.

Así, dos textos pueden tener los mismos datos y aun así encender luces distintas. Un resumen puede poner el foco en responsabilidades, otro en consecuencias. Uno usa adjetivos que suavizan, otro que endurecen. Ese interruptor no cambia “qué pasó”, pero sí cómo se siente lo que pasó.

De hecho, el estudio remarca que no encontró propaganda explícita ni contenidos extremistas. La influencia nacía de elementos formales: énfasis, matices, selección léxica y el orden de las piezas, como si el mismo rompecabezas se armara con una imagen final apenas distinta.

Un sesgo que no necesita errores

La investigación también probó la teoría del razonamiento motivado (tendencia a aceptar lo que confirma creencias). Pero el patrón fue asimétrico. Los encuadres liberales empujaron en la misma dirección a lectores liberales, moderados y conservadores. En cambio, los encuadres conservadores solo tuvieron un efecto estadísticamente significativo en quienes ya eran conservadores.

Además, análisis adicionales sugieren que, ante eventos similares (protestas laborales o disturbios raciales), GPT-4o tiende a producir espontáneamente una tonalidad liberal sin que nadie se lo pida. Eso sugiere un sesgo latente difícil de neutralizar solo con “pedirle” neutralidad.

Qué cambia para quien usa IA para aprender

La oportunidad es clara: respuestas rápidas y bien redactadas. El riesgo también: si una herramienta se vuelve “central” para aprender historia, su encuadre puede modular opiniones sin levantar sospechas, porque no depende de falsedades.

En la práctica, el estudio empuja a una alfabetización crítica más fina. No alcanza con preguntar si un texto es verdadero. También conviene revisar qué enfatiza, qué adjetivos usa, qué causas prioriza y qué consecuencias deja para el final.

Porque, como en una casa, no siempre hace falta cambiar los aparatos para cambiar el ambiente: a veces alcanza con tocar el interruptor correcto.

Matthew Shu, Daniel Karell, Keitaro Okura, Thomas R. Davidson, “How latent and prompting biases in AI-generated historical narratives influence opinions”, PNAS Nexus, Volume 5, Issue 3, March 2026, pgag022.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí