¿Alguna vez escribiste “mujer profesional sonriendo” en una herramienta de inteligencia artificial y sentiste que la imagen “ya la habías visto”? No es solo una impresión. A veces, el retrato digital funciona como un espejo que devuelve siempre el mismo molde, aunque el pedido sea amplio.
El hallazgo es directo: la diversidad aparece ausente o muy limitada, con una sobrerrepresentación de mujeres jóvenes, caucásicas y con cuerpos normativos.
La investigación, titulada “IA generativa y retrato publicitario: estudio sobre la representación femenina” y hecha pública este miércoles, analizó más de 350 retratos generados por Copilot, Leonardo y Midjourney. Las imágenes se produjeron a partir de descripciones textuales, es decir, prompts (instrucciones escritas).
“Es necesario construir imágenes que desafíen los estereotipos y conecten emocionalmente con audiencias diversas”, subraya la profesora de Comunicación Esmeralda López. En la misma línea, la profesora de Publicidad Begoña Moreno señala como pieza clave ampliar la diversidad de los datos con los que se entrenan estas herramientas.

El mecanismo detrás de este sesgo puede entenderse con una escena doméstica. Imaginar a la IA como una cocina ayuda: uno escribe la receta, pero el sabor final depende de los ingredientes que hay en la alacena.
En este caso, los “ingredientes” son los datos de entrenamiento, el enorme conjunto de imágenes y textos con el que aprende el sistema. Si esa despensa viene cargada de publicidades, catálogos y retratos donde domina un mismo ideal de belleza, la máquina repite esa pauta como si fuera la opción “central”.
Y el modelo tiende a elegir lo más probable. Ese “promedio” estadístico actúa como un interruptor silencioso que enciende siempre el mismo tipo de cara, de piel y de cuerpo, aunque el usuario no lo pida explícitamente.
El estudio encontró algo llamativo: hubo más pluralidad cuando las descripciones se escribían en inglés que cuando se hacían en español. Esa diferencia sugiere que el “cableado” lingüístico también importa. No porque un idioma sea mejor, sino porque cada lengua activa asociaciones distintas en los datos disponibles.
Además, los investigadores detectaron que muchas imágenes carecen de emotividad y espontaneidad. Predominan expresiones faciales serias o neutras, como si el retrato estuviera hecho para una ficha técnica más que para una vida real.

En términos prácticos, el problema no queda encerrado en el laboratorio. Si una marca usa estos retratos para campañas, o si un equipo de comunicación arma piezas para redes, el sesgo puede reforzar estereotipos existentes sin que nadie lo note a tiempo.
Los autores recomiendan fortalecer la supervisión ética y formar equipos de diseño multidisciplinares. La idea es simple: si el sistema define cómo se verá “lo normal”, no puede construirse solo con una mirada técnica.
También proponen ampliar la diversidad de los datos de entrenamiento para reducir sesgos de género, raza y corporalidad. Moreno es categórica: con datos más diversos, las representaciones pueden volverse más inclusivas.
Mientras tanto, para quien usa estas herramientas, la oportunidad está en no delegar todo. Ajustar las descripciones, pedir variedad explícita y revisar resultados con criterio humano sigue siendo la pieza clave. Porque, cuando la IA cocina con la misma despensa, el menú se repite. Y la pluralidad necesita nuevos ingredientes.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.