Agentes IAagentes de inteligencia artificial (IA)ChatGPTNano BananaAsk GeminiKindle TranslateSoraVibesMetaPerplexityCometGoogle FinanceGeminiSam AltmanOpenAI

La inteligencia artificial sigue atrapada en los prejuicios y retrata a las mujeres como inexpertas

 | noviembre 7, 2025 23:16

Un equipo de la Universidad de Stanford ha puesto números a algo incómodo: los sistemas de inteligencia artificial están empujando más fuerte los estereotipos que ya ves en internet. El estudio, liderado por Douglas Guilbeault, analizó, en una primera fase, unas 1,4 millones de imágenes y vídeos de Google, Wikipedia, IMDb, Flickr y YouTube.

¿Qué encontró? Que las mujeres aparecen como más jóvenes que los hombres, sobre todo en empleos de alto estatus y mejor pagados. Cuando comparas con el censo estadounidense, la edad media laboral es muy similar por género en medicina, educación y administración.

La explicación no es solo técnica. Influyen normas sociales que presionan a las mujeres para aparentar juventud en entretenimiento y atención al cliente. En ciencia, medicina o docencia, la edad se interpreta como autoridad y experiencia, atributos que muchos asocian todavía con hombres. El resultado es conocido: se contrata a mujeres jóvenes, pero se las promociona menos, y eso mantiene el liderazgo en manos masculinas.

En la segunda fase, 459 personas usaron Google Images para buscar 22 ocupaciones de ciencia, tecnología y arte. Un grupo vio fotos de profesionales y valoró género, edad estimada y si contrataría a esa persona. El grupo de control vio objetos, sin contexto laboral. Con todo, el diseño permitió comparar cómo mirar fotos cambia la percepción de edad y “contratabilidad”.

Los resultados fueron claros: al observar fotografías, crece la idea de que las mujeres “deberían” ser más jóvenes, y se favorece a hombres mayores y a mujeres jóvenes. Nuria Oliver alerta de un punto ciego repetido en estas profesiones, donde coinciden presión estética y edadismo de género. Faltaba comprobar si la IA moderna empuja aún más esa inercia.

Cómo los sesgos de género en la IA afectan a la contratación y al liderazgo

La tercera etapa mira de frente a la IA. Nueve modelos populares, entrenados con Reddit, Google News, Wikipedia y X, fueron evaluados. ChatGPT generó cerca de 40.000 currículos para 54 ocupaciones, con 16 nombres masculinos y femeninos controlados por popularidad, etnia y edad. Los autores midieron edad y experiencia asignadas, y cómo el propio sistema valoraba cada CV.

El patrón se repitió: las candidatas aparecieron, de media, 1,6 años más jóvenes y con casi un año menos de experiencia que los hombres equivalentes. El modelo valoró mejor los CV de hombres mayores al puntuar su calidad. Según los investigadores, ese sesgo nace del entrenamiento con enormes conjuntos de datos de internet sin filtros suficientes, donde el algoritmo interioriza qué rasgos “encajan” con cada profesión.

La verificación no se quedó en una única prueba. El equipo cruzó lo que ve la IA con realidades externas, como el censo y plataformas múltiples, y mantuvo controles sobre nombres y ocupaciones. “La tecnología no es neutral y amplifica roles y estereotipos de género preexistentes; se ve cuando las mujeres aparecen más jóvenes en profesiones de prestigio”.

Hay contexto previo: investigaciones anteriores ya habían detectado prejuicios de género y edad en distintas plataformas. Lo nuevo aquí es el alcance. Estos sesgos de género en la IA trascienden sectores y definen una tendencia general, más intensa donde la presión por parecer joven es mayor. Los autores recuerdan que la IA no firma contratos, pero sí prepara el terreno para decisiones sesgadas.

Qué puedes hacer para detectar sesgos de género en la IA en tus procesos

Pablo Haya Coll pide auditorías y transparencia, sobre todo en selección laboral, clasificada como uso de alto riesgo por la regulación europea de IA adoptada en 2024. No todo depende del proveedor. Si gestionas talento, vas a poder reducir el riesgo si empiezas por lo básico:

  1. Exige informes de sesgo y fuentes de datos al proveedor.
  2. Revisa muestras de salidas con pares ciegos por género y edad.
  3. Ajusta prompts y filtros para forzar criterios centrados en méritos.

Marian Blanco Ruiz vincula el patrón con la “mirada masculina” descrita por Laura Mulvey, que “juveniliza” a las mujeres en ocupaciones de prestigio. Hay margen de maniobra si introduces formación crítica desde primaria y secundaria, como sugiere Haya Coll, para que futuras generaciones identifiquen la discriminación algorítmica a simple vista.

La idea central es directa: mientras los modelos se entrenen con datos humanos sin control, los sesgos de género en la IA se mantendrán y se ampliarán. Señales a vigilar en los próximos meses: proveedores que publiquen auditorías independientes, métricas por edad y género en evaluaciones de candidatos, y opciones de ajuste fino orientadas a equidad. Si esas piezas aparecen, el impacto en contratación y liderazgo puede cambiar de verdad.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram