ChatGPT lleva tiempo sorprendiendo por su capacidad para conversar, responder preguntas e incluso crear historias, textos o imágenes. Su gran baza radica en cómo adapta sus respuestas según la persona o situación, y este ajuste ahora se ha hecho aún más evidente gracias a una investigación pionera de la Universitat Oberta de Catalunya (UOC).
Este nuevo estudio analiza cómo ChatGPT, sobre todo en su versión GPT-4o, modifica su “personalidad” cuando le hablas en distintos idiomas o le pides que simule ser nativo de diferentes países. Los resultados no dejan indiferente: la IA no solo responde diferente, sino que refleja los rasgos y estereotipos de cada cultura o nación, igual que hacen muchas personas al cambiar de idioma.
El equipo de la UOC quiso comprobarlo mediante un cuestionario psicológico estándar llamado EPQR-A, bastante conocido para medir rasgos como extraversión, neuroticismo, psicoticismo y tendencia a mentir. Así, le pidieron a GPT-4o que respondiese a estas preguntas en seis idiomas diferentes: inglés, hebreo, portugués brasileño, eslovaco, español y turco.
Por si fuera poco, también le solicitaron a la IA simular personalidades de hablantes nativos de inglés procedentes de cinco países anglófonos: Reino Unido, Estados Unidos, Canadá, Australia e Irlanda. Este detallazo es clave, porque permite observar si se cuela el factor estereotipo cuando ChatGPT se transforma en “inglés”, “americano” o “irlandés”.
Al repasar los resultados, se vio que GPT-4o cambia sus respuestas al test de personalidad en función del idioma y el país, algo que no se explica solo por la traducción. La variación no se limita a aspectos técnicos; hay un trasfondo cultural fuerte que influye en cómo la IA se describe a sí misma y en las respuestas que da.
Cuando ChatGPT simula ser de países diferentes, pero usando el mismo inglés, adapta la personalidad a lo que se espera de una persona típica de ese país. Por ejemplo, “ser más directo” como estadounidense o “más reservado” si imita a alguien del Reino Unido. Resulta que la IA actúa como una especie de “espejo” de los estereotipos nacionales.
También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millones¿De dónde salen estas diferencias? El principal sospechoso son los sesgos culturales presentes en los datos con que se entrena la IA. ChatGPT aprende de millones de textos donde ya aparecen ciertas ideas preconcebidas sobre cómo habla, piensa o se comporta alguien de un país concreto.
El estudio subraya que al simular identidades nacionales, GPT-4o no solo cambia el acento o la forma de hablar, sino que también refleja actitudes, expresiones y normas típicas de esa cultura. Así, si le pides actuar como un australiano, probablemente vas a poder notar diferencias frente a sus respuestas tipo “británica”.
Un efecto colateral importante: estos sesgos culturales pueden amplificarse cuando ChatGPT traduce textos o genera contenido en varios idiomas. Si usas el chatbot para traducir, corres el riesgo de que ciertos estereotipos se cuelen o incluso se multipliquen en la versión final, sin que te des cuenta.
Los autores recomiendan seguir estos pasos si quieres evitar que los sesgos culturales pasen desapercibidos o se amplifiquen.
Quizá te preguntes: ¿traducen igual todos los sistemas de IA? Según el profesor Antonio Oliver, de la UOC, hay diferencias claras entre los modelos de traducción neuronal (NMT), como los que usan algunas webs para traducir textos “al vuelo”, y los modelos de lenguaje tipo LLM (como ChatGPT o Copilot).
La clave está en el contexto. Los modelos NMT tienden a ofrecer traducciones más precisas porque se centran palabra por palabra y no tanto en “imitar” la personalidad. En cambio, los LLM, que trabajan con grandes contextos y conversaciones largas, son mucho más propensos a repetir estereotipos y matices culturales.
También te puede interesar:ChatGPT Amplía el Modo de Voz Avanzada para Usuarios Gratuitos de EuropaAdemás, cuanto más amplia es la variedad de idiomas con los que se ha entrenado un modelo, mayor va a ser su habilidad para traducir de forma flexible, pero también mayor el riesgo de reflejar sesgos de cada cultura. Así que, si quieres precisión, elige bien qué tecnología usas en cada momento.
El estudio de la UOC optó por examinar la IA con pruebas diseñadas para evaluar humanos. Según la valoración del test EPQR-A, GPT-4o se comporta como si fuese alguien sociable, emocionalmente equilibrado y respetuoso con las normas sociales.
Esta aproximación psicológica no solo permite comparar a la IA con perfiles humanos, sino que también abre un abanico de posibilidades para revisar su coherencia, estabilidad y tendencia a adaptar la personalidad.
La propia UOC tiene previsto ampliar la investigación, incluyendo más lenguas, nuevos modelos distintos a GPT-4o y otros test de personalidad. El objetivo es comprobar si estos hallazgos se mantienen y entender hasta qué punto los sistemas de IA van a poder repetir patrones culturales o incluso crear nuevos sesgos a partir de los datos de los que aprenden.
En definitiva, ChatGPT actúa de maneras distintas según el idioma y el contexto cultural, mostrando personalidades que reflejan los estereotipos y valores propios de cada lengua o país. Tanto si lo usas en inglés, español o cualquier otro idioma, sus respuestas no son neutras, sino que llevan implícitas ideas culturales de cómo debería comportarse un “nativo” según el país.
El trabajo de la UOC nos enseña la importancia de revisar estos sesgos y de desarrollar herramientas que ayuden a que la inteligencia artificial sea más consciente del contexto social y cultural en el que actúa. Si buscas traducir, generar o analizar textos con ChatGPT, recuerda estas claves y observa siempre cómo adapta su “personalidad” a lo que le pides y a la lengua en la que conversa contigo.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.