Un estudio conjunto de la Universidad de Washington, Carnegie Mellon, Stanford y otras instituciones analizó 25 modelos de IA y detectó un hallazgo central: muchos sistemas distintos responden de forma sorprendentemente parecida. Los investigadores lo describen como una especie de “mente-colmena artificial”.

Además, no se trata solo de una impresión subjetiva. El trabajo midió la similitud semántica, es decir, el parecido en significado entre respuestas, y encontró niveles de coincidencia de entre 71% y 82%. En algunos casos, aparecieron párrafos idénticos palabra por palabra entre modelos diferentes.

Similitud de respuestas a preguntas hechas a diversas IA

La pieza clave del análisis fue Infinity-Chat, un conjunto de 26.000 consultas reales pensado para admitir más de una respuesta válida. Había seis categorías y 17 subcategorías. Incluso ante preguntas abiertas, como “¿Qué es el tiempo?”, varios modelos repitieron metáforas casi calcadas. Algunos hablaron del tiempo como un río. Otros, como un tejedor de momentos.

Ese mecanismo revela una ilusión de abundancia. Parece que el usuario entra a una biblioteca infinita, pero muchas veces termina abriendo estantes distintos que guardan libros muy parecidos. La variedad está en la etiqueta exterior; el cableado interno conduce a respuestas que convergen.

También te puede interesar:OpenAI Estudia Fusionar ChatGPT con Sora y Llevar la Generación de Videos con IA a Millones de Usuarios

La explicación técnica también tiene una traducción simple. Los grandes modelos usan transformers (arquitectura que predice la siguiente palabra) y funcionan de manera probabilística, es decir, eligen la opción más probable en cada paso. Es como un sistema de cañerías que siempre empuja el agua por el conducto más ancho y seguro.

Así, la IA no “piensa” como una persona que explora caminos raros. Más bien activa un engranaje que premia la ruta más estable. Si muchas máquinas tienen tuberías parecidas, terminan llenando el mismo balde.

La tubería común detrás de respuestas casi idénticas

Hay varias causas para esa homogeneidad. Una es que muchos modelos se entrenan con fuentes similares, como Wikipedia o colecciones de libros parecidas. Otra, cada vez más importante, es el uso de datos sintéticos, textos creados por otras IA, que reciclan estilos y refuerzan patrones ya existentes.

Los investigadores hablan de “colapso inter-modelo”

También influye el ajuste por recompensa, o reward modeling (sistema que premia ciertas respuestas), durante el entrenamiento. Si el sistema valora lo que suena correcto, claro y consensuado, castiga sin decirlo las respuestas más extrañas, menos previsibles o culturalmente alejadas del centro.

También te puede interesar:OpenAI Estudia Fusionar ChatGPT con Sora y Llevar la Generación de Videos con IA a Millones de Usuarios
También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats

Por eso los investigadores hablan de “colapso inter-modelo”: distintos sistemas, con nombres y marcas distintas, terminan acercándose al mismo punto. Y el estudio observó algo más inquietante: incluso un mismo modelo repite estructuras similares cuando recibe la misma pregunta en momentos distintos.

Qué cambia para el usuario común

La oportunidad aquí no está en abandonar la IA, sino en usarla con más conciencia. Si una persona consulta varios modelos para buscar creatividad, ideas o perspectivas sobre un problema, puede creer que obtuvo diversidad cuando en realidad recibió versiones del mismo molde.

Se debe tomar mas conciencia de esto al momento de utilizar la IA

Ese detalle importa en la vida diaria. Importa al estudiar, al pedir consejo, al escribir, al comparar opciones de salud o trabajo. Si la central de respuestas se vuelve demasiado uniforme, también puede estrechar el campo de ideas que circulan entre las personas.

Además, el riesgo no es solo creativo. Los autores advierten que este patrón puede reforzar sesgos culturales o geográficos. Si los modelos dominantes fueron entrenados sobre miradas occidentales, esa visión del mundo puede presentarse como si fuera neutral, universal o simplemente “la mejor respuesta”.

La buena noticia es que este hallazgo funciona como un interruptor. Nombrar el problema permite empezar a corregirlo. Y en un escenario donde la IA ya se volvió parte de la rutina, detectar que muchas voces salen del mismo cableado es el primer paso para volver a abrir ventanas, no cerrarlas.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios