¿Por qué dos personas le hacen casi la misma pregunta a una inteligencia artificial y una obtiene una respuesta útil, mientras la otra se queda con algo confuso o incompleto? La escena ya es cotidiana. Y el hallazgo incómodo es que la diferencia no siempre está en la máquina.
Eso es lo que revelan los informes recientes de Anthropic, la empresa fundada en 2021 por exdirectivos de OpenAI y enfocada en investigación y seguridad en IA. Sus reportes AI Fluency Index y Anthropic Economic Index, publicados entre 2025 y 2026, analizan grandes volúmenes de interacciones reales y cuestionan una idea muy extendida: que la IA iguala automáticamente a todos los usuarios.

Los datos muestran otra pieza clave. El rendimiento con IA depende más de cómo se interactúa con ella que de la herramienta en sí. Dos personas con acceso al mismo sistema pueden llegar a resultados muy distintos según su capacidad para reformular, corregir y volver a intentar.
Anthropic llama a ese mecanismo “fluidez en IA”, una habilidad para conversar de forma estratégica con sistemas no lineales (que no responden siempre de forma predecible). No exige saber programar. Exige algo más difícil: criterio para detectar si una respuesta sirve, dónde falla y qué interruptor conviene mover.
También te puede interesar:Anthropic Revela que Claude Simula Emociones y Afecta Su ComportamientoCon la IA pasa que No funciona como un botón único, sino como un tablero de perillas. Si la primera respuesta sale mal, el usuario fluido no se detiene: cambia la instrucción, agrega contexto, quita ambigüedad y prueba otra vez. Ese proceso iterativo (mejora por ensayo sucesivo) es la central del buen resultado.

Además, quienes tienen más formación o experiencia previa suelen aprovechar mejor esa lógica. No solo manejan la herramienta: cuentan con marcos para interpretar lo que devuelve, identificar errores y optimizar el enfoque. Es decir, traen un “cableado” previo que les permite usar mejor la nueva pieza.
La brecha no está solo en el acceso
El hallazgo de Anthropic también ordena el debate sobre trabajo y educación. La IA se usa sobre todo en tareas de complejidad intermedia. No reemplaza por completo al experto, pero tampoco se limita a lo básico. Actúa como un potenciador de procesos ya existentes.
Eso abre una oportunidad y, al mismo tiempo, una advertencia. Por un lado, permite que personas menos experimentadas resuelvan tareas que antes estaban fuera de su alcance. Por otro, amplifica las capacidades de quienes ya tenían una base sólida. El impacto, entonces, no es lineal ni parejo.
También te puede interesar:Anthropic Revela que Claude Simula Emociones y Afecta Su ComportamientoPor eso, el debate deja de ser exclusivamente tecnológico. También es educativo. No basta con garantizar acceso a modelos como Claude o a cualquier asistente generativo. La clave pasa por enseñar a pedir, revisar, dudar y corregir.

Los informes sugieren que se está formando una nueva brecha. No solo entre quienes tienen o no tienen IA, sino entre quienes desarrollan fluidez para usarla y quienes se quedan en el primer intento. Esa diferencia puede hacerse visible en aulas, oficinas y profesiones creativas.
Anthropic subraya, en esencia, que la IA eleva el piso de algunas tareas, pero no borra las diferencias de criterio entre usuarios.
La pieza central, entonces, no es solo el algoritmo. Es la persona frente a la pantalla. Y en ese engranaje, aprender a conversar con la IA puede terminar siendo tan importante como tenerla.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.











