Un estudio publicado en PNAS, liderado por Haoyu Guo y Michael P. Brenner, puso a prueba a varios modelos de lenguaje con un terreno especialmente áspero: la física de los cupratos, superconductores de alta temperatura. El hallazgo fue claro: la IA puede leer, resumir y ordenar mucha literatura científica, pero todavía no muestra una comprensión sólida de las leyes físicas que hay debajo.
Para medir ese límite, los investigadores reunieron una base de 1.726 artículos científicos y diseñaron 67 preguntas de nivel experto junto con especialistas internacionales, incluidos evaluadores de la Universidad de Cornell y Google DeepMind. Allí apareció la pieza clave: cuando el problema exigía razonamiento profundo y no solo reconocer patrones de texto, la precisión caía.

Los autores subrayan que el mecanismo actual de estos sistemas no se parece al de un científico humano. La IA conecta términos con gran precisión estadística, pero falla cuando debe demostrar comprensión profunda de fenómenos experimentales.
La analogía más útil es la de una casa. Un investigador humano no solo mira ladrillos sueltos. Va armando un plano mental. Sabe qué pared sostiene el techo, qué cableado alimenta cada ambiente y qué interruptor enciende una luz concreta. Ese “modelo de mundo” (mapa interno de la realidad) le permite anticipar qué pasará si toca una pieza del sistema.
En cambio, un modelo de lenguaje funciona más como alguien que encontró miles de manuales de construcción y memorizó qué palabras suelen ir juntas. Puede decir “cable”, “llave térmica” y “tablero central” en el orden correcto. Pero si se le pide diagnosticar por qué salta la luz en una falla nueva, puede confundirse.
Ese es el engranaje central del hallazgo: la IA hoy ordena muy bien el lenguaje de la ciencia, pero no necesariamente entiende la física que ese lenguaje describe.
El límite detrás del resumen automático
Los modelos evaluados mostraron una oportunidad concreta: resumir artículos complejos, rastrear conexiones entre trabajos y acelerar la exploración bibliográfica. Para un laboratorio, eso ya es valioso. Ahorra tiempo en una tarea que suele consumir semanas.
Pero el estudio revela también el otro lado del mecanismo. Cuando aparece un matiz técnico, una contradicción experimental o una pregunta en la frontera del conocimiento, el sistema puede responder con seguridad sin tener una base conceptual firme. Ese riesgo no es menor en disciplinas donde un error interpretativo puede arruinar años de trabajo.
Además, los autores conectan este punto con otra advertencia ya conocida: algunos sistemas tienden a acomodar sus respuestas a lo que el usuario parece esperar. Si a eso se suma la falta de un modelo de mundo, la IA puede transformarse en un asistente veloz, pero poco confiable para tomar decisiones finales.
Qué cambia para científicos y usuarios
La aplicación práctica es directa. En investigación, la IA puede servir como una secretaria muy rápida: clasifica papeles, encuentra antecedentes y arma un primer mapa del tema. No debería, al menos por ahora, ocupar el lugar del experto que valida resultados, detecta fallas y decide si una hipótesis tiene sentido físico.

Eso también baja a la vida diaria. Cuando una herramienta de IA resume un paper médico, climático o tecnológico, conviene recordar que resumir no equivale a comprender. La respuesta puede sonar robusta y aun así estar sostenida por correlaciones estadísticas, no por una estructura conceptual real.
Lejos de anunciar un reemplazo inminente de los científicos, este trabajo marca otra clave: la inteligencia artificial hoy es útil como asistente avanzado, no como autoridad final. La central sigue en manos humanas.
Y quizás esa sea la señal más esperanzadora: en la ciencia, como en una casa bien construida, no alcanza con reconocer las piezas. Todavía hace falta alguien que entienda cómo circula la corriente.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.








