Imagina que una inteligencia artificial tiene acceso a todos los libros de ciencia escritos hasta hoy. Podría resumirlos, explicarlos y combinarlos de mil maneras. Según el filósofo y economista Teppo Felin, esa IA seguiría sin poder hacer algo que tú haces desde niño sin darte cuenta: crear conocimiento científico nuevo que contradice lo que “dicen” los datos.
La clave, según Felin y el lingüista Noam Chomsky, está en cómo aprendes a hablar y a pensar desde pequeño. Un bebé, en cualquier lugar del mundo, escucha frases sueltas, a veces mal pronunciadas, llenas de ruidos y cortes. En pocos años, ese bebé va a poder decir oraciones correctas que nadie le ha dicho antes.

Chomsky lleva décadas insistiendo en esta idea: los niños no se limitan a copiar lo que oyen, sino que construyen una teoría del lenguaje con muy pocos datos y mucho ruido. A partir de esa teoría interna, un niño es capaz de inferir reglas, entender estructuras y producir frases nuevas que no tienen relación directa con sus experiencias previas. No está “prediciendo el siguiente palabra” a partir de estadísticas, está generando conocimiento propio sobre cómo funciona su lengua.
Esta forma de aprender, basada en conjeturas y no solo en datos, es justo lo que Felin y el profesor de Oxford Matthias Holweg colocan en el centro del debate sobre inteligencia artificial. Para ellos, ahí está la frontera real entre la cognición humana y la IA. Mientras los grandes modelos de lenguaje se entrenan con cantidades gigantescas de texto para imitar patrones, los humanos, desde bebés, formulan hipótesis sobre el mundo con muy poca información y mucha incertidumbre.
Felin lo resume de manera directa: la generación de lenguaje de la IA es una predicción basada en datos retrospectiva e imitativa. Es decir, mira hacia atrás, a lo que ya se escribió, y calcula qué combinación de palabras encaja mejor con esos patrones. La mente humana, en cambio, funciona de manera prospectiva y teórica: se adelanta, imagina, se equivoca, vuelve a intentarlo y, cuando hace falta, contradice lo que “dicen” los datos.
En el caso de los bebés, las investigaciones que cita Felin apuntan a algo muy concreto: los niños no solo absorben datos del entorno como si fueran una esponja, sino que formulan conjeturas e hipótesis todo el tiempo. Cuando tiran un juguete una y otra vez, no es simple juego; están probando ideas sobre la gravedad, la permanencia de los objetos y las reacciones de los adultos. Aquí aparece lo que el autor considera el núcleo de la diferencia con la inteligencia artificial.
Para Felin, la capacidad de hacer conjeturas, experimentar y proponer hipótesis es el corazón de la creatividad humana. Tú no solo recoges información, sino que la usas para plantear preguntas nuevas, imaginar qué pasaría si cambias algo y decidir qué merece la pena probar. Esa forma de pensar es la que, según él, no pueden replicar los algoritmos que se limitan a extender tendencias pasadas.
Con todo, Felin no se queda en una reflexión abstracta. Su objetivo declarado es desmontar el “bombo publicitario” que rodea a la inteligencia artificial y poner en valor la singularidad del razonamiento causal humano. En su ensayo Theory Is All You Need: AI, Human Cognition, and Causal Reasoning, escrito junto a Holweg, recuerda que la mente humana no es un mero procesador de información. Las personas no solo predicen el mundo, también intervienen en él y lo transforman.
Esta capacidad de intervenir tiene una consecuencia importante: rompe las analogías simplistas que equiparan mente y máquina. Una IA, por muy avanzada que sea, trabaja con datos ya generados por humanos y por el entorno.
Tú, en cambio, puedes decidir qué experimento hacer mañana, qué dato falta y qué regla podría estar equivocada. Esa diferencia, para Felin y Holweg, marca un límite a lo que la IA puede hacer en ciencia.
Para explicar dónde flojea la IA cuando hablamos de conocimiento científico nuevo, los autores proponen un experimento mental llamativo. Imagina un modelo de lenguaje entrenado solo con todo el “corpus predominante” disponible hasta 1633. Es decir, libros, tratados y textos de la época anterior a que las ideas de Galileo se consolidaran. ¿Qué conclusión sacaría esa IA sobre el sistema solar?

Según Felin y Holweg, la respuesta es sencilla: ese modelo de IA negaría el heliocentrismo de Galileo. Como en los datos dominantes de entonces la visión geocéntrica (la Tierra en el centro) era mayoritaria, el algoritmo consideraría que esa era la teoría correcta.
Esta asimetría funciona así: una IA, tal y como está diseñada hoy, acepta como verdadero lo que domina estadísticamente en los datos. Si el 99 % de los textos dice que el Sol gira alrededor de la Tierra, el modelo reforzará esa visión. Tú, como humano, puedes creer algo que contradice los datos disponibles si tu teoría te parece mejor explicando el mundo, incluso aunque todavía no tengas todas las pruebas.
La consecuencia de esta asimetría es profunda. Felin sostiene que, gracias a esa distancia entre datos y creencias, la cognición humana puede generar ideas que, al principio, parecen delirantes o contrarias al consenso. Con el tiempo, esas ideas pueden conducir a descubrimientos científicos que cambian todo.
La gente veía el Sol “moverse” por el cielo, sentía la Tierra estable bajo sus pies y no notaba ninguna rotación. Una IA entrenada con esa experiencia cotidiana y esos textos habría respondido sin dudar que la Tierra está quieta y que el modelo geocéntrico es correcto. Estaría reforzando el error porque los datos del pasado lo apoyaban.
Para que una teoría como el heliocentrismo salga adelante, alguien tiene que atreverse a ir contra los datos predominantes y el consenso social. Aquí es donde Felin ve la gran distancia con la inteligencia artificial: los modelos actuales de lenguaje dependen por completo de las regularidades estadísticas del pasado. No tienen un mecanismo interno para decir: “estos datos engañan, probemos algo que los contradiga”.
Algo parecido ocurre con el ejemplo de los hermanos Wright. A finales del siglo XIX, una parte importante de la ciencia dominante pensaba que el vuelo de objetos más pesados que el aire era imposible. Los libros, los informes y la experiencia técnica apuntaban en esa dirección. En ese contexto, una IA entrenada con esos datos habría sido muy prudente, casi negativa, respecto a la posibilidad de un avión.
Los Wright tomaron otro camino. En lugar de aceptar el consenso, decidieron diseñar experimentos concretos sobre sustentación, propulsión y dirección. Construyeron túneles de viento caseros, probaron alas de diferentes formas y analizaron qué funcionaba y qué no. Paso a paso, fueron desmontando las creencias previas, hasta demostrar en 1903 que el vuelo humano era posible.
Felin usa este caso para mostrar cómo el pensamiento teórico y experimental puede desafiar los datos disponibles y generar innovaciones radicales. Estos ejemplos ilustran por qué, en entornos inciertos, solo el pensamiento teórico humano tiene verdadera ventaja.

La creatividad científica no consiste en ajustar mejor una curva a los datos, sino en formular teorías que, muchas veces, chocan con lo que esos datos parecen decir. La inteligencia artificial, por definición, trabaja extrapolando patrones del pasado, y ese enfoque solo funciona bien en contextos relativamente estables.
Cuando un modelo de IA aprende, extrae correlaciones de millones de ejemplos y calcula qué es más probable. Esa estrategia es potente en tareas como traducir textos, generar resúmenes o responder preguntas frecuentes. Aun así, falla cuando el mundo cambia rápido y los datos del pasado dejan de representar el futuro. Felin insiste en que el mundo real “no es una base de datos” estática, sino un entorno que se mueve constantemente.
En contextos con baja incertidumbre, como predecir el consumo de energía en una ciudad a corto plazo o recomendar series según tu historial, la inteligencia artificial encaja muy bien. El patrón del pasado se parece bastante al del futuro, así que extrapolar funciona. Pero cuando lo que quieres es descubrir una ley nueva de la física, entender una enfermedad desconocida o inventar una tecnología sin precedentes, apoyarte solo en extrapolaciones del pasado puede dejarte ciego.
Aquí entra otra idea clave de Felin: el razonamiento humano, aunque limitado y sesgado, es el único que puede reflejar con cierta precisión un mundo que cambia sin parar. Tú puedes revisar tus teorías, adaptarte a un giro inesperado y tomar decisiones con muy pocos datos. No necesitas esperar a que haya millones de ejemplos para empezar a sospechar que algo está pasando. Esa respuesta rápida, aunque imperfecta, es la que, según el autor, falta por completo en la IA actual.
El propio Felin reconoce que los humanos procesan pocos datos, son parciales y a menudo toman malas decisiones. Ve en esas limitaciones una ventaja adaptativa: en un entorno muy dinámico, es más útil tener una mente que se lanza a actuar con información incompleta que una máquina que necesita un montón de datos limpios y bien etiquetados para empezar a reaccionar.
Este punto se nota especialmente en la vida cotidiana. Muchas veces, tú tienes que elegir sin disponer de los datos suficientes: cambiar de trabajo, confiar en una persona, invertir dinero o ajustar una política pública. En todas esas situaciones, la tarea principal no es procesar datos, sino pensar qué datos faltan y cómo podrías conseguirlos. Felin cree que esa capacidad de decidir qué información es relevante y diseñar maneras creativas de obtenerla es una fuente central de creatividad humana.
Los argumentos de Felin y Holweg no se quedan solo en teoría filosófica. Su ensayo se apoya en estudios de psicología del desarrollo, historia de la ciencia y resultados técnicos de modelos de lenguaje publicados entre 2020 y 2023. El propio Felin lo resume así: “La IA es estadísticas y aprendizaje automático en acción, sin ningún elemento místico o cuasi humano detrás”. Frente a visiones más alarmistas, su postura quiere rebajar el “pánico” que algunos han transmitido sobre la IA.
En este punto, los autores mencionan a Geoffrey Hinton, uno de los grandes nombres del campo, que ha llegado a especular con la posibilidad de que los modelos de lenguaje muestren algún tipo de inteligencia o incluso rasgos de conciencia en el futuro. Felin y Holweg citan estas preocupaciones como ejemplo de esa ansiedad general, pero rechazan frontalmente la idea de equiparar mente humana y modelos de lenguaje. Les parece, dicen, conceptualmente errónea y filosóficamente reductiva.

Para explicar mejor su posición, Felin compara los grandes modelos de lenguaje con “una especie de Wikipedia dinámica”. Es decir, sistemas capaces de compilar, reorganizar y reformular información ya existente con mucha soltura. No investigan, no diseñan experimentos ni se arriesgan a defender una teoría minoritaria contra los datos dominantes.
El investigador no niega la importancia práctica de la inteligencia artificial. Para él, la IA es una “ola tecnológica” muy potente, que va a transformar sectores enteros, pero con limitaciones claras. Donde más se notan esas limitaciones es en ámbitos que exigen verdadera creatividad, formulación de problemas nuevos y toma de decisiones estratégicas con visión de futuro.
Felin llega a afirmar que el papel de los datos se ha sobrevalorado. Muchas veces, dice, no tenemos los datos correctos, y la tarea clave es pensar cómo obtenerlos y qué significan de verdad. En ciencia y en la vida diaria, el paso decisivo no es aplicar un algoritmo más sofisticado, sino atreverse a preguntarse si estamos midiendo lo que importa.
Todo esto ayuda a entender por qué, para Felin y Holweg, la inteligencia artificial no puede crear conocimiento científico nuevo por sí sola. Una IA puede ayudarte a buscar literatura, a resumir artículos, a generar hipótesis probables a partir de lo ya conocido.
Pero dar el salto a una teoría que contradice el “corpus predominante” exige algo que los modelos de lenguaje no tienen: una mente que conjetura, duda de los datos y se lanza a experimentar. Mientras esas decisiones sigan dependiendo de personas que piensan teóricamente, la inteligencia artificial seguirá siendo una herramienta poderosa, pero no una fuente autónoma de ciencia nueva.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.