Desde que ChatGPT apareció en 2022, se repite la misma promesa: la inteligencia artificial lo va a cambiar todo. Pero si miras tu día a día, la cosa no parece tan espectacular. Escribir correos un poco más rápido está bien, sí, pero no es una revolución histórica.
En medio de ese ruido aparecen dos nombres que marcan caminos casi opuestos. Por un lado, está OpenAI, en San Francisco, lanzando modelos cada tantos meses, ocupando titulares. Por otro, en Londres, está DeepMind, que habla menos, enseña menos demos brillantes y se llevó un Premio Nobel.

La clave, y esto se nota en cómo se presenta cada empresa, está en qué entienden por éxito en inteligencia artificial. OpenAI, según el autor del artículo original, ya no parece obsesionada con una AGI mítica, sino con otra cosa mucho más concreta: ocupar permanentemente tu pantalla, tus timelines y tu atención con nuevas funciones “mágicas”. El foco está en lanzar producto tras producto que genere un nuevo efecto “wow”.
En esa lógica, la IA se convierte en un servicio web más, algo que usas como cuando abres un correo o un editor de texto en la versión de escritorio. Vas a poder pedir que te resuma un informe, que te redacte una respuesta educada o que te corrija un texto en segundos. Todo muy práctico, todo muy compartible en redes, pero rara vez cambia cómo funciona la ciencia o la industria por dentro.
Lo que ocurre es que ese tipo de inteligencia artificial se desgasta rápido. Cada pocos meses aparece un modelo que promete escribir mejor, generar un vídeo más realista o conversar de forma más humana, y el ciclo de novedad dura apenas unas semanas. Pasa con las apps de moda y pasa igual con muchas funciones de IA generativa. Te hacen gracia, las pruebas, las subes a redes y luego desaparecen del uso diario.
Seguramente recuerdas una de las primeras grandes modas: las imágenes con estilo Studio Ghibli, filtros que convertían a cualquiera en protagonista de una película de animación. Durante unos días, las redes se llenaron de esas imágenes y parecía que habíamos cambiado de era. Si lo piensas con calma, aquello fue poco más que un filtro caro y una ola pasajera.
También te puede interesar:Google anuncia Veo 2 (su generador de Vídeo con IA) y actualización de Imagen 3En paralelo a esos fuegos artificiales, el texto original plantea otra cara de la industria, mucho más silenciosa. Es la IA para la ciencia, una inteligencia artificial que no busca impresionar en TikTok sino desbloquear problemas que llevan décadas atascados. Aquí el objetivo no es hacer que una máquina hable “como una persona”, sino conseguir que nos ayude a entender mejor la biología, la química o el clima.
En ese segundo camino, la pieza señala a DeepMind como la empresa que mejor encarna el enfoque alternativo. Mientras buena parte del sector se infla con promesas de rentabilidad inmediata y lanzamientos constantes, DeepMind mantiene un espíritu más cercano a su origen: usar la IA para abordar preguntas científicas profundas. Esa diferencia se ve con claridad en el documental The Thinking Game, disponible gratis en YouTube, que sirve de hilo conductor del artículo.
El documental tiene un tono épico que recuerda mucho al de AlphaGo, la cinta que narraba la victoria de la IA sobre el campeón de Go. Lo más interesante ahora no es el espectáculo, sino la dicotomía que plantea: por un lado la burbuja comercial de la IA generativa, y por otro una inteligencia artificial menos vistosa pero potencialmente mucho más transformadora. Como resume una de las voces del documental, “la parte más importante de esta historia no cabe en un vídeo viral de 30 segundos”.
Para entender por qué DeepMind es tan diferente, el artículo se apoya en la biografía de su cofundador, Demis Hassabis. La historia arranca con algo que cualquiera puede imaginar: una IA que aprende a jugar sola a videojuegos retro. Pong, Breakout (el clásico Arkanoid)… máquinas que practican miles de partidas hasta superar a cualquier humano sin que nadie les diga exactamente qué hacer en cada momento.
Esos proyectos lúdicos no eran solo juegos. Eran experimentos controlados para probar ideas de aprendizaje por refuerzo y redes neuronales en entornos sencillos. Una vez que la inteligencia artificial demostró que podía dominar estos mundos pixelados, DeepMind empezó a escalar la dificultad. La pregunta siguiente fue: si esto funciona con videojuegos, ¿qué pasa si lo llevamos a problemas científicos de verdad?
La respuesta llegó con una de las preguntas más difíciles de la biología moderna: cómo se pliega una proteína en el espacio. Tradicionalmente, predecir la estructura tridimensional de una proteína era casi un infierno. El proceso era caro, lentísimo, exigía muchísimo cómputo y además era propenso al error. Muchos laboratorios podían tardar meses o años solo en resolver una de ellas.
También te puede interesar:Demis Hassabis, CEO de Google DeepMind, Revela lo que la IA Está Aprendiendo Ahora Mismo y que Podría Cambiarlo Todo…Con AlphaFold 1, presentado en 2018, DeepMind dio un salto importante en esa predicción computacional. De repente, lo que antes parecía casi imposible empezaba a tener una solución razonablemente buena desde el ordenador. Lo realmente impactante llegó dos años más tarde, cuando la compañía anunció AlphaFold 2 en 2020 y los resultados dejaron al campo entero descolocado.
AlphaFold 2 no solo mejoraba un poco. Su precisión fue tan alta en competiciones científicas independientes que muchos investigadores hablaron de un antes y un después. Aquí hay un matiz clave: estos avances no se juzgan con likes en redes, se miden con métricas rigurosas y con comparaciones ciegas frente a métodos clásicos.
Para evitar que todo quedara en una herramienta cerrada, DeepMind tomó una decisión llamativa en 2021. Publicó el código fuente de AlphaFold y, ese mismo año, liberó una base de datos con la estructura de más de 200 millones de proteínas. Cualquier laboratorio del mundo, desde una gran farmacéutica hasta una universidad pequeña, podía entrar y consultarla gratis.
Esa base de datos, que el artículo califica como un auténtico “regalazo”, cambió los tiempos de trabajo de mucha gente. Lo que antes era una duda que exigía meses de experimentos de cristalografía pasaba a estar a un clic de distancia. La historia no se paró ahí: más tarde llegó AlphaFold 3, esta vez con un enfoque mucho más orientado al desarrollo de fármacos y con una vertiente comercial marcada.
El reconocimiento definitivo de que esta inteligencia artificial estaba reescribiendo la ciencia no vino de la prensa tecnológica, sino de Estocolmo. En 2024, dos de las personas clave de DeepMind, Demis Hassabis y John M. Jumper, recibieron el Premio Nobel de Química por sus contribuciones a la predicción de estructuras de proteínas, principalmente gracias a AlphaFold. No es un premio a una demo viral, sino a un cambio de método en biología.

Con todo, el valor simbólico va más allá del galardón. El Nobel consolida a DeepMind como referencia absoluta de la IA aplicada a la ciencia y manda un mensaje muy claro: estos sistemas no tienen por qué quedarse en escribir textos o generar imágenes, pueden realmente abrir nuevas puertas al conocimiento.
En este punto el artículo insiste en algo que a veces se pierde en el debate público. Hace falta hacer bastante pedagogía para diferenciar la lógica de los grandes modelos de lenguaje tipo GPT-4 o un futuro GPT-5, de la lógica de la IA científica. Parecen lo mismo porque comparten la etiqueta “IA”, pero por dentro persiguen objetivos muy distintos.
Un modelo como ChatGPT funciona básicamente prediciendo cuál es la siguiente palabra más probable en una secuencia de texto. Es un sistema entrenado para que lo que dice “suene bien”, encaje con lo que ha visto y resulte coherente. Por eso a veces “alucina”: inventa datos o citas con una seguridad que descoloca, porque lo que prioriza es la fluidez de la respuesta, no su contraste con la realidad física.
La IA orientada a la ciencia juega con reglas mucho más duras. Su objetivo es predecir comportamientos físicos y químicos en el mundo real, no cadenas lingüísticas. Está constreñida por las leyes de la física. Si un modelo de este tipo ignora esas reglas, el resultado no solo es incorrecto, es inmediatamente descartado por los experimentos y por las simulaciones de referencia.
Hasta ahora, el método científico seguía un ciclo bastante claro: observación, hipótesis y experimentación en laboratorio. Entre que alguien tenía una idea y la probaba en un entorno físico podían pasar meses, años y muchísimo dinero. Miles de hipótesis ni siquiera llegaban a probarse por falta de tiempo o recursos.
La inteligencia artificial introduce una fase intermedia de simulación masiva. Una vez que formules una hipótesis, vas a poder pasarla por modelos que prueban millones de variables, condiciones y combinaciones antes de pisar el laboratorio. Es como añadir una capa de ensayo virtual que filtra de golpe todos los caminos que no tienen pinta de funcionar.
Gracias a esa simulación basada en IA, los científicos descartan millones de rutas erróneas sin tocar una pipeta. El experimento físico llega cuando las opciones ya están muy afinadas y eso acelera el progreso de forma llamativa. Aquí la inteligencia artificial no sustituye al laboratorio, sino que actúa como catalizador que ahorra tiempo, esfuerzo y, sobre todo, dinero.
DeepMind ve ese potencial tan claro que ha creado una escisión comercial específica, llamada Isomorphic Labs, dedicada exclusivamente al descubrimiento de nuevos medicamentos con IA. La idea es aprovechar lo aprendido con AlphaFold para diseñar fármacos desde cero, ajustando moléculas a dianas concretas y reduciendo los años que suele costar sacar un medicamento al mercado.
DeepMind no está sola en este enfoque de “IA para la ciencia”. El artículo cita varios ejemplos que ayudan a entender que esto no es una rareza aislada, sino un movimiento más amplio que recorre biología, materiales y clima.
Uno de los casos más llamativos viene de la mano de Microsoft y el laboratorio PNNL (Pacific Northwest National Laboratory). Usando modelos de IA, cribaron nada menos que 32 millones de materiales inorgánicos potenciales. Esa búsqueda habría sido completamente inviable con el método tradicional de prueba y error en laboratorio.
Tras ese filtrado masivo, identificaron un nuevo material capaz de reducir el uso de litio en baterías en un 70 %. En un momento en el que el litio es caro, estratégico y con un impacto ambiental alto en su extracción, ese hallazgo no es una curiosidad académica. Es un ejemplo directo de cómo la inteligencia artificial puede acelerar soluciones a problemas industriales y ambientales muy concretos.
La medicina también tiene ya historias claras. El MIT usó modelos de deep learning para buscar compuestos con propiedades antibióticas distintas a todo lo conocido. De ese proceso salió la halicina, un antibiótico capaz de eliminar bacterias resistentes a todos los tratamientos disponibles hasta entonces. No era simplemente una versión mejorada de algo viejo, sino una vía nueva para combatir bacterias multirresistentes.
Este caso refuerza la idea de que la IA no se limita a optimizar un poco lo que ya conocemos. Puede abrir espacios de búsqueda completamente diferentes, donde ningún investigador humano habría mirado porque el espacio de posibilidades es demasiado grande. Al final siempre hace falta volver al laboratorio para validar los hallazgos y ajustar dosis, efectos secundarios y aplicaciones reales.
En otro frente totalmente distinto, NVIDIA demuestra que también se puede hacer ciencia del clima con IA. Más allá de fabricar chips, la empresa ha construido un “gemelo digital” de la Tierra llamado Earth-2. En ese sistema corren modelos como FourCastNet, diseñados para predecir fenómenos meteorológicos extremos.
Estos modelos pueden anticipar eventos como tormentas intensas o olas de calor miles de veces más rápido que los superordenadores clásicos y con un consumo energético muy inferior. Eso significa que vas a poder hacer más simulaciones, probar más escenarios y planificar mejor infraestructuras, seguros o políticas públicas frente a un clima cada vez más extremo.
A la vista de todo esto, la frase de que la inteligencia artificial “cambiará el mundo” empieza a sonar diferente. Desde la llegada de ChatGPT, repetimos esa idea casi como un mantra, pero el cambio transformador aún no se ha materializado de forma clara en tu experiencia diaria con el móvil o el portátil. Sigues mandando correos, escribiendo documentos y viendo vídeos como siempre, solo que algo más rápido.
La revolución profunda, según defiende el artículo y refuerza el documental The Thinking Game, está ocurriendo en otro plano menos visible: el de la ciencia. Ahí es donde la IA está empujando de verdad nuevas fronteras en biología, medicina, materiales y clima, muchas veces sin que lo veas en titulares espectaculares o en memes virales.
Si miras los próximos años, las señales a vigilar no serán solo la versión de turno de GPT o el nuevo generador de vídeo. Habrá que fijarse en cosas como cuántas nuevas moléculas candidatas a fármaco se descubren con ayuda de modelos, cuántos materiales para baterías o paneles solares salen de estas simulaciones o cuánto mejora la anticipación de fenómenos extremos gracias a gemelos digitales como Earth-2.
La gran paradoja es que, mientras buena parte de la industria de la inteligencia artificial nos vende fuegos artificiales y promesas de productividad inmediata, la verdadera rareza está en proyectos como los de DeepMind, Microsoft, el MIT o NVIDIA. Ahí la IA para la ciencia ya está cambiando la forma en que entendemos el mundo y, poco a poco, marcará mucho más tu vida cotidiana que cualquier meme generado con estilo Studio Ghibli.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.