Cuando piensas en una IA de vídeo, seguramente te viene a la cabeza algo todavía un poco “artificial”. Con Runway Gen-4.5 la cosa empieza a cambiar bastante: la propia empresa presume de escenas tan realistas que pueden confundirse con una grabación de cámara.
Te contamos qué promete este modelo, qué consigue en la práctica y también en qué sigue fallando, para que tengas una idea clara de lo que puedes esperar al crear tus vídeos con texto.
Runway Gen-4.5 es un modelo de texto a vídeo por IA que toma un prompt escrito y lo convierte en una secuencia animada. La novedad está en que Runway asegura que esta versión genera visuales más precisos que su modelo anterior, tanto en cómo se ve la escena como en cómo se comportan los objetos que aparecen.
Según la compañía, con Runway Gen-4.5 vas a poder producir resultados descritos como “cinemáticos y altamente realistas”. Esto quiere decir que el aspecto final se acerca más a un plano de película que a una animación genérica de IA, con mejor control de la luz, el movimiento y el encuadre. Esa mejora también trae un problema evidente: cada vez cuesta más distinguir entre contenido real y generado por IA, algo que afecta tanto a creadores como a espectadores.
Si te preguntas qué cambia exactamente en el movimiento, Runway Gen-4.5 se centra en la precisión física y visual. La empresa habla de un nivel “sin precedentes” dentro de su propia plataforma, lo que se traduce en que los objetos ya no se mueven como si flotaran sin reglas, sino que siguen un comportamiento más cercano al mundo real.
Runway afirma que los elementos generados por la IA en Gen-4.5 se desplazan con peso, inercia y fuerza realistas. Esto se nota, por ejemplo, en cómo cae una caja, cómo gira un coche en una curva o cómo responde un personaje cuando acelera y frena. Vas a poder crear escenas donde un objeto no cambia de velocidad o dirección de forma brusca sin sentido, sino que responde a algo parecido a la física que conoces.
Otra parte clave del realismo de Runway Gen-4.5 está en cómo maneja líquidos y fluidos. La compañía explica que el modelo puede simular líquidos que fluyen con dinámicas físicas consideradas adecuadas, algo que hasta hace poco solía verse extraño o muy “de videojuego antiguo” en muchas IAs de vídeo.
Esto afecta a detalles como el agua que salpica, una bebida que se vierte o el movimiento del mar durante una escena. En teoría, con Runway Gen-4.5 vas a poder generar planos donde el agua responde mejor a los objetos que la atraviesan y a la gravedad, sin deformaciones tan raras ni cambios repentinos en la forma del líquido.
Una de las promesas más llamativas es que Runway Gen-4.5 puede generar escenas muy detalladas sin bajar la calidad general del vídeo. Muchas IAs, cuando llenas una toma de elementos, tienden a perder nitidez, a mezclar formas o a fallar en los fondos. Aquí, según Runway, algo cambia.

La empresa sostiene que su nuevo modelo mantiene la calidad incluso cuando el usuario describe entornos complejos, con varios personajes, objetos pequeños y movimiento constante. Con todo, esto no significa que cada frame sea perfecto, pero sí que vas a poder pedir planos más ricos visualmente sin que el vídeo se convierta en una mezcla borrosa de píxeles.
Si ya has probado alguna IA de vídeo, sabrás que muchas veces no hace exactamente lo que le pides. Runway insiste en que Gen-4.5 sigue mejor las instrucciones del prompt que las versiones anteriores. Esto afecta tanto al contenido de la escena como al estilo visual y la duración de las acciones.
Con este modelo, vas a poder describir situaciones más complejas, con varios pasos o cambios en el plano, y la IA tenderá a respetar mejor ese guion. La idea es que no tengas que repetir el prompt una y otra vez para acercarte a lo que querías, sino que Runway Gen-4.5 se acerque más a la primera a tu intención original.
Algo que preocupa a cualquiera que genera vídeo con IA es el tiempo de espera. Runway subraya que Gen-4.5 mantiene la misma velocidad y eficiencia que su predecesor, a pesar del salto en calidad. No promete ser el modelo más rápido del mundo, pero sí mantener un ritmo similar al que ya conocías en la plataforma.

Esto significa que vas a poder aprovechar las mejoras en realismo y precisión física sin alargar los tiempos de render. En un contexto donde muchas herramientas de texto a vídeo se vuelven lentas cuando aumentas la resolución o la duración, Runway Gen-4.5 intenta colocarse como una opción que mejora el resultado sin penalizar tanto el flujo de trabajo.
Quizá te preguntes cuándo vas a poder probar todo esto. Runway explica que Gen-4.5 se está implementando de forma gradual para su base de usuarios. Eso implica un despliegue por fases, donde algunas cuentas lo reciben antes y otras algo más tarde.
En cualquier caso, la intención de la empresa es que este modelo de texto a vídeo termine disponible para todos, sin necesidad de trucos ni accesos ocultos. Si ves que todavía no te aparece la opción de Runway Gen-4.5, lo normal es que solo tengas que esperar a que la plataforma complete esa actualización escalonada.
Aunque Runway Gen-4.5 suene potente, la propia compañía admite limitaciones importantes. Una de las más relevantes está en la permanencia de los objetos en escena. En ocasiones, ciertos elementos pueden aparecer y desaparecer de forma extraña, o cambiar de posición sin una explicación lógica durante el vídeo.
La otra gran limitación tiene que ver con el razonamiento causal. Runway reconoce que el modelo puede cometer errores en la secuencia de causa y efecto. Un ejemplo que ponen es especialmente claro: en alguna toma, una puerta podría abrirse antes de que la persona gire el pomo. Parece un detalle pequeño, pero rompe la sensación de realismo que Runway Gen-4.5 quiere conseguir.
Para que lo veas claro, imagina que pides a Runway Gen-4.5 un plano donde alguien lanza una pelota contra una ventana. Un fallo típico de causalidad sería que la ventana se rompa ligeramente antes de que la pelota llegue a tocarla, o que los trozos de cristal aparezcan en el aire sin que haya ocurrido el impacto.
La empresa admite que este tipo de problemas siguen presentes en su modelo de texto a vídeo. Vas a poder generar vídeos muy espectaculares, pero en algunos casos tendrás que revisar con ojo crítico si la secuencia de acciones “tiene sentido” o si hay algún momento en que el efecto se adelante a la causa.
Más allá de la física, Runway destaca que Gen-4.5 mejora la gestión de diferentes estilos visuales. El modelo está entrenado para ser más consistente tanto en estilos fotorrealistas como en estilos estilizados y cinemáticos, lo que te da margen para jugar con el acabado final del vídeo.
Según Runway, vas a poder alternar entre un aspecto cercano a imagen real, un estilo más cercano a animación o incluso un enfoque tipo “película antigua”, manteniendo una calidad alta en todos los casos. La clave está en que los visuales son más consistentes, es decir, el estilo se mantiene durante todo el clip y no cambia de golpe de un frame a otro.
En el terreno del fotorrealismo, Runway va más lejos y sostiene que algunos resultados de Gen-4.5 pueden ser indistinguibles de grabaciones reales. Habla de un nivel de detalle y precisión de aspecto muy verosímil, donde luces, sombras, texturas de piel o materiales se acercan mucho a una cámara física.
Esto abre muchas posibilidades para creadores que quieren prototipar anuncios, videoclips o escenas para cine y series sin rodaje real. También plantea dudas sobre desinformación y contenidos manipulados, porque si un vídeo generado por IA cuesta tanto de detectar, el riesgo de confundir al público crece.
En cualquier caso, Runway Gen-4.5 se presenta como una de las herramientas más serias para quien busca ese tipo de acabado ultra realista en sus proyectos.
El avance de Runway Gen-4.5 no se da en vacío. OpenAI también está moviendo ficha con su propio modelo texto a vídeo, Sora 2, que compite directamente en el terreno del realismo físico y visual. Ambas empresas están intentando que sus vídeos generados por IA se acerquen lo máximo posible a escenas captadas con cámara.

En el caso de Sora 2, OpenAI ha destacado mejoras claras en la simulación de la física. El responsable del proyecto, Bill Peebles, ha puesto como ejemplo que Sora 2 puede representar con bastante precisión volteretas hacia atrás sobre una tabla de paddle en el agua. Esto implica coordinar la postura del cuerpo, el movimiento de la tabla y la reacción del agua en una misma escena compleja.
Peebles también señala que en Sora 2 las dinámicas de fluidos y la flotabilidad están modeladas con bastante fidelidad en escenas como esa. Es decir, el agua responde al cuerpo y a la tabla de forma coherente, y los objetos flotan o se hunden como cabría esperar en la vida real.
Esta comparación ayuda a entender el contexto en el que aparece Runway Gen-4.5. Tanto Sora 2 como la propuesta de Runway buscan dominar el mismo terreno: vídeos con física creíble y aspecto visual muy pulido. Como creador, esto te beneficia porque vas a poder elegir la IA de vídeo que mejor encaje con tu proyecto, sabiendo que la competencia entre ambas empuja la calidad hacia arriba.
Al final, Runway Gen-4.5 quiere colocarse como un modelo de texto a vídeo que combina escenas muy realistas, buena gestión de estilos visuales y una velocidad similar a la de su versión anterior. Vas a poder crear tomas cinemáticas con objetos que se mueven con peso, líquidos con comportamientos creíbles y un nivel fotorrealista que, según la empresa, a veces cuesta diferenciar de una grabación real.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.