Cuando Cristóbal Valenzuela habla de rodajes, no piensa solo en cámaras y focos. Piensa en modelos de inteligencia artificial capaces de convertir una idea en una escena lista para el montaje, y hacerlo en cuestión de días en lugar de semanas. Runway, la empresa que dirige desde Nueva York, está empujando justo ese cambio y lo está haciendo bastante antes de que nombres como Sora o Veo se hayan hecho famosos.
Runway nació en 2018 de la mano de tres compañeros de máster de la Tisch School of the Arts, en la Universidad de Nueva York, con una obsesión muy clara: aplicar redes neuronales a la creación de imágenes en vídeo. Es decir, no solo generar fotos, sino clips que se mueven, cambian y se pueden integrar en un rodaje real.

La empresa fue la primera en lanzar una herramienta de generación de vídeo con IA al mercado comercial y llegó, según recuerda Valenzuela, “un año y medio antes” de la primera versión de Sora de OpenAI o de Google Veo 2. Ese margen de tiempo les permitió colarse en un espacio muy específico: el de las producciones profesionales que ya buscan resultados serios, no solo clips curiosos para redes sociales. Su fundador insiste en que “esto todavía está empezando” y que lo importante viene a continuación.
En la práctica, lo que te ofrece Runway es una especie de mesa de efectos especiales apoyada en IA. Sus herramientas se usan en la industria audiovisual para editar, modificar o generar escenas concretas que luego se integran sin problema en programas de edición tradicionales como parte del flujo habitual de trabajo.
El foco inicial fue el cine y, más en concreto, la postproducción. Ahí es donde cada segundo de metraje cuenta y donde el presupuesto se dispara con cualquier cambio de guion. Con Runway, equipos de rodaje pueden rehacer una escena sin tener que volver al set, o probar varias versiones de una misma toma hasta dar con el tono exacto.
Un ejemplo claro es la serie House of David, cliente de Runway. En este proyecto se desarrolló un sistema específico que generaba imágenes con IA y luego las proyectaba en pantalla durante el rodaje. En lugar de construir decorados gigantes o recurrir a croma en todas partes, parte del entorno se creaba con modelos generativos. El resultado fue un recorte importante tanto de presupuesto como de semanas de trabajo en escenas complejas que, con el método clásico, habrían necesitado meses.
También te puede interesar:Runway lanza Act-One: La nueva herramienta para crear animaciones realistas con IAValenzuela lo resume con una frase que, en la industria, empieza a repetirse mucho: “Con IA puedes reducir de semanas a días lo que se tarda en hacer una escena de cine”. Según sus cifras internas, la tecnología de Runway permite que algunas escenas cinematográficas muy costosas pasen de semanas a días, e incluso de meses a unos pocos días de trabajo. Cuando mueves esas magnitudes, no solo cambias el calendario, también cambias qué tipo de proyectos se atreven a arrancar los estudios.
El uso de Runway ya no se limita al cine. Su vídeo con inteligencia artificial se emplea también en publicidad y marketing, donde los equipos necesitan versiones rápidas de campañas para distintas plataformas, y en diseño, donde se exploran variaciones visuales sin rehacer todo desde cero. La herramienta aparece también en estudios de videojuegos, que la usan para prototipos de escenas o ideas de entornos que luego se refinan de forma más tradicional.
En arquitectura la transformación es incluso más clara. Hasta hace poco, crear un render arquitectónico de calidad implicaba modelar en CAD, añadir texturas, definir luces y configurar movimientos de cámara con precisión. Todo esto suponía un proceso complejo, caro y reservado a equipos especializados. Ahora, con Runway, un arquitecto puede introducir una imagen de referencia, indicar al modelo lo que quiere conseguir y obtener un vídeo en alrededor de 10 segundos.
El estudio KPF, en Estados Unidos, ya ha aplicado este enfoque. Donde antes necesitaban un flujo con varios programas y muchas horas, ahora pueden iterar sobre la misma propuesta varias veces al día. El vídeo generado con IA no sustituye al trabajo final de detalle, pero sí acelera los pasos intermedios y permite enseñar ideas dinámicas al cliente mucho antes. Valenzuela insiste en que el objetivo no es borrar profesiones, sino cambiar cómo se reparte el tiempo en cada proyecto.
Ese punto, el del empleo, es uno de los que más se le plantea. Ante el temor de directores de fotografía, montadores o técnicos de efectos especiales, Valenzuela recuerda que la tecnología “siempre ha creado y modificado trabajos, además de automatizarlos”. Algunos roles del sector audiovisual van a cambiar o a ser automatizados en parte, pero, según él, aparecerán muchos otros nuevos ligados al uso de estas herramientas.
Para él, igual que se contrata gente que sabe operar una cámara y editar vídeo, se acabará contratando a quienes sepan generar, editar y modificar vídeos con IA. La oportunidad, dice, está en esos nuevos perfiles. La clave ya no será solo colocar bien las luces, sino también saber qué pedirle al modelo, cómo guiarlo y cómo integrar el resultado en una narrativa compleja sin que se note la costura.
También te puede interesar:Frames: El nuevo modelo de Runway que redefine la generación de imágenes con IAEn paralelo a todo esto, Valenzuela marca muy claro dónde están todavía los límites del vídeo con IA. Uno de los retos más importantes hoy es crear contenido de larga duración, de entre 60 y 90 minutos, con consistencia total de personajes e historia. A día de hoy, esos sistemas se defienden mejor en clips cortos o escenas concretas, pero se pierden cuando se trata de sostener un largometraje entero sin errores de continuidad.

Él mismo admite que todavía no se puede generar una película larga totalmente consistente solo con IA, aunque cree que es algo que “ocurrirá pronto”. La dificultad no está solo en producir más minutos de vídeo, sino en mantener el mismo personaje, el mismo tono y la misma lógica narrativa durante una o dos horas. Los avances en modelos de memoria y en control de personajes apuntan a mejoras visibles en los próximos ciclos de entrenamiento.
Otro hito pendiente es el contenido de vídeo completamente en tiempo real. La predicción de Valenzuela es clara: dentro de poco podrás pedir en cualquier momento un tutorial personalizado en vídeo sobre cualquier tema, generado al vuelo para ti. Imagina que le pides a un sistema una explicación visual, paso a paso, para arreglar una avería concreta de tu coche o para entender un ejercicio de matemáticas, y que el vídeo se crea en el momento según tu nivel.
En videojuegos el debate se divide en dos capas. Por un lado está la generación de píxeles en tiempo real, es decir, lo que efectivamente ves en pantalla. Por otro, la lógica del juego, el estado y la parte determinista que hace que las reglas se cumplan siempre igual. Según Valenzuela, estamos muy cerca de conseguir esa generación de píxeles con IA en tiempo real, pero mantener de forma estable el estado y la lógica todavía necesita tiempo de desarrollo.
Si lo comparamos con la experiencia actual, el salto mental es fuerte. Hoy los entornos de videojuegos se preparan con mucho tiempo, como en una gran obra de arquitectura digital. Equipos de diseño crean manualmente cada escenario, geometría y ambiente del mundo del juego. En un título en primera persona, tipo Call of Duty, cada edificio y cada elemento que ves ha sido colocado deliberadamente por alguien durante años de producción.
Todo lo que el jugador recorre ahora mismo forma parte de un mundo preconstruido que ya existía antes de pulsar “nueva partida”. La propuesta generativa de Valenzuela va en dirección contraria: en esa visión, no habría escenarios fijos ni modelos 3D cerrados esperando al jugador. Cada paso que das por el mapa se convertiría en la semilla de un nuevo trozo de mundo que el modelo crea en ese mismo instante, con escenas que nadie ha diseñado antes.
En ese enfoque, cuando el jugador se mueve hacia la izquierda, lo que aparece en pantalla nunca ha sido visto ni preparado por un equipo humano. El modelo de IA se encarga de inventar el entorno del juego a medida que avanzas, como si el mapa se dibujara solo en tu presencia. Runway, según explica Valenzuela, ya está trabajando en una pieza clave para que esto tenga sentido: la persistencia de esos mundos generados.
La persistencia significa que el entorno recuerde lo que has hecho. Si lanzas una bomba en un lugar concreto, el sistema debería “saberlo” y, cuando vuelvas más tarde, mantener las consecuencias. Sin esta memoria, cada partida sería vistosa pero vacía, porque nada duraría más de unos segundos en pantalla. Con ella, en cambio, podrías tener mundos generados casi desde cero, pero con reglas internas que los hagan jugables y reconocibles a largo plazo.
Todo este despliegue técnico choca directamente con una preocupación muy concreta de los estudios: la propiedad intelectual. Runway trabaja hoy, según su CEO, con casi todos los grandes estudios de Hollywood, y una parte central de esa colaboración es entender qué contenidos necesitan proteger y cómo ayudarles a hacerlo en la práctica. No se trata solo de evitar demandas, sino de dar a los creadores la seguridad de que controlan qué se entrena con sus catálogos.
Para eso, la compañía ha creado programas específicos de licencias de contenido usados en el entrenamiento y funcionamiento de sus modelos. El objetivo es que haya un marco claro para saber de dónde salen las imágenes y vídeos con los que aprende el sistema, y qué derechos se reconocen en cada caso. Esta parte es menos vistosa que las demos virales, pero determina hasta dónde se atreven a llegar los estudios con una herramienta de vídeo con inteligencia artificial integrada en sus flujos.
Los comentarios de Valenzuela encajan con lo que se ve en contratos y acuerdos que manejan productores y abogados del sector, según cuentan fuentes de la industria consultadas para esta pieza. No se trata tanto de una guerra abierta contra la IA, sino de negociar en qué condiciones estas herramientas se convierten en una extensión del estudio y no en un riesgo incontrolado para sus activos.
Mirando un poco más allá del estudio de cine clásico, Valenzuela está convencido de que la tecnología de vídeo con IA ya permitiría que plataformas como Netflix o Amazon Prime abran un modelo creativo similar al de YouTube. Es decir, que los usuarios puedan crear cortos o series con IA dentro de la propia plataforma y compartirlos, con incentivos económicos parecidos a los de los creadores de contenido en vídeo tradicional.
A su juicio, la principal barrera para ese escenario no es técnica, sino logística y de distribución. Hablamos de revisar contenidos, gestionar derechos, ordenar catálogos y definir cómo se paga a cada creador. Según sus estimaciones, estamos a meses de ver las primeras experiencias en las que usuarios generan contenido con IA dentro de plataformas de streaming. Al principio quizá no se trate de películas completas de 60 o 90 minutos, pero sí de formatos más cortos hechos por usuarios.
Valenzuela se muestra “muy seguro” de que el año próximo empezaremos a ver este tipo de modelos de creación y distribución con IA en servicios de vídeo. Habrá límites, filtros y debates intensos, pero la base técnica, afirma, ya está. Y aquí vuelve a su argumento inicial: cuando la creación de vídeo con inteligencia artificial se vuelve tan rápida, sencilla y barata, lo que cambia no es solo la herramienta, sino quién puede contar historias y con qué recursos.
Si juntamos todas estas piezas, la imagen que deja Runway es la de una IA que ya recorta de semanas a días el trabajo de una escena de cine, que acelera renders arquitectónicos, que abre vías nuevas para la publicidad y el diseño, y que apunta a videojuegos donde el mundo se genera contigo paso a paso. Quedan retos por resolver, desde la consistencia en largometrajes hasta los derechos y la logística, pero si las previsiones de su CEO se cumplen, veremos más vídeos con IA de lo que hoy imaginas.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.