Las grandes tecnológicas consideran clave apoyarse en creadores de contenido para vender sus servicios de inteligencia artificial, pero ahora también impulsan otra pieza del engranaje: usar IA para fabricar nuevos creadores. En ese tablero, Heygen, una empresa de Los Ángeles fundada en 2020 como MovioLab, gana peso con sus avatares digitales.

La compañía, liderada por Joshua Xu y valorada en más de 500 millones de dólares, acaba de presentar Avatar V. Según Heygen, se trata de su modelo de avatar más avanzado. Y no es un detalle menor: más de 40.000 empresas ya pagan por sus videos corporativos generados con estas figuras sintéticas.

HeyGen presenta a Avatar V, aseguran que se trata de su modelo de avatar mas avanzado,

La oportunidad es evidente. Un contenido que antes exigía semanas de rodaje, maquillaje, cámaras y edición ahora puede resolverse en minutos. Además, el costo cae de forma fuerte frente a una producción tradicional con influencers o presentadores humanos.

El mecanismo, sin embargo, no consiste solo en “poner una cara digital”. El informe técnico de 30 páginas que acompaña a Avatar V revela que la clave está en tres zonas muy concretas: microexpresiones, gestos y sincronización labial, especialmente en el ritmo del habla. Ahí es donde un avatar convence o se rompe.

Si una pieza llega tarde, aparece el problema central de esta industria: la latencia (demora de respuesta). Es el pequeño retraso que vuelve extraño a un rostro digital. Como cuando una puerta automática tarda un segundo de más y obliga a frenar el paso, esa mínima demora rompe la ilusión de naturalidad.

La carrera por una presencia que parezca humana

Heygen no está sola. Compite con Runway y ElevenLabs en video generativo, y también con nombres como Kling AI, Veo 3, OmniHuman y Seedance en el terreno de los avatares. La competencia no depende solo de quién logra el mejor modelo, sino también de quién ofrece una interfaz simple basada en prompts (instrucciones en texto) para que cualquiera pueda usarla.

Joshua Xu, cofundador y CEO, decidió lanzar HeyGen una vez descubrió que, gracias a la IA podía evitar el proceso de grabación.

Ese punto explica por qué las Big Tech miran este sector con tanta atención. No buscan únicamente chatbots que respondan preguntas. Buscan entidades que se parezcan cada vez más a una persona, con voz, rostro, gestos y capacidad de sostener una conversación en tiempo real.

Además, el movimiento tiene una lógica comercial directa. Si hoy los creadores ayudan a promocionar servicios de IA, mañana esos mismos creadores podrían generar sus propios dobles o incluso nuevos personajes digitales. La fábrica ya no produciría solo contenido: produciría presentadores, voceros e influencers.

Ahí aparece un cambio práctico para la vida diaria. Estos sistemas podrían entrar en reuniones, entrevistas, clases o conferencias. Un avatar conectado a un modelo de lenguaje, es decir, a un sistema que entiende y genera texto o voz, podría contestar en vivo, con apariencia humana y respuesta inmediata.

La industria todavía está en fase emergente. Pero el cableado central ya está instalado, y cada mejora en ritmo, gesto y sincronía acerca a estos avatares a una frontera nueva: dejar de parecer una animación para empezar a funcionar como una presencia.

Y cuando eso ocurra, la pregunta no será si estamos hablando con una máquina, sino qué tan natural se volvió abrirle la puerta.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios