La conversación sobre privacidad y contenidos sintéticos acaba de subir de nivel. La nueva Sora de OpenAI aterriza como una red social de vídeo corta, muy parecida a TikTok, pero con un foco claro: generar clips hiperrealistas con tu cara o con la de personajes conocidos.
La Sora de OpenAI es una aplicación social en acceso anticipado por invitación que combina un feed de vídeos con un generador capaz de crear escenas muy realistas. Su motor de vídeo, Sora 2, mejora la coherencia física de los objetos y los movimientos, así que los resultados parecen grabados con cámara real. Ese realismo también dispara los riesgos de desinformación y acoso.
Vas a poder subir tu cara para crear “cameos”, mezclarla con escenarios surrealistas y compartir el resultado en el feed. La Sora de OpenAI muestra avisos sobre posibles violaciones de imagen o copyright, pero el contenido que circula deja ver los límites borrosos de esas normas. Con todo, su planteamiento social hace que cada clip pueda propagarse muy rápido.
El lanzamiento llega en una fase cerrada y solo podrás entrar con invitación. Dentro, la Sora de OpenAI ya está llena de vídeos extremadamente realistas del propio Sam Altman en situaciones absurdas. La empresa afirma que hay controles de seguridad activos y pantallas que preguntan de vez en cuando por tu estado de ánimo como parte de un enfoque de cuidado del usuario.
La función clave es el cameo, que transforma tu cara en un actor digital. El proceso incluye la captura de datos biométricos básicos y dura pocos minutos. Vas a poder saltarlo al registrarte o completarlo más tarde, pero si lo completas, el generador te colocará en escenas casi cinematográficas.
También te puede interesar:Se ha Filtrado Sora, el Generador de Vídeo de OpenAiRecuerda que lo que subes puede circular fuera de tu control. En cualquier caso, vas a poder borrar tu cameo cuando quieras y cambiar quién tiene acceso para usarlo en nuevos clips.
Sam Altman ha habilitado su cameo para todos. Por eso el feed de la Sora de OpenAI está inundado de vídeos suyos. Muchos lo interpretan como un gesto para insinuar que el producto no es peligroso, y otros lo usan para parodiar o criticar la ética del sistema.
Dentro de la app verás escenarios surrealistas con Altman: una granja de cerdos con smartphones, campos llenos de personajes de Pokémon o escenas en Starbucks y McDonald’s al lado de Pikachu y Eric Cartman. La Sora de OpenAI permite generar clips tan creíbles que a primera vista parecen reales.
Una parte de los usuarios celebra que la app muestre marcas registradas y personajes como Nintendo, Pokémon o Mario como si nada. Esa “libertad” trae cola: ¿te has fijado en cuántos vídeos rozan o cruzan límites de derechos de autor y de imagen? Aquí es donde emergen los mayores choques legales.
OpenAI ha cambiado la práctica habitual: en lugar de pedir consentimiento previo a los titulares de derechos, aplica un modelo de exclusión voluntaria (tienes que darte de baja si no quieres que tu contenido se use). Esta política genera dudas legales claras, porque la Sora de OpenAI se llena de celebridades, personajes ficticios y marcas sin autorización explícita.
La app incluye avisos sobre posibles violaciones de imagen y copyright, pero la realidad es que el feed abunda en materiales sensibles. Se han detectado bloqueos puntuales: por ejemplo, la app rechazó generar un vídeo que proclamaba amor por los New York Mets. Esa aplicación desigual de los límites complica saber qué está permitido en cada caso.
También te puede interesar:Sora de OpenAI ya Disponible en Europa y Reino UnidoCon todo, muchos creadores siguen publicando vídeos con personajes y logotipos famosos. La Sora de OpenAI convive así con un paisaje legal incierto que tarde o temprano chocará con reclamaciones formales.
El salto de realismo de Sora 2 hace que cualquier clip parezca grabado en el mundo físico. Eso multiplica el potencial de difusión de contenidos sintéticos y, por extensión, su uso para desinformación, acoso y fraudes. La Sora de OpenAI podría convertir una broma privada en un bulo masivo en minutos.
Los deepfakes políticos ya circulaban antes. Un ejemplo son los vídeos ofensivos compartidos por Donald Trump sobre oponentes políticos. Cuando la Sora de OpenAI se abra al público general, la accesibilidad y la facilidad de uso pueden disparar el volumen de contenidos peligrosos y confusos para cualquiera.
La app personaliza la experiencia combinando tu dirección IP con el historial de ChatGPT. Con eso, los resultados pueden parecerte más cercanos, incluso “adivinando” aficiones deportivas por tu ubicación. Esta personalización hace que lo generado por la Sora de OpenAI encaje contigo, pero también abre preguntas sobre privacidad y perfilado.
Si lo comparamos con otras redes, aquí no solo se ajusta el feed, también se ajusta el propio contenido sintético que creas. En cualquier caso, vas a poder revisar qué compartes y reducir señales que no quieras asociar a tu cuenta.
Cuando la Sora de OpenAI salga del acceso por invitación, el volumen de creación y consumo puede crecer a gran velocidad. Con todo, esta expansión llega mientras OpenAI encaja críticas de seguridad, como preocupaciones sobre el impacto de ChatGPT en la salud mental y una demanda que le acusa de facilitar un suicidio.
La empresa defiende su compromiso con la seguridad con controles parentales, avisos y permisos de cameo. La paradoja permanece: ofrecer herramientas para fabricar deepfakes hiperrealistas como un producto de masas conlleva riesgos serios que no se resuelven solo con etiquetas de advertencia. Aquí, tu configuración y tus decisiones siguen siendo la primera barrera.
Sora de OpenAI llega como una red social potente y sencilla para crear deepfakes realistas, con cameos, personalización por IP e historial y un generador muy convincente. Los roces con derechos de autor, la política de opt-out, los ejemplos con Sam Altman, la permisividad con figuras históricas y el riesgo de desinformación dibujan un panorama de oportunidades y cautelas: úsala con cabeza y prioriza tu privacidad en cada paso.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.