En los últimos días, posiblemente hayas visto en TikTok y otras redes una sucesión de vídeos llamativos generados por inteligencia artificial que están desatando una gran polémica. Usando Veo 3 de Google, usuarios han creado clips hiperrealistas de apenas ocho segundos, pero cargados de contenido abiertamente racista y ofensivo hacia personas negras.
Muchos de estos vídeos se han viralizado en horas, acumulando millones de reproducciones, y han reabierto el debate sobre los riesgos de las IA generativas aplicadas a la producción de contenido.
Aunque Google asegura que su herramienta incluye filtros avanzados y marcas de agua invisibles para detectar y rastrear abusos, la realidad demuestra que estos mecanismos de seguridad han sido insuficientes. Los creadores han conseguido burlar las barreras y difundir vídeos que reproducen estereotipos deshumanizantes y caricaturas históricamente usadas para insultar y degradar.
La situación es tan grave que, además de la viralización, han surgido tutoriales que enseñan cómo replicar y lucrarse con este tipo de contenido racista generado por Veo 3. Si has sentido rabia o impotencia al verlos, no eres la única persona; la repercusión social y mediática ya está siendo global.
Lanzada en mayo de 2025, esta herramienta de IA generativa te permite crear vídeos hiperrealistas de hasta ocho segundos a partir de descripciones escritas, usando tecnología de última generación. Google la promocionó como una solución responsable y segura, implementando filtros de contenido, barreras al abuso y marcas de agua digitales invisibles como SynthID para poder rastrear el origen de los vídeos.
Los usuarios han encontrado formas de sortear estos controles. Los filtros diseñados para bloquear indicaciones problemáticas se han mostrado incapaces de frenar la creatividad maligna o el uso de prompts camuflados.
También te puede interesar:Google Veo 3 promete vídeos por IA tan realistas que desafían a la mayoría a notar la diferenciaLos creadores han generado clips racistas que reproducen —en apenas segundos— ideas peligrosas, insultos visuales y representaciones degradantes, especialmente contra personas negras, mezclando elementos de violencia, delincuencia y desprecio.
Resulta impactante ver que vídeos con referencias grotescas —personas negras caricaturizadas como “simios”, “monstruos” o “delincuentes”— hayan llegado a superar los 14 millones de visualizaciones en TikTok. ¿Qué los hace tan virales? Por un lado, esos vídeos combinan el polémico tirón visual de la IA de vídeo con estereotipos históricos de odio e ignorancia.
Según expertas como Meredith Broussard y Nicol Turner Lee, estas imágenes evocan los “minstrel shows” del siglo XIX, donde el racismo se convertía en estrategia de entretenimiento y manipulación.
La inteligencia artificial, en vez de corregir ese pasado, puede acabar amplificándolo a una velocidad sin precedentes. Las asociaciones ofensivas —personas negras vinculadas a comida basura, violencia o lenguaje vulgar— no son un accidente: son el reflejo de sesgos históricos ahora multiplicados por la potencia de la IA y el alcance global de las redes sociales.
Lo más curioso es que estos vídeos se hacen populares y no desaparecen rápido, aunque estén prohibidos. La clave está en los algoritmos de recomendación de plataformas como TikTok, Instagram y YouTube. Estos sistemas premian el contenido provocador e impactante, dándole visibilidad y haciéndolo viral de forma casi automática.
Cuando un clip racista consigue interacción, genera un ciclo de retroalimentación: el “odio” se premia con atención, se comparte y se duplica el alcance. Las mismas plataformas reconocen la gravedad: TikTok afirma haber eliminado varias cuentas antes incluso de que se hicieran públicas las denuncias y deja claro que prohíbe “estereotipos negativos sobre grupos protegidos”.
También te puede interesar:YouTube Quiere Integrar Veo 3: Generación de Vídeo por IA para Shorts con Mejor CalidadLa realidad es que muchos vídeos vuelven a circular desde nuevas cuentas, o migran fácilmente a otras redes donde la moderación tarda más en actuar.
Google incorporó medidas de seguridad en Veo 3: filtros para bloquear instrucciones inadecuadas y marcas de agua digitales (SynthID) que permiten rastrear el origen del contenido. Pero el problema viene cuando se pueden sortear ambas barreras con relativa facilidad.
Por ejemplo, los usuarios pueden editar y recortar los vídeos para eliminar cualquier marca visible que delate la procedencia desde Veo 3, dificultando la identificación real del creador o la herramienta empleada.
No existe actualmente un detector público o accesible para comprobar si un clip viral ha sido generado con este sistema concreto. Esa opacidad complica el trabajo de quienes luchan contra el contenido de odio: plataformas, investigadores y usuarios de a pie apenas pueden identificar la raíz del problema, ni denunciarlo con eficacia.
Algunos creadores están explotando el fenómeno para su propio beneficio. Por increíble que parezca, ya se venden tutoriales que explican cómo sortear los filtros de Veo 3 y reproducir los vídeos racistas. No solo copian el contenido, sino que enseñan a monetizarlo, multiplicando el alcance del problema y contribuyendo a la creación de una economía subterránea basada en la discriminación.
Esta situación lleva el debate a otra dimensión: ¿qué responsabilidad tienen quienes lucran con el odio? Organizaciones sociales y medios independientes han exigido una moderación proactiva que incluya la eliminación sistemática del contenido reincidente, la sanción a quienes venden guías de evasión y la revisión manual de los materiales más sospechosos.
También te puede interesar:Contenidos Generados por IA Serán de Dominio Público en México Según El Fallo de la SCJNAsí son las principales demandas y sugerencias que varios expertos y activistas están poniendo sobre la mesa:
Frente a la velocidad de propagación del odio, se pide una moderación más activa en todas las plataformas. Esto incluye:
Con todo, muchos creen que la solución no puede quedarse en parches técnicos. Se exige una regulación legal clara y global: leyes que obliguen a la transparencia, la rendición de cuentas y la auditoría ética de las herramientas de IA, para evitar que las empresas antepongan la viralidad al bienestar social o la dignidad humana.
Si te preguntas cómo actuar ante estos vídeos, vas a poder seguir varios pasos que aumentan la seguridad y la responsabilidad:
El caso de Veo 3 no es un episodio aislado. Estas IAs se están empleando también para crear deepfakes políticos, falsificar eventos y alimentar campañas de manipulación. El peligro es real: si no se regula, la IA generativa de vídeo puede institucionalizar —de forma automática— patrones de discriminación y desinformación a gran escala, afectando desde la autoestima individual hasta el debate democrático y la convivencia.
La capacidad de producir vídeos hiperrealistas, combinar estereotipos dañinos y lograr alcance masivo en minutos supone una amenaza nueva y urgente. Hacen falta tanto educación como supervisión para garantizar que las próximas generaciones vivan en un entorno digital más justo, plural y seguro.
El escándalo de los vídeos racistas creados con Veo 3 se confirma como una advertencia global. Si las inteligencias artificiales de generación de vídeo siguen creciendo sin filtros técnicos eficaces ni vigilancia legal, la amplificación de los sesgos y la desinformación serán inevitables. El reto está en construir tecnologías inteligentes que no solo asombren, sino que también respeten la diversidad y construyan un futuro digital realmente digno para todas las personas.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.