Imagínate que entras a TikTok a ver vídeos rápidos y te aparece un anuncio de un supuesto juguete infantil, de color rosa, con forma de flor, que vibra y que una niña maneja como si fuera un bolígrafo. Todo parece inocente a primera vista, pero el texto, el diseño y los gestos dejan claro que el guiño es sexual. Este tipo de vídeo no lo ha grabado nadie con una cámara: lo ha creado una inteligencia artificial.
Ese es el punto de partida de un problema nuevo y preocupante: el CSAM con IA, es decir, material de abuso sexual infantil generado por algoritmos. No siempre muestra sexo explícito ni usa fotos de niños reales, pero sí coloca a menores —reales o sintéticos— en escenas fetichistas y ambiguas que atraen a depredadores.
Si te preguntas qué significa en la práctica que la Internet Watch Foundation (IWF) confirma un 114 % más de CSAM con IA, la respuesta es sencilla y dura a la vez: hay el doble de reportes de abuso sexual infantil generado con inteligencia artificial que hace un año.
Entre enero y octubre de 2024 la IWF del Reino Unido recibió 199 avisos de este tipo de contenido; en el mismo periodo de 2025 ya contaba 426 casos.

Lo más grave es la calidad de ese material. Según la IWF, un 56 % del CSAM con IA que detectan entra en la categoría A, la más alta en su sistema, que incluye escenas con penetración, actividades con animales o rasgos claramente sádicos. Estos niños no existen, pero la violencia que expresan las imágenes es tan extrema como si fueran reales y es consumida por las mismas personas que buscan abusos auténticos.
Otro dato clave es la desigualdad de género: el 94 % de las imágenes ilegales generadas con IA muestran niñas. Para la directora de la IWF, esto encaja con un patrón que ya se veía en la pornografía tradicional, donde el cuerpo de las niñas se “mercantiliza” y se sexualiza sin su consentimiento. Con la IA, esa explotación se multiplica.
También te puede interesar:Nos Hablan de IA General, Pero lo que Buscan con Veo 3 y Sora 2 es Monetizar tu AtenciónLa polémica reciente no nace de estadísticas genéricas, sino de un caso muy concreto: el falso anuncio del juguete Vibro Rose, creado con Sora 2, el último generador de vídeo de OpenAI. Aunque en el vídeo se presenta como un bolígrafo infantil, el objeto tiene forma de flor rosa, vibra, lleva un abejorro en el mango y se acompaña de un botón con la frase “Estoy usando mi juguete rosa”, todo con un claro doble sentido sexual.
Sora 2 se lanzó por invitación en Estados Unidos el 30 de septiembre, y en apenas una semana empezaron a aparecer vídeos como el de Vibro Rose en la sección “For You” de TikTok. La cuenta @fujitiva48 difundió el falso anuncio con una niña fotorrealista manejando el supuesto juguete escolar. Ese no fue un caso aislado: investigadores de WIRED localizaron varias cuentas que subían vídeos similares, todos creados con Sora 2.
En esos perfiles se repetía la misma fórmula: juguetes de agua con forma de rosa o de hongo que salpican a niños en pantalla, decoradores de pasteles que expulsan “leche pegajosa”, “espuma blanca” o “sustancia viscosa” sobre menores reales… El contenido no enseña genitales ni actos explícitos, pero el lenguaje visual y los términos usados están pensados para un público fetichista adulto. Es decir, la IA con menores se usa como gancho para atraer miradas que buscan sexualización infantil.
Una de las grandes dudas que surgen cuando la IWF confirma un 114 % más de CSAM con IA es cómo encajan estos contenidos en las leyes actuales. En muchos países, si esos vídeos mezclaran fetiches sexuales y niños reales, podrían activar de inmediato una investigación penal. Al tratarse de menores generados por IA, el terreno legal se vuelve mucho más confuso y todavía no hay normas claras.
La mayoría de ordenamientos jurídicos se redactaron pensando en fotos y vídeos de niños reales, no en personajes sintéticos creados desde cero. Con todo, la preocupación de expertos y organizaciones es que este vacío acabe sirviendo de excusa a quienes quieren “normalizar” el consumo de material sexualizado con apariencia infantil, aunque no se basen directamente en víctimas de carne y hueso.
Además del daño potencial a la sociedad, hay un riesgo directo para menores concretos. Según la IWF, muchas imágenes ilegales se generan modificando fotos auténticas de niñas y niños, que se recortan, se mezclan o se pasan por modelos de IA para crear desnudos o escenas sexuales ficticias. Esa IA con menores convierte una foto familiar o de redes sociales en una pieza de abuso, sin que el menor o su entorno tengan idea de lo que está ocurriendo.
También te puede interesar:Sora 2, el Nuevo Generador de Videos de OpenAI, Promete un Mundo Donde Nada Será RealAnte el aumento de casos y el hecho de que la IWF confirma un 114 % más de CSAM con IA, el Reino Unido está moviendo ficha. Su gobierno ha incorporado una enmienda al Proyecto de Ley sobre Delincuencia y Policía que autoriza a “probadores” oficiales a comprobar si los modelos de inteligencia artificial son capaces de generar material de abuso sexual infantil. El objetivo es certificar que las herramientas lleven barreras internas contra la pornografía extrema.

La idea es que estas salvaguardas formen parte del diseño de los modelos y no sean simples parches posteriores. La Internet Watch Foundation habla de sistemas “seguros por diseño”: productos de IA que, aunque lo intentes, no te dejen crear imágenes de abuso infantil. Kerry Smith, una de las responsables de la IWF, anima de forma explícita a las empresas del sector a hacer todo lo que esté en su mano para impedir que sus herramientas generen CSAM con IA, incluso si eso implica limitar usos creativos.
En Estados Unidos, la respuesta legal va por otra vía, pero con un mensaje parecido. Hasta 45 estados han aprobado leyes en los dos últimos años para penalizar el CSAM con IA, adaptando sus códigos a un escenario en el que los generadores de imágenes y vídeo están al alcance de cualquiera. Esto significa que, en la práctica, ya no hace falta que aparezca un menor real para que una escena sexualizada sintética pueda ser castigada.
En el papel, OpenAI tiene una posición muy clara: sus plataformas “nunca deben usarse para explotar, poner en peligro o sexualizar a menores de 18 años”. Sus políticas prohíben directamente el CSAM con IA y establecen mecanismos de respuesta. Cuando detectan material de abuso sexual infantil o contenido que rodea a menores de forma peligrosa, avisan al Centro Nacional para Menores Desaparecidos y Explotados en Estados Unidos.
El diseño de Sora 2 incluye ciertas protecciones específicas. La función que permite grabarte a ti mismo para aparecer dentro de un vídeo generado —antes llamada Cameo y ahora con nombre temporal— depende del consentimiento expreso del usuario, y puedes retirarlo en cualquier momento. Además, OpenAI impide que perfiles de adultos inicien mensajes directos con adolescentes dentro de su ecosistema, con la idea de cortar contactos sospechosos desde el principio.
El caso de los “juguetes rosa” demuestra que la práctica va por detrás. Creadores de contenido están encontrando la forma de generar vídeos que se mueven en la frontera: no muestran sexo explícito ni usan deepfakes de niños reales, pero sí colocan a menores en escenas con fuerte carga fetichista. Todo ello indica que los filtros automáticos de OpenAI no son capaces de captar el contexto completo, y que el CSAM con IA más ambiguo se cuela sin problemas.
Si te preguntas cómo se presenta este material en redes, la respuesta es que casi nunca se vende como pornografía directa. Lo que ves son falsos anuncios de juguetes, tráilers de animación al estilo Pixar o clips de humor negro con estética de vídeo viral. El mejor ejemplo es la colección de juguetes ficticios que parodian casos reales de abuso y escándalos sexuales.
Entre esos “productos” aparecen supuestos sets infantiles como “Epstein’s Island Getaway” o “Diddy’s Mansion Party”, donde niños generados por IA juegan con figuras de hombres mayores, mujeres jóvenes y fuentes que vierten aceite para bebés. En otro caso, un kit llamado “El sofá de Harv” —clara referencia a Harvey Weinstein— incluye una puerta con cerradura, un sofá de tacto suave y tres muñecas de actrices aspirantes. Una voz infantil remata el anuncio preguntando: “¿Así es como te haces famoso?”
Estos vídeos mezclan bromas oscuras, referencias a tragedias como el 11-S o la muerte de la princesa Diana y un tono “edgelord” que busca provocar. El problema es que, en las mismas cuentas donde se suben estas parodias, también se cuelan clips que sexualizan a menores de forma velada. Usuarios que van a TikTok en busca de humor negro acaban expuestos sin querer a contenido con connotaciones pedófilas, alimentando un entorno perfecto para el CSAM con IA más sutil.
Al lado de los falsos juguetes, hay otra corriente de vídeos generados con IA que está creciendo con fuerza: el contenido fetichista centrado en la inflación, el embarazo, la voracidad y la obesidad extrema. Sora 2 se ha convertido en el motor de muchos de estos clips, que combinan cuerpos hinchados, ropa reventando, comida exagerada y cambios físicos poco realistas.

Dentro de esta tendencia destaca un personaje recurrente: “Increíble Gaseoso”, una versión paródica y obesa de Mr. Increíble, famosa por sus flatulencias. En uno de los falsos anuncios, rebautizado como “Increíble Goteante”, el muñeco expulsa mucosidad de “sus partes de héroe”, con un lenguaje visual que recuerda a fluidos sexuales.
Este personaje nació como un encargo NSFW en Patreon en 2021, pero se ha convertido en meme asociado a toda la oleada de contenido fetichista que la IA con menores está ayudando a multiplicar.
El detalle preocupante es que, en muchos de estos vídeos sobre inflación y obesidad generados con Sora 2, aparecen también menores creados por IA. Algunos están presentes como espectadores, otros juegan con los personajes hinchados o son parte del chiste visual. Aunque las escenas no enseñen sexo directo, la combinación de fetiche y presencia infantil crea un contexto muy atractivo para un público depredador.
La escalada de CSAM con IA no se limita a Sora 2. Otro ejemplo que ha generado alarma es un vídeo creado con Veo, la herramienta de Google. La YouTuber británica ‘D0l1face3’ denunció un clip en el que un entrenador inspecciona a un equipo de chicos con sobrepeso dentro de un vestuario. El adulto les toca el estómago, comenta su gordura de forma “admirativa” y se recrea en mostrar sus cuerpos.
A simple vista, la escena no incluye actos sexuales explícitos, pero el tono del vídeo y, sobre todo, la sección de comentarios, sugieren claramente un enfoque fetichista. Varias cuentas invitaban a los espectadores a agregarles en Telegram, una plataforma que las fuerzas de seguridad ya señalan como espacio frecuente para redes de pedofilia.
Este uso de TikTok como escaparate inicial y de otras apps como canal “real” muestra cómo el CSAM con IA se mueve entre servicios. Lo más inquietante es que TikTok no marca de inmediato esos contenidos como violación de sus políticas, lo que deja claro que sus filtros de moderación automática no comprenden del todo la intención y el fetichismo que hay detrás.
Cuando se le preguntó por estos casos, Google sostuvo que tiene reglas claras para el uso de su IA con menores. La compañía sostiene que sus generadores deben usarse con restricciones en cualquier proyecto que incluya niños, reales o sintéticos, y remarca que el problema más grave no siempre está en la imagen aislada, sino en el contexto que la rodea.
Respecto al vídeo de los jóvenes con sobrepeso, la empresa señaló que lo que más preocupa es cómo se mueve el contenido: quién lo ve, qué comentarios se publican debajo, qué enlaces se comparten para llevar a la gente a otras plataformas menos controladas. Esta visión coincide con la de muchos expertos en seguridad infantil, que recuerdan que el CSAM con IA y el abuso en general dependen tanto del uso y la intención como del archivo visual en sí.
Este “matiz contextual” es, precisamente, lo que distingue una foto inocente de un niño en una piscina de un contenido usado para fines abusivos. Plataformas como Facebook ya se ven en la situación de decidir si un álbum de familia es material normal o un posible imán para depredadores. Con la IA, esta tarea se vuelve aún más compleja, porque los generadores no tienen forma real de saber quién va a mirar después esas imágenes ni con qué motivación.
Una de las grandes debilidades de herramientas como Sora 2 es que solo controlan lo que generan en un momento concreto, pero no el uso posterior. El modelo puede rechazar peticiones que incluyan palabras directo como “niño desnudo” o “sexo con menor”, pero no entiende los dobles sentidos ni la cultura fetichista. Por eso, aunque la IWF confirma un 114 % más de CSAM con IA, los filtros internos siguen siendo bastante ingenuos en muchos casos.
El matiz contextual del que hablan organizaciones como la IWF y empresas como Google no se puede medir en un simple análisis de píxeles. Habría que tener en cuenta quién comparte el contenido, en qué cuentas aparece, qué comentarios genera y cómo se recomienda a otros usuarios. Este nivel de análisis exige moderación humana formada en abuso sexual y fetichismo, algo que la mayoría de empresas de IA aún no han integrado del todo.
Mientras no exista esta capa extra de vigilancia, creadores malintencionados van a poder usar la IA con menores para producir vídeos que “pasan” filtros técnicos, pero funcionan en la práctica como material de iniciación para depredadores. El resultado es un catálogo creciente de escenas fetichistas con apariencia infantil, que muchas veces circulan sin etiquetas de advertencia ni bloqueos efectivos.
Mike Stabile, director de políticas públicas en la organización Free Speech Coalition, propone que las empresas de IA apliquen el mismo nivel de experiencia en moderación que llevan años desarrollando las plataformas de contenido para adultos. Según él, si los sitios de porno han aprendido a separar el contenido legal de lo ilegal o peligroso, los generadores de IA también pueden hacerlo.
Una de sus ideas es que los modelos bloqueen activamente ciertas palabras ligadas a fetiches específicos, sobre todo cuando se combinan con referencias infantiles. Así, si un usuario intenta generar un vídeo con términos de obesidad o inflación asociados a “niño” o “niña”, el sistema debería rechazar la petición. Este tipo de filtros no eliminaría todo el CSAM con IA, pero reduciría parte del material más evidente.
Stabile insiste también en la importancia de tener equipos de moderación diversos y bien formados. No basta con contratar a personas que revisen imágenes de forma rápida; hace falta personal que entienda cómo funcionan las subculturas fetichistas y qué detalles pueden señalar un uso abusivo. De lo contrario, muchos vídeos pasarán por “contenido raro pero inofensivo” cuando, en realidad, están dirigidos a una audiencia pedófila.
Gran parte del debate alrededor del CSAM con IA se sitúa en una zona gris entre libertad creativa y protección infantil. Los creadores de estos vídeos se defienden diciendo que solo hacen humor negro, sátira o parodia extrema. Aseguran que las referencias a personajes como Epstein, Diddy o Harvey Weinstein se usan para criticar, no para celebrar el abuso.
Los expertos recuerdan que, aunque un autor tenga intención satírica, el resultado puede servir igual para excitar a depredadores y normalizar la sexualización de menores. Cuando mezclas animación al estilo Pixar, niñas o niños de aspecto adorable y chistes sobre fluidos corporales, estás construyendo un lenguaje visual que puede ser leído de varias formas, y una de ellas es claramente peligrosa.
La clave está en aceptar que ciertas combinaciones de elementos —niños, fetiches específicos, referencias a abuso— son demasiado delicadas como para dejarlas sin control, incluso si se presentan como broma. Aquí es donde la IA con menores plantea desafíos nuevos: cualquiera puede generar una parodia en un minuto y subirla a una red social con millones de menores entre su audiencia.
La Internet Watch Foundation está empujando hacia un cambio de enfoque: que la protección frente al CSAM con IA no sea un simple añadido de última hora, sino parte central del diseño de cualquier modelo o plataforma. Su idea de sistemas “seguros por diseño” implica que un generador de imágenes o vídeo esté construido desde la base para impedir la creación de escenas de abuso infantil.
Esto pasaría, según la IWF, por limitar desde el principio ciertas combinaciones de descriptores, entrenar modelos de detección avanzada para reconocer sexualización de menores en imágenes sintéticas y crear vías sencillas para denunciar y retirar contenido problemático. Kerry Smith lo pide en un mensaje claro para las empresas de IA: haced todo lo posible para asegurar que vuestras herramientas no puedan convertirse en fábricas de CSAM con IA, incluso si eso reduce parte del potencial creativo.
La inteligencia artificial con menores ya exige un cambio profundo en cómo se diseñan los modelos, se forman los equipos de moderación y se entienden los matices de contexto y fetichismo. Solo si las tecnológicas asumen esa responsabilidad desde el principio vas a poder usar la IA creativa sin que, en segundo plano, se siga expandiendo un catálogo invisible de abuso infantil sintético.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.