Un reportaje de Bloomberg, basado en seis meses de investigación, revela un hallazgo incómodo: la inteligencia artificial generativa está acelerando la producción de material de abuso sexual infantil y, al mismo tiempo, está trabando el trabajo de quienes deben frenarlo.

La pieza clave del problema no es solo la cantidad. Es el mecanismo de verificación. A diferencia de las fake news, aquí policías e investigadores tienen que gastar horas en descartar si una imagen o un video son reales o generados por IA, es decir, creados artificialmente por software.

Los números muestran el tamaño del engranaje. El Centro Nacional para Menores Desaparecidos y Explotados recibió en 2025 más de 1,5 millones de denuncias con componente de IA generativa. De ese total, más de 7.000 informes correspondían a usuarios que generaban o poseían este material, y más de 30.000 a personas que lo creaban.

Además, la Internet Watch Foundation evaluó más de 8.000 imágenes y videos realistas. Allí apareció otro interruptor alarmante: se identificaron 3.443 videos frente a apenas 13 en 2024, un salto del 26.385%. Y el 65% del video generado por IA fue clasificado como Categoría A, el nivel más grave.

Si antes un investigador seguía una pista clara, ahora recibe montañas de archivos, alertas y falsos positivos, es decir, avisos incorrectos que no llevan a un caso real. En algunos departamentos, las pistas se multiplicaron por once hasta llegar a decenas de miles por año.

Y cada minuto invertido en separar lo falso de lo verdadero es un minuto que no va a un menor desaparecido o a una denuncia concreta.

El cableado roto entre tecnología y control

El problema es la cantidad de falsos positivos que encuentra la IA y que terminan sobrecargando el buzón de los investigadores.

El fenómeno ya no vive solo en la dark web. Existen chatbots accesibles desde la web abierta que generan e incluso incentivan este contenido. Algunos agresores usan fotos reales de menores tomadas de redes sociales como Facebook o Instagram para manipularlas con IA, una práctica que vuelve más frágil cualquier frontera entre la vida cotidiana y el abuso digital.

De hecho, varios casos muestran un patrón inquietante: los delincuentes utilizan imágenes de niños de su entorno cercano para materializar fantasías mediante software. La herramienta no crea el delito desde cero, pero sí amplifica su alcance. Un investigador lo comparó con “pescar con dinamita”, por su eficacia y escala.

Mientras tanto, muchas plataformas tecnológicas delegan cada vez más la moderación en sistemas automáticos. Tiene lógica humana: revisar este material provoca un fuerte daño psicológico en moderadores. Pero ese relevo también deja un sistema menos fino, con más errores y una carga extra para las fuerzas de seguridad.

La respuesta pública avanza más lento que la máquina. Los recursos siguen siendo limitados. Según los datos citados, hay unos 30 millones de dólares para 61 grupos de investigación, una cifra equivalente a un solo día de gasto del FBI. La financiación, además, permanece estancada.

Qué cambia para las familias y los usuarios

Antes un depredador infantil podía llegar a 2 o 3 niños, con la IA podría llegar a 40 o 50 niños

La aplicación práctica de este hallazgo es incómoda pero clara. Publicar imágenes de menores en redes sociales ya no supone solo una exposición social. También puede alimentar un circuito de manipulación automatizada, como ya anticipaban los casos previos de deepfakes, contenidos falsos creados con apariencia real.

Por eso, la clave ya no pasa solo por castigar después. También exige mejores leyes, más financiación y herramientas de detección más robustas. Cuando el cableado digital se vuelve opaco, proteger a los chicos depende de volver a distinguir, cuanto antes, qué interruptor apaga el ruido y cuál ilumina el caso real.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios