X lleva dos semanas viviendo una situación que no debería ser “tendencia” en 2026: una avalancha de desnudos manipulados con IA generados con el chatbot Grok, sin consentimiento, y circulando a velocidad de vértigo. Lo que empezó como “casos sueltos” ha escalado rápidamente a cifras que suenan más a fallo sistémico que a abuso puntual.
En concreto, una investigación de Copyleaks del 31 de diciembre estimó que se publicaba aproximadamente una imagen por minuto, pero ese cálculo se quedó corto casi al instante. Pruebas posteriores apuntaron a que el volumen real era bastante mayor: una muestra recopilada entre el 5 y el 6 de enero detectó un ritmo de 6.700 imágenes por hora durante 24 horas.
Y es que las víctimas no forman un grupo pequeño ni delimitado. Entre las afectadas hay modelos y actrices, pero también figuras informativas, víctimas de delitos e incluso líderes mundiales. Cuando el abanico es tan amplio, el problema deja de ser “contenido sensible” y pasa a ser un agujero grave en las salvaguardas, la moderación y el propio diseño del producto.
Básicamente, si un modelo puede generar desnudos falsos de cualquiera con fricción baja, no hablamos de creatividad, hablamos de una herramienta de daño con interfaz amable. Todo ocurre dentro de una plataforma con un historial conocido de fricciones en moderación, confianza y seguridad, que además se mueve rápido cuando le interesa, pero no tanto cuando toca poner límites estructurales.
Figuras públicas de todo el mundo han criticado precisamente eso: que Grok se lanzara sin salvaguardas suficientes. Y aquí no basta con señalar a “usuarios maliciosos”. Si el sistema permite el output, el sistema también es responsable del diseño del pipeline: filtros, bloqueos, trazabilidad, señales de riesgo y frenos por defecto.
También te puede interesar:Grok 3: El Nuevo Modelo de xAI ya está DisponibleA esto se suma una sombra especialmente incómoda sobre el origen del problema. Distintas informaciones consideran preocupante que Elon Musk pudiera haber intervenido personalmente para evitar la implantación de ciertas salvaguardas sobre los tipos de imágenes que Grok podía generar. Si eso se confirma, no sería un despiste técnico, sino una decisión consciente de producto con consecuencias directas para miles de personas.

Desde fuera, además, sigue sin haber una explicación técnica clara y verificable sobre qué se ha cambiado exactamente en Grok para cortar el grifo. No está claro si X ha modificado el modelo en sí; lo único visible ha sido la retirada de la pestaña pública de contenidos multimedia de la cuenta de Grok en X. Es decir, cambios de superficie, que no garantizan que el modelo no siga produciendo lo mismo con prompts ligeramente distintos.
El movimiento más contundente hasta ahora no ha venido de un tuit indignado ni de un comunicado corporativo. La Comisión Europea ordenó a xAI conservar todos los documentos relacionados con Grok hasta finales de 2026. Esto no implica automáticamente la apertura de una investigación inmediata, pero suele ser un paso previo habitual.
Cuando un regulador obliga a guardar “todo lo relacionado”, el mensaje es claro: se está preparando para analizar cómo se tomaron las decisiones, qué se sabía y cuándo se supo. No es sanción aún, pero tampoco es rutina administrativa.
Fuera de la UE, el tablero también se está moviendo. En Reino Unido, el regulador Ofcom confirmó que está en contacto con xAI y realizará una evaluación rápida para determinar si existen posibles incumplimientos. El tono político, además, ha sido explícito: el primer ministro Keir Starmer calificó el fenómeno de “vergonzoso” y “repugnante”, asegurando que Ofcom cuenta con el respaldo del Gobierno para actuar.
En Australia, el termómetro son las quejas formales, y están aumentando. La comisionada de eSafety, Julie Inman-Grant, señaló que su oficina ha recibido el doble de denuncias relacionadas con Grok desde finales de 2025. El daño, por tanto, no es abstracto: está entrando por los canales oficiales. Por ahora, Australia se limita a “usar las herramientas disponibles”, sin anunciar medidas directas contra xAI.
El golpe potencialmente más duro llega desde India, el mercado más grande en juego. Allí, Grok fue objeto de una queja formal presentada por un miembro del Parlamento, y el regulador MeitY ordenó a X abordar el problema y presentar un informe de “medidas adoptadas” en un plazo inicial de 72 horas, luego ampliado en 48. Aunque el informe se entregó el 7 de enero, no está claro si la respuesta será suficiente.
El incentivo es enorme: si India no acepta la explicación, X podría perder su estatus de “puerto seguro”, pasando de intermediario a un escenario legal mucho más hostil para operar.
X ha intentado encuadrar el asunto en el terreno más claro posible: lo ilegal. La compañía condenó específicamente el uso de herramientas de IA para producir material de abuso sexual infantil, y la cuenta X Safety afirmó que quien induzca a Grok a crear contenido ilegal sufrirá las mismas consecuencias que si lo publica directamente.

El problema es todo lo que queda fuera de esa frontera: desnudos falsos de adultas, humillación pública, extorsión, daño reputacional y miedo real, prácticas que pueden no encajar siempre en una definición penal estricta, pero que son devastadoras a escala humana.
Esta historia se está convirtiendo en una lección incómoda sobre los límites de la regulación tecnológica cuando la capacidad técnica avanza más rápido que la capacidad de control. Y si los datos de Copyleaks y las muestras posteriores dicen algo claro es esto: cuando un sistema permite generar miles de imágenes por hora, los parches cosméticos no bastan.
Veremos si la respuesta termina siendo un cambio profundo en Grok o simplemente un carrusel de comunicados mientras los reguladores, una vez más, intentan alcanzar un tren que ya va a toda velocidad.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.