Elon Musk salió el miércoles a negar la acusación más explosiva: que Grok haya generado “imágenes desnudas de menores”. Lo hizo apenas unas horas antes de que el fiscal general de California, Rob Bonta, anunciara una investigación por la proliferación de material sexualmente explícito no consentido vinculado al chatbot de xAI, integrado directamente en X.
La declaración de Musk fue medida al milímetro. Aseguró que no tiene constancia de “literalmente cero” desnudos de menores generados por Grok. Sin embargo, esa afirmación deja intacto el resto del problema: imágenes sexualizadas, representaciones “en bikini”, ediciones de fotos reales y todo ese terreno gris que puede destrozar vidas aunque no cruce formalmente la línea del CSAM.
La investigación de California no gira únicamente en torno al morbo o al “contenido adulto”. El foco está en el acoso, la coacción y en cómo una IA puede convertir una foto cotidiana en una herramienta de hostigamiento.
Rob Bonta afirmó que este tipo de material se ha utilizado para acosar a personas en internet y pidió a xAI que actúe “de inmediato” para evitar que el problema siga escalando. Cuando el fiscal general de California utiliza ese lenguaje, no está hablando de ajustes menores ni de comunicados tranquilizadores.

Lo que se investiga es si xAI ha vulnerado la ley, de qué forma lo ha hecho y si su producto ha permitido la difusión masiva de imágenes íntimas no consentidas o incluso material ilegal. A esto se suma un elemento estructural clave: X y xAI forman parte del mismo ecosistema empresarial.
También te puede interesar:Grok 3: El Nuevo Modelo de xAI ya está DisponibleEso convierte el debate en algo mucho más incómodo. No se trata de que una IA de terceros se use dentro de una plataforma ajena, sino de que la propia IA esté integrada en la propia red social, diluyendo cualquier separación clara de responsabilidades.
Aquí no hablamos de casos aislados ni de errores puntuales, por mucho que el discurso público intente encajarlos en la categoría de “edge cases”. Las cifras apuntan a algo mucho más sistémico.
Copyleaks estimó que en X se publicaba aproximadamente una imagen por minuto relacionada con este fenómeno. Ese volumen ya describe un flujo constante, no una anécdota pasajera. A ello se suma un muestreo independiente realizado entre el 5 y el 6 de enero: unas 6.700 imágenes por hora durante 24 horas.
Ese número cambia completamente la lectura del problema. No es “se coló un prompt”, sino un sistema operando a escala de red social, con dinámicas virales y replicación masiva. Cuando el volumen alcanza ese nivel, la responsabilidad deja de ser difusa.
El patrón es tristemente reconocible. Una herramienta potente, unas pocas cuentas empujando los límites y, poco a poco, una normalización que lo convierte en tendencia.
La aceleración llegó a finales de año, cuando algunos creadores de contenido para adultos empezaron a utilizar Grok para generar imágenes sexualizadas de sí mismos como estrategia de marketing. El “mira lo que hace la IA conmigo” funcionó como gancho y abrió la puerta a un uso mucho más problemático.
También te puede interesar:Nuevas Funciones De Grok: Programar Tareas Automáticas Con Inteligencia ArtificialA partir de ahí, otros usuarios comenzaron a replicar prompts similares, pero utilizando imágenes de mujeres reales que nunca habían dado su consentimiento para formar parte de ese juego. Se han citado casos públicos, como el de Millie Bobby Brown, en los que Grok habría respondido a prompts alterando fotos reales mediante cambios en la ropa, la postura corporal o los rasgos físicos con una intención claramente sexualizada.
El daño, en estos casos, no es abstracto. Cuando tu imagen se convierte en un deepfake sexual, el impacto es inmediato, personal y extremadamente difícil de revertir.
Musk ha sido muy preciso al elegir el terreno sobre el que defenderse. No afirma que no existan deepfakes sexuales, sino que insiste en que no hay desnudos de menores.
El profesor asociado Michael Goodyear, de la New York Law School, interpreta esta estrategia como una forma de centrarse en CSAM porque las consecuencias legales son mucho más graves. En Estados Unidos, la Take It Down Act contempla hasta tres años de prisión por distribuir o amenazar con distribuir CSAM, frente a penas de hasta dos años por imágenes sexuales no consentidas de adultos.
Aunque la ley establezca distintos niveles de gravedad, el problema social es el mismo: una IA utilizada para sexualizar a personas reales sin su permiso. Además, el mensaje desplaza parte de la responsabilidad hacia el usuario, bajo la idea de que Grok no genera nada de forma espontánea, sino únicamente bajo petición.
La narrativa resultante es clara: si alguien usa mal la herramienta, la culpa recae en quien escribe el prompt, no en el diseño del sistema ni en la solidez de sus barreras de seguridad.
Todo esto ocurre dentro de un marco legal que ya existe. La Take It Down Act, promulgada como ley federal el año anterior, penaliza la distribución consciente de imágenes íntimas no consentidas, incluidas las deepfakes.
Además, obliga a plataformas como X a retirar ese contenido en un plazo máximo de 48 horas. A nivel estatal, California aprobó en 2024 un conjunto de leyes, firmadas por Gavin Newsom, para endurecer la respuesta frente a deepfakes sexualmente explícitas.
La dificultad no está tanto en la ausencia de normas como en la trazabilidad: cuántas veces ocurrió, cómo se detectó, qué barreras fallaron y qué cambios reales se aplicaron para evitar que vuelva a suceder.
Según diversos informes, xAI ha comenzado a implantar algunas salvaguardas. Entre ellas, Grok exige ahora una suscripción premium para responder a determinadas solicitudes de generación de imágenes.

Este “peaje” reduce el volumen, pero no soluciona el problema de fondo si el modelo sigue cediendo ante prompts reformulados o atenuados. Incluso con una cuenta premium, la generación de imágenes puede ser inconsistente: a veces se bloquea y otras se entrega una versión más genérica.
April Kozen, vicepresidenta de marketing de Copyleaks, señala que Grok parece más permisivo con creadores de contenido adulto y que las respuestas dependen en gran medida de cómo se formule la petición. Si las salvaguardas varían según quién eres o cómo escribes el prompt, el sistema acaba funcionando como un colador selectivo.
California no está actuando en solitario. Indonesia y Malasia han bloqueado temporalmente el acceso a Grok por la generación de deepfakes sexualizadas no consentidas, mientras que India ha exigido cambios técnicos y procedimentales inmediatos.
En paralelo, la Comisión Europea ha ordenado a xAI conservar todos los documentos relacionados con Grok hasta finales de 2026, como paso previo a una posible investigación. El regulador británico Ofcom también ha abierto una investigación formal bajo la Online Safety Act.
Cuando varios reguladores se mueven al mismo tiempo, el debate deja de ser una polémica en redes y pasa a convertirse en un riesgo real de negocio y de producto. Esta historia deja algo muy claro: los modelos generativos ya no compiten solo en calidad o velocidad, sino en gobernanza y control.
La cuestión ahora es si X y xAI construirán una seguridad sólida y coherente o si seguirán reaccionando a base de parches tras cada escándalo. Porque, a este ritmo, la próxima investigación no preguntará qué pasó, sino por qué parecía inevitable.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.