WorkdayAgentes IAmicrorrobotsrobots humanoidesIA / Inteligencia ArtificialGeminiPaul ErdősGrokGoogle TrendsmicrosoftOpenAIappleAlphabetDeepseekGeoffrey Hinton

Musk Niega Conocer Imágenes Sexuales de Menores en Grok Mientras California Investiga

 | enero 15, 2026 05:56

Elon Musk salió el miércoles a negar la acusación más explosiva: que Grok haya generado “imágenes desnudas de menores”. Lo hizo apenas unas horas antes de que el fiscal general de California, Rob Bonta, anunciara una investigación por la proliferación de material sexualmente explícito no consentido vinculado al chatbot de xAI, integrado directamente en X.

La declaración de Musk fue medida al milímetro. Aseguró que no tiene constancia de “literalmente cero” desnudos de menores generados por Grok. Sin embargo, esa afirmación deja intacto el resto del problema: imágenes sexualizadas, representaciones “en bikini”, ediciones de fotos reales y todo ese terreno gris que puede destrozar vidas aunque no cruce formalmente la línea del CSAM.

La clave no es solo si hay CSAM, sino si Grok facilitó acoso con deepfakes sin consentimiento

La investigación de California no gira únicamente en torno al morbo o al “contenido adulto”. El foco está en el acoso, la coacción y en cómo una IA puede convertir una foto cotidiana en una herramienta de hostigamiento.

Rob Bonta afirmó que este tipo de material se ha utilizado para acosar a personas en internet y pidió a xAI que actúe “de inmediato” para evitar que el problema siga escalando. Cuando el fiscal general de California utiliza ese lenguaje, no está hablando de ajustes menores ni de comunicados tranquilizadores.

Grok AI de Elon Musk Afirma Temporalmente que Trump Ganó las Elecciones de 2020

Lo que se investiga es si xAI ha vulnerado la ley, de qué forma lo ha hecho y si su producto ha permitido la difusión masiva de imágenes íntimas no consentidas o incluso material ilegal. A esto se suma un elemento estructural clave: X y xAI forman parte del mismo ecosistema empresarial.

También te puede interesar:Grok 3: El Nuevo Modelo de xAI ya está Disponible

Eso convierte el debate en algo mucho más incómodo. No se trata de que una IA de terceros se use dentro de una plataforma ajena, sino de que la propia IA esté integrada en la propia red social, diluyendo cualquier separación clara de responsabilidades.

Una imagen por minuto… y luego llegó el dato que da miedo de verdad

Aquí no hablamos de casos aislados ni de errores puntuales, por mucho que el discurso público intente encajarlos en la categoría de “edge cases”. Las cifras apuntan a algo mucho más sistémico.

Copyleaks estimó que en X se publicaba aproximadamente una imagen por minuto relacionada con este fenómeno. Ese volumen ya describe un flujo constante, no una anécdota pasajera. A ello se suma un muestreo independiente realizado entre el 5 y el 6 de enero: unas 6.700 imágenes por hora durante 24 horas.

Ese número cambia completamente la lectura del problema. No es “se coló un prompt”, sino un sistema operando a escala de red social, con dinámicas virales y replicación masiva. Cuando el volumen alcanza ese nivel, la responsabilidad deja de ser difusa.

Cómo se disparó la tendencia: del marketing adulto al “vale, ahora con esta chica”

El patrón es tristemente reconocible. Una herramienta potente, unas pocas cuentas empujando los límites y, poco a poco, una normalización que lo convierte en tendencia.

La aceleración llegó a finales de año, cuando algunos creadores de contenido para adultos empezaron a utilizar Grok para generar imágenes sexualizadas de sí mismos como estrategia de marketing. El “mira lo que hace la IA conmigo” funcionó como gancho y abrió la puerta a un uso mucho más problemático.

También te puede interesar:Nuevas Funciones De Grok: Programar Tareas Automáticas Con Inteligencia Artificial

A partir de ahí, otros usuarios comenzaron a replicar prompts similares, pero utilizando imágenes de mujeres reales que nunca habían dado su consentimiento para formar parte de ese juego. Se han citado casos públicos, como el de Millie Bobby Brown, en los que Grok habría respondido a prompts alterando fotos reales mediante cambios en la ropa, la postura corporal o los rasgos físicos con una intención claramente sexualizada.

El daño, en estos casos, no es abstracto. Cuando tu imagen se convierte en un deepfake sexual, el impacto es inmediato, personal y extremadamente difícil de revertir.

Musk se agarra al “no hay desnudos de menores”, y no es casualidad

Musk ha sido muy preciso al elegir el terreno sobre el que defenderse. No afirma que no existan deepfakes sexuales, sino que insiste en que no hay desnudos de menores.

El profesor asociado Michael Goodyear, de la New York Law School, interpreta esta estrategia como una forma de centrarse en CSAM porque las consecuencias legales son mucho más graves. En Estados Unidos, la Take It Down Act contempla hasta tres años de prisión por distribuir o amenazar con distribuir CSAM, frente a penas de hasta dos años por imágenes sexuales no consentidas de adultos.

Aunque la ley establezca distintos niveles de gravedad, el problema social es el mismo: una IA utilizada para sexualizar a personas reales sin su permiso. Además, el mensaje desplaza parte de la responsabilidad hacia el usuario, bajo la idea de que Grok no genera nada de forma espontánea, sino únicamente bajo petición.

La narrativa resultante es clara: si alguien usa mal la herramienta, la culpa recae en quien escribe el prompt, no en el diseño del sistema ni en la solidez de sus barreras de seguridad.

Las leyes ya están ahí: 48 horas para retirar, y California endureció en 2024

Todo esto ocurre dentro de un marco legal que ya existe. La Take It Down Act, promulgada como ley federal el año anterior, penaliza la distribución consciente de imágenes íntimas no consentidas, incluidas las deepfakes.

Además, obliga a plataformas como X a retirar ese contenido en un plazo máximo de 48 horas. A nivel estatal, California aprobó en 2024 un conjunto de leyes, firmadas por Gavin Newsom, para endurecer la respuesta frente a deepfakes sexualmente explícitas.

La dificultad no está tanto en la ausencia de normas como en la trazabilidad: cuántas veces ocurrió, cómo se detectó, qué barreras fallaron y qué cambios reales se aplicaron para evitar que vuelva a suceder.

xAI empieza a meter fricción, pero el comportamiento sigue siendo inconsistente

Según diversos informes, xAI ha comenzado a implantar algunas salvaguardas. Entre ellas, Grok exige ahora una suscripción premium para responder a determinadas solicitudes de generación de imágenes.

xAI empieza a meter fricción, pero el comportamiento sigue siendo inconsistente

Este “peaje” reduce el volumen, pero no soluciona el problema de fondo si el modelo sigue cediendo ante prompts reformulados o atenuados. Incluso con una cuenta premium, la generación de imágenes puede ser inconsistente: a veces se bloquea y otras se entrega una versión más genérica.

April Kozen, vicepresidenta de marketing de Copyleaks, señala que Grok parece más permisivo con creadores de contenido adulto y que las respuestas dependen en gran medida de cómo se formule la petición. Si las salvaguardas varían según quién eres o cómo escribes el prompt, el sistema acaba funcionando como un colador selectivo.

La presión ya es global: bloqueos, exigencias y una UE guardando papeles hasta 2026

California no está actuando en solitario. Indonesia y Malasia han bloqueado temporalmente el acceso a Grok por la generación de deepfakes sexualizadas no consentidas, mientras que India ha exigido cambios técnicos y procedimentales inmediatos.

En paralelo, la Comisión Europea ha ordenado a xAI conservar todos los documentos relacionados con Grok hasta finales de 2026, como paso previo a una posible investigación. El regulador británico Ofcom también ha abierto una investigación formal bajo la Online Safety Act.

Cuando varios reguladores se mueven al mismo tiempo, el debate deja de ser una polémica en redes y pasa a convertirse en un riesgo real de negocio y de producto. Esta historia deja algo muy claro: los modelos generativos ya no compiten solo en calidad o velocidad, sino en gobernanza y control.

La cuestión ahora es si X y xAI construirán una seguridad sólida y coherente o si seguirán reaccionando a base de parches tras cada escándalo. Porque, a este ritmo, la próxima investigación no preguntará qué pasó, sino por qué parecía inevitable.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram