Grok, el chatbot de xAI integrado en X, sigue generando deepfakes sexuales, aunque el escándalo ya ha saltado a reguladores y a los tribunales. Y en medio de la tormenta aparece un nombre con dinamita mediática: Ashley St. Clair, madre de uno de los hijos de Elon Musk, que ha demandado a la empresa por permitir que la IA la “desnudara” virtualmente hasta dejarla en bikini sin su consentimiento.
Y es que lo inquietante no es solo el caso concreto, sino el patrón. En las últimas semanas, varias personas han descubierto que Grok accede, con cierta cautela, a peticiones para quitar ropa a mujeres y colocarlas en escenarios sexualizados.
Pese a la polémica el bot sigue cumpliendo muchas de esas solicitudes. Es decir, no hablamos de un bug ya cerrado o de un “incidente aislado, sino de un comportamiento que todavía se puede provocar con prompts más o menos retorcidos. Pero claro, cuando una IA puede generar desnudos de alguien que no ha dado permiso, el debate deja de ser técnico y pasa a ser directamente jurídico y político.
En concreto, St. Clair presentó la demanda contra xAI en el estado de Nueva York. Y su petición principal es bastante clara: una orden de restricción (restraining order) para impedir que la empresa cree más deepfakes suyos.

Y es que aquí no se está discutiendo solo si un usuario se pasó de la raya. La demanda acusa a la compañía de haber creado una “molestia pública” (public nuisance) y sostiene que el producto es “irrazonablemente peligroso tal y como está diseñado”.
A ello se le suma un detalle procesal: el caso fue trasladado con rapidez a un tribunal federal el jueves. Evidentemente, cuando el asunto escala tan rápido, es que hay nervios y piezas legales moviéndose a toda velocidad por detrás.
Y es que en Estados Unidos hay un muro que suele frenar muchas demandas contra plataformas: la famosa Sección 230, que protege a servicios online por el contenido que publican terceros.
Pero claro, esta demanda intenta esquivar ese escudo con una idea muy concreta: que lo que sale de Grok no es “contenido de un usuario” al uso, sino creación propia de xAI.
En concreto, el argumento es que si el sistema genera el material (y encima lo publica o lo facilita), la protección típica de “yo solo alojo” se vuelve mucho más discutible. Básicamente, si tu producto fabrica el daño, no puedes esconderte detrás de que “la gente lo pidió”.
Y aquí entra también la abogada de St. Clair, Carrie Goldberg, asociada a estrategias legales agresivas contra empresas tecnológicas. Este enfoque se parece al de otros casos recientes contra redes sociales que buscan responsabilidad por producto para evitar la barrera de la Sección 230.
En concreto, Grok habría estado atendiendo peticiones para eliminar ropa de muchas mujeres y, según las comprobaciones citadas, de algunos aparentes menores, o para colocarlos en poses o escenarios sexualizados.
Pero claro, aunque la palabra “aparentes” sea importante legalmente, en términos de riesgo reputacional y regulatorio es gasolina. Evidentemente, en cuanto aparece la posibilidad de que la herramienta facilite sexualización de menores, el margen de tolerancia pública se evapora.

Es decir, ya no es solo “deepfake sexual” como categoría abstracta. Es la combinación de automatización (lo hace una máquina), escala (lo puede pedir cualquiera) y distribución (ocurre dentro del ecosistema X, con su capacidad de viralidad).
A ello se le suma que responsables políticos de todo el mundo ya habrían iniciado investigaciones, y han afirmado que leyes nuevas y existentes deberían impedir este tipo de comportamiento. Y es que, cuando los reguladores huelen una tecnología que se les escapa, tienden a apretar el acelerador… a veces con bastante torpeza, pero lo aprietan.
Pero claro, xAI no se ha quedado quieta. El mismo jueves presentó su propia demanda contra St. Clair en el Distrito Norte de Texas. En concreto, la empresa sostiene que St. Clair incumplió su contrato al llevar la disputa a un tribunal distinto. Y xAI afirma que sus términos de servicio obligan a presentar cualquier reclamación exclusivamente en Texas.
Es decir, además del fondo (deepfakes, consentimiento, diseño del producto), tenemos la guerra típica de las big tech: “te llevo a mi terreno”. Evidentemente, pelear la jurisdicción puede ser casi tan importante como pelear el caso, porque cambia ritmos, jueces y precedentes.

Pero claro, si tu respuesta pública ante un tema tan sensible suena a autopilot de guerra cultural, lo que transmites no es control del problema, sino falta de intención de arreglarlo de raíz.
Tocará esperar para ver qué tribunal marca el compás y si la estrategia de “responsabilidad por producto” consigue abrir una grieta real en la Sección 230 cuando hablamos de IA generativa. Y es que, si este caso prospera, no solo afecta a Grok: pone en la diana a cualquier sistema que convierta un prompt en una imagen sexualizada de una persona real sin permiso.
Es decir, la pregunta ya no es si la IA puede hacerlo. La pregunta es quién paga la factura cuando lo hace, y cuánto tarda la industria en asumir que “generar” también es “publicar” en términos de daño. Veremos si la competencia responde… o si, como tantas veces, espera a que lo decidan los jueces.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.