La Comisión Europea acaba de abrir una investigación formal sobre Grok, la IA integrada en X (sí, la red social de Elon Musk), tras detectarse que permite la generación de imágenes sexualizadas, incluidas de menores, además de otros contenidos potencialmente ilegales.
Los datos que han salido a la luz son difíciles de ignorar: 11 millones de imágenes manipuladas sexualmente en solo 11 días. En concreto, entre el 29 de diciembre y el 8 de enero, los usuarios de Grok generaron ese volumen de contenido, dentro del cual se identificaron más de 23.000 imágenes de menores, según consta en el expediente que maneja Bruselas.
Aquí ya no estamos ante el típico “fallo de moderación” puntual ni ante contenido problemático que se cuela durante unas horas. Cuando una herramienta es capaz de producir este material a escala industrial, el riesgo deja de ser teórico: está ocurriendo, y además lo hace a gran velocidad.
La Comisión Europea quiere determinar si X está incumpliendo las obligaciones del Reglamento de Servicios Digitales (DSA) o si realmente está mitigando los riesgos derivados de integrar Grok dentro de una plataforma de uso masivo.
El foco está puesto, especialmente, en contenidos que podrían constituir material de abuso sexual infantil, así como en riesgos vinculados a la violencia de género y a impactos graves sobre el bienestar físico y mental de las personas afectadas. No se trata, por tanto, de un debate filosófico sobre libertad de expresión ni de justificar el “humor negro” de un modelo de IA.

A este contexto se suma un mensaje político muy directo desde lo más alto de la Comisión. Su presidenta, Ursula von der Leyen, dejó claro que la Unión Europea no va a delegar en Silicon Valley la protección de la infancia. Sus palabras fueron contundentes: le “horroriza” que una plataforma permita “desnudar digitalmente” a mujeres y niños, recordando que el daño que se genera es real y tangible.
También te puede interesar:xAI de Elon Musk lanza su API de GrokDesde el departamento dirigido por la vicepresidenta Henna Virkkunen (tecnología y seguridad), se insiste en que los riesgos “parecen haberse materializado”, exponiendo a ciudadanos de la UE a daños graves.
El problema se agrava cuando una IA está integrada en el flujo normal de una red social, ya que no hace falta saber de prompts ni de herramientas complejas. Si algo se puede pedir como quien pide un meme, también se puede escalar con la misma facilidad con la que se hace scroll.
Esta investigación no surge en el vacío. Se suma al expediente que Bruselas abrió contra X en diciembre de 2023, cuando empezó a revisar si su sistema de recomendaciones cumple con la gestión de riesgos exigida por el DSA. Ese procedimiento abarca desde desinformación hasta discursos de odio, pasando por la amplificación algorítmica de contenido dañino.
Si, además, se modifica el sistema de recomendaciones y se vincula directamente a una IA como Grok, es lógico que el regulador quiera entender qué está ocurriendo en todo el pipeline. A ello se añade que Grok ya arrastraba una trayectoria polémica: a finales de 2025 estalló otro escándalo tras conocerse que, en noviembre, la herramienta había negado el Holocausto.

Una IA con un perfil “edgy” puede generar titulares llamativos, pero también conduce a problemas regulatorios de gran escala cuando cruza líneas rojas claras.
Del procedimiento previo ya salió una sanción de 120 millones de euros contra X por falta de transparencia publicitaria, por el diseño engañoso de la marca azul —que aparentaba certificar la veracidad de los perfiles— y por obstaculizar el acceso a datos para investigadores.
También te puede interesar:Elon Musk anuncia el lanzamiento de Grok 3Esa multa representó el 5,4% de la facturación anual de la empresa, muy cerca del máximo permitido en ese marco sancionador. Fue, además, una de las sanciones que inauguraron el régimen más estricto del DSA, demostrando que Bruselas no está jugando.

En la investigación actual, la Comisión puede ir aún más lejos. En casos de incumplimientos graves, el DSA permite sanciones de hasta el 6% de los ingresos anuales mundiales. Además, el reglamento contempla la aplicación de medidas provisionales para mitigar riesgos mientras se tramita el procedimiento, sin necesidad de esperar meses a una resolución definitiva si el daño se considera inmediato.
Durante años, cuando se detectaban casos de IA utilizada para “desnudar” a adultos o menores, la respuesta habitual era actuar únicamente contra quienes generaban las imágenes. En España, por ejemplo, el caso de las adolescentes de Almendralejo se centró en denunciar a los compañeros responsables, sin acciones directas contra la empresa que ofrecía la herramienta.
Sin embargo, cuando el modelo y la interfaz facilitan el abuso y se integran en una red social masiva, la escala del problema desborda cualquier enfoque exclusivamente policial. Por eso, varios países ya están explorando medidas directas contra las herramientas y las compañías.
Indonesia y Malasia han optado por prohibir Grok, mientras que Italia bloqueó en octubre la aplicación Clothoff. En paralelo, tanto en Estados Unidos como en China se han impulsado acciones judiciales contra empresas cuyo modelo de negocio consiste, literalmente, en generar este tipo de desnudos. Empieza a consolidarse la idea de que quien distribuye la “máquina” no puede lavarse las manos cuando su uso indebido es previsible.
La regulación digital europea se ha convertido en un eje de confrontación entre Washington y Bruselas, especialmente cuando afecta a grandes plataformas estadounidenses. Tras la multa a X, miembros del Gobierno de EE. UU., encabezados por el presidente Donald Trump, llegaron a calificarla de “asquerosa”.
Desde ese lado del Atlántico, la crítica apunta a que el DSA coarta la libertad de expresión y castiga de forma desproporcionada a empresas estadounidenses. La respuesta de la UE es clara: la libertad de expresión no puede poner en riesgo otros derechos fundamentales, ni la seguridad de colectivos vulnerables como los menores.

Bruselas recuerda que estas obligaciones se aplican con criterios objetivos: plataformas con más del 10% de la población de la UE como usuarios, es decir, al menos 45 millones de personas. No se trata de ir “contra X” por deporte, sino de actuar frente a cualquier empresa con capacidad de causar daño sistémico si se descontrola. De hecho, de las 17 compañías que inicialmente superaban ese umbral, solo dos eran europeas: Booking y Zalando.
En este contexto, el debate se calienta inevitablemente entre derechos fundamentales, presión comercial y la narrativa de que “Europa regula demasiado”. Lo que ocurra con Grok marcará un precedente incómodo para toda la industria: integrar IA generativa en redes sociales ya no puede ser un simple “ship it” y ver qué pasa después.
Si la UE termina forzando cambios técnicos, de producto o medidas provisionales, muchas plataformas tendrán que replantearse cómo lanzan funciones de IA sin convertirlas en fábricas de daño. Ahora solo queda esperar para ver si X responde con hechos… o con otro hilo incendiario.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.