Grok, el chatbot de xAI impulsado por Elon Musk, acaba de recortar de golpe una de sus funciones más polémicas: la generación y edición de imágenes en X pasa a estar disponible únicamente para usuarios de pago. La decisión llega después de varios días en el centro de una tormenta internacional, motivada por el uso del sistema para crear imágenes sexualizadas y desnudos no consentidos, incluidos casos que involucraban menores.
El viernes, Grok comenzó a informar a los usuarios que solo los suscriptores de pago de X pueden generar y editar imágenes dentro de la plataforma. En la práctica, esto elimina la posibilidad de pedir ediciones explícitas desde el timeline, el chat o cualquier otro punto de interacción con Grok en X.
Sin embargo, hay un matiz clave que cambia el alcance real de la medida: la restricción no se aplica a la app independiente de Grok, que al momento de publicarse la noticia seguía permitiendo generar imágenes sin necesidad de pagar una suscripción.
La función se lanzó inicialmente para cualquier usuario, con límites diarios de uso. No se trataba de un beneficio exclusivo para cuentas premium desde el inicio, sino de un modelo de acceso abierto con racionamiento, lo que amplió rápidamente su adopción.
El problema no fue solo la capacidad de generar imágenes desde cero, sino la posibilidad de subir fotografías de personas reales y solicitar ediciones sobre ellas, incluidas versiones sexualizadas o desnudos generados por IA.

Este flujo de “edición”, presentado como una herramienta creativa aparentemente inofensiva, terminó convirtiéndose en una máquina de producción de deepfakes sexuales a escala. Una vez eliminada la barrera inicial, el resultado fue previsible: una avalancha de imágenes no consentidas que afectó a actores, modelos, figuras públicas y, de forma especialmente grave, a menores de edad.
También te puede interesar:Grok 3: El Nuevo Modelo de xAI ya está DisponibleCuando el escándalo empezó a trascender fronteras, X y Elon Musk reaccionaron denunciando públicamente el uso de Grok para producir este tipo de contenido. La postura oficial ha sido insistir en que la plataforma mantiene sus políticas contra la publicación de material ilegal, independientemente de si ha sido generado por inteligencia artificial.
El mensaje es claro: no sirve escudarse en “lo generó la IA”. Si el resultado es ilegal, el usuario asume las mismas consecuencias que si hubiera subido ese contenido por su cuenta. Musk reforzó esta idea con una advertencia directa, señalando que cualquiera que use Grok para crear contenido ilegal será tratado como cualquier otro infractor en la plataforma.
El problema de este enfoque es evidente: castigar a posteriori no revierte el daño cuando la imagen ya ha circulado, se ha descargado y se ha replicado. En moderación de contenido, la prevención suele ser más eficaz que el castigo ejemplarizante.
Reino Unido, la Unión Europea e India denunciaron públicamente a X y a Grok por permitir este tipo de uso de sus capacidades. El debate dejó de ser un simple escándalo en redes para convertirse en un riesgo regulatorio real, especialmente para una plataforma que lleva meses tensando su relación con distintos gobiernos.

La Unión Europea solicitó a xAI que conserve toda la documentación relacionada con el chatbot hasta finales de 2026, con el objetivo de garantizar trazabilidad en caso de investigaciones, auditorías o procedimientos formales. Esto incluye decisiones internas, cambios de producto y evaluaciones de riesgo que permitan reconstruir quién sabía qué y en qué momento.
También te puede interesar:Nuevas Funciones De Grok: Programar Tareas Automáticas Con Inteligencia ArtificialIndia fue aún más directa: su Ministerio de Comunicaciones ordenó a X realizar cambios inmediatos para evitar el mal uso de la generación de imágenes, advirtiendo que, de no cumplir, la empresa podría perder sus protecciones de safe harbor, aumentando su exposición legal.
El regulador británico también confirmó que mantiene contacto con xAI por este asunto, una señal clara de que la prioridad ya no es crecer, sino evitar sanciones mayores.
Limitar la función a usuarios de pago en X tiene una doble lectura. Por un lado, reduce el volumen de abuso al introducir fricción y facilitar la identificación mediante métodos de pago. Desde esa perspectiva, la medida puede ayudar a contener parte del problema y a demostrar que se ha actuado con rapidez.
Sin embargo, también funciona como un gesto defensivo que evita reconocer que el diseño inicial del producto facilitaba el abuso. La contradicción resulta difícil de justificar: si el riesgo es lo suficientemente alto como para cerrar la función en X, ¿por qué la app de Grok seguía permitiéndola sin suscripción? Desde fuera, la decisión se percibe como un parche rápido que tapa la vía más visible mientras deja abiertas otras.

La medida puede servir para reducir la presión mediática, pero es insuficiente si el objetivo real es frenar el daño. El verdadero test llegará cuando xAI implemente controles más sólidos, como límites claros por tipo de edición, filtros más estrictos, detección activa de menores y el bloqueo explícito de desnudos no consentidos.
Este episodio marca una realidad cada vez más incómoda: las IA generativas ya no compiten solo por calidad o velocidad, sino por quién se toma en serio los límites cuando el producto se utiliza para lo peor.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.