¿Alguna vez subiste una foto “normal”, con ropa de calle, y pensaste que en internet esa imagen podía terminar convertida en otra cosa? No en un meme inocente, sino en una versión sexualizada que nunca autorizaste y que parece real a simple vista.
Sin embargo, un hallazgo reciente expuso lo fácil que puede ser forzar a algunos chatbots populares a generar deepfakes (imágenes falsas muy realistas) de mujeres en bikini a partir de fotos donde aparecen completamente vestidas. La investigación fue reportada por WIRED tras observar tutoriales y pedidos concretos dentro de comunidades de Reddit.

Por su parte, Reddit confirmó que eliminó publicaciones y comentarios que enseñaban estos “pasos a paso” y que sus normas prohíben los “medios íntimos no consentidos”. El caso más visible ocurrió en el subreddit r/ChatGPTJailbreak, que superaba los 200.000 seguidores antes de ser prohibido por “dañar el sitio”.
“Las imágenes sexualizadas de forma abusiva son uno de los principales riesgos de los generadores de imágenes por IA”, advirtió Corynne McSherry, directora jurídica de la Electronic Frontier Foundation (EFF). No obstante, también subrayó una pieza clave: estas herramientas tienen usos legítimos, y el engranaje central está en cómo se usan y quién responde cuando hay daño.
En otras palabras, el problema no es solo “que la IA pueda”, sino que algunos usuarios aprendieron a encontrar el interruptor correcto para que el sistema entregue lo que, en teoría, debía bloquear.
Es decir, muchos modelos incluyen barreras de seguridad (filtros para frenar pedidos dañinos). Pero en foros se comparten trucos para “rodearlas” con instrucciones en inglés sencillo, cambios de contexto o pedidos ambiguos que empujan al modelo a editar ropa, ajustar telas o “cambiar atuendos” hasta llegar a una imagen sexualizada.
También te puede interesar:El Uso de Deepfake con IA en un Juicio de Arizona: Retos y Oportunidades ÉticasLa analogía doméstica ayuda a entenderlo: es como una casa con una llave maestra que debería abrir solo ciertas puertas, pero alguien publica en un grupo cómo trabar el picaporte, empujar en el ángulo justo y entrar igual.
Por su parte, la mejora técnica en generadores de imágenes hace el resto. Google lanzó en noviembre Nano Banana Pro, un modelo enfocado en retocar fotos existentes y producir retratos hiperrealistas. OpenAI respondió con un modelo actualizado, ChatGPT Images. Ese salto en realismo funciona como un nuevo cableado: más fino, más preciso y más difícil de distinguir cuando alguien lo usa para falsificar.
WIRED realizó pruebas limitadas en Gemini y ChatGPT para verificar si los consejos de Reddit funcionaban. No fue un ataque sofisticado: el medio consiguió transformar fotos reales de mujeres vestidas en deepfakes en bikini con instrucciones básicas. Ese dato revela una oportunidad incómoda para los abusadores: cuanto más “obediente” y detallista es el editor de imágenes, más fácil es empujarlo hacia zonas grises.
No obstante, las empresas sostienen que sus políticas son claras. Un portavoz de Google afirmó que está prohibido usar sus herramientas para generar contenido sexual explícito y que los sistemas se actualizan de forma continua para alinearse con esas restricciones.
Por su parte, OpenAI explicó que flexibilizó algunas limitaciones sobre cuerpos de adultos en contextos no sexuales, pero remarcó su regla central: está prohibido alterar la imagen de otra persona sin consentimiento. Además, asegura que toma medidas, como bloquear cuentas, cuando detecta deepfakes explícitos.
Sin embargo, el fenómeno no vive solo en un subreddit clausurado. Los debates siguen activos en distintas comunidades, como r/GeminiAI, donde también circularon instrucciones para “cambiar el atuendo” de mujeres por bikinis. Reddit eliminó comentarios después de recibir notificaciones, pero el patrón se repite: se borra un tutorial y aparece otro, como una gotera que busca una nueva junta floja.
En la vida cotidiana, la aplicación práctica es menos tecnológica y más humana: desconfiar de imágenes “demasiado perfectas”, pedir que se retiren contenidos no consentidos y documentar pruebas si ocurre un abuso. Para las plataformas, la pieza clave es reforzar el mecanismo de control cuando el realismo sube, porque el daño también escala.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.