OpenAIChatGPTbitcoinHiltonAgentes IANotionMetaManus AIxaiHalftimeRedditDeep FakesQuentinALIAHalo: Campaign Evolved

Google, OpenAI y los Deepfakes Sexuales: Por Qué sus Barreras de Seguridad no Son Suficientes

 | diciembre 30, 2025 00:25

¿Alguna vez subiste una foto “normal”, con ropa de calle, y pensaste que en internet esa imagen podía terminar convertida en otra cosa? No en un meme inocente, sino en una versión sexualizada que nunca autorizaste y que parece real a simple vista.

Sin embargo, un hallazgo reciente expuso lo fácil que puede ser forzar a algunos chatbots populares a generar deepfakes (imágenes falsas muy realistas) de mujeres en bikini a partir de fotos donde aparecen completamente vestidas. La investigación fue reportada por WIRED tras observar tutoriales y pedidos concretos dentro de comunidades de Reddit.

Algunos chatbots populares pueden generar deepfakes

Por su parte, Reddit confirmó que eliminó publicaciones y comentarios que enseñaban estos “pasos a paso” y que sus normas prohíben los “medios íntimos no consentidos”. El caso más visible ocurrió en el subreddit r/ChatGPTJailbreak, que superaba los 200.000 seguidores antes de ser prohibido por “dañar el sitio”.

“Las imágenes sexualizadas de forma abusiva son uno de los principales riesgos de los generadores de imágenes por IA”, advirtió Corynne McSherry, directora jurídica de la Electronic Frontier Foundation (EFF). No obstante, también subrayó una pieza clave: estas herramientas tienen usos legítimos, y el engranaje central está en cómo se usan y quién responde cuando hay daño.

En otras palabras, el problema no es solo “que la IA pueda”, sino que algunos usuarios aprendieron a encontrar el interruptor correcto para que el sistema entregue lo que, en teoría, debía bloquear.

Es decir, muchos modelos incluyen barreras de seguridad (filtros para frenar pedidos dañinos). Pero en foros se comparten trucos para “rodearlas” con instrucciones en inglés sencillo, cambios de contexto o pedidos ambiguos que empujan al modelo a editar ropa, ajustar telas o “cambiar atuendos” hasta llegar a una imagen sexualizada.

También te puede interesar:El Uso de Deepfake con IA en un Juicio de Arizona: Retos y Oportunidades Éticas

La analogía doméstica ayuda a entenderlo: es como una casa con una llave maestra que debería abrir solo ciertas puertas, pero alguien publica en un grupo cómo trabar el picaporte, empujar en el ángulo justo y entrar igual.

Por su parte, la mejora técnica en generadores de imágenes hace el resto. Google lanzó en noviembre Nano Banana Pro, un modelo enfocado en retocar fotos existentes y producir retratos hiperrealistas. OpenAI respondió con un modelo actualizado, ChatGPT Images. Ese salto en realismo funciona como un nuevo cableado: más fino, más preciso y más difícil de distinguir cuando alguien lo usa para falsificar.

¿Cómo se fabrican bikinis donde no existían?

WIRED realizó pruebas limitadas en Gemini y ChatGPT para verificar si los consejos de Reddit funcionaban. No fue un ataque sofisticado: el medio consiguió transformar fotos reales de mujeres vestidas en deepfakes en bikini con instrucciones básicas. Ese dato revela una oportunidad incómoda para los abusadores: cuanto más “obediente” y detallista es el editor de imágenes, más fácil es empujarlo hacia zonas grises.

No obstante, las empresas sostienen que sus políticas son claras. Un portavoz de Google afirmó que está prohibido usar sus herramientas para generar contenido sexual explícito y que los sistemas se actualizan de forma continua para alinearse con esas restricciones.

Por su parte, OpenAI explicó que flexibilizó algunas limitaciones sobre cuerpos de adultos en contextos no sexuales, pero remarcó su regla central: está prohibido alterar la imagen de otra persona sin consentimiento. Además, asegura que toma medidas, como bloquear cuentas, cuando detecta deepfakes explícitos.

Sin embargo, el fenómeno no vive solo en un subreddit clausurado. Los debates siguen activos en distintas comunidades, como r/GeminiAI, donde también circularon instrucciones para “cambiar el atuendo” de mujeres por bikinis. Reddit eliminó comentarios después de recibir notificaciones, pero el patrón se repite: se borra un tutorial y aparece otro, como una gotera que busca una nueva junta floja.

En la vida cotidiana, la aplicación práctica es menos tecnológica y más humana: desconfiar de imágenes “demasiado perfectas”, pedir que se retiren contenidos no consentidos y documentar pruebas si ocurre un abuso. Para las plataformas, la pieza clave es reforzar el mecanismo de control cuando el realismo sube, porque el daño también escala.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram