MetaOpenAIGPTs personalizadosGoogleMidjourneyGeneración de ImágenesCloudflareGemini 2.5 ProDiao3 ProAmazonChatGPTPinterestAuto-collagesIAG (Inteligencia Artificial General)

Meta Demanda al Responsable de Publicitar en Facebook su App de Deepfakes Sexuales con IA

 | junio 13, 2025 08:05
Meta demanda a las webs que desnuda personas a partir de fotos

Crush AI se ha convertido en una de las aplicaciones más polémicas de los últimos tiempos por su capacidad para crear imágenes sexualmente explícitas de personas reales con inteligencia artificial, pero sin que estas den su consentimiento. Imagina la preocupación si alguien usara una foto tuya, de un familiar o un amigo para, en unos segundos, generar este tipo de imágenes falsas.

Este escenario es justo el que ahora enfrenta Meta, la compañía detrás de Facebook e Instagram, que ha interpuesto una demanda contra Joy Timeline HK, la empresa que está detrás de esta herramienta.

A raíz de este caso, se han disparado las alarmas sobre el desafío de frenar contenidos dañinos generados por IA, especialmente cuando se reproducen en plataformas tan masivas como redes sociales.

Demanda de Meta contra Joy Timeline HK: la acción legal es clave en la lucha contra imágenes hechas con IA

Meta ha llevado a los tribunales de Hong Kong a Joy Timeline HK, la compañía responsable de Crush AI. De este modo se trata de frenar la publicación masiva de anuncios sobre servicios de IA nudify que permiten desnudar digitalmente a cualquier persona en una foto, sin tener su permiso.

Para Meta, esta aplicación supone una amenaza directa a la seguridad y privacidad de sus usuarios; y no solo por el simple hecho de que existan este tipo de herramientas, sino por la táctica agresiva que emplean para promocionarse.

Crush AI consiguió colar más de 8.000 anuncios en Facebook e Instagram en las primeras dos semanas de 2025. El truco consistía en crear decenas de cuentas de anunciantes distintas y cambiar de dominios web muy a menudo, esquivando así la revisión automática de anuncios. Incluso llegaron a tener una página oficial en Facebook para captar aún más tráfico.

También te puede interesar:Meta fue sorprendida manipulando benchmarks de IA

Qué implicaciones tiene evadir la revisión de anuncios con IA

¿Por qué el problema es tan grave? Porque los sistemas de Meta detectaban y eliminaban anuncios que rompían las normas, pero la empresa de Joy Timeline HK insistía una y otra vez, lanzando campañas desde nuevas cuentas. Para engañar a la comprobación automatizada, modificaban nombres de usuario y los dominios, usando identificadores como “Eraser Anyone’s Clothes” seguidos de números.

Esta estrategia logró que, incluso cuando Meta borraba rápidamente una cuenta o un anuncio, enseguida apareciera otro. Según datos citados por Alexios Mantzarlis, el tráfico a las webs de Crush AI venía en un 90% de Facebook o Instagram. El propio Mantzarlis fue quien alertó a la red social sobre varios de estos portales dedicados a crear imágenes falsas y sexualizadas con IA.

Dificultades en otras redes para frenar aplicaciones de desnudo con IA

Facebook e Instagram no están solas con este desafío. En los últimos meses, plataformas como X (antiguo Twitter), Reddit y YouTube han constatado un aumento enorme de enlaces y anuncios dirigidos a aplicaciones de “IA undressing”, que ofrecen resultados similares a Crush AI.

De hecho, millones de usuarios han estado expuestos a este tipo de anuncios en YouTube, según han revelado distintos informes. Aunque Meta y TikTok prohibieron las búsquedas relacionadas con términos como “nudify IA”, cortar de raíz la aparición de estos servicios es complicado.

Muchos logran colarse usando términos alternativos, emojis específicos y nuevas webs cada día. Esto abre muchas preguntas sobre cómo se puede proteger de verdad a los usuarios, en especial aquellos más jóvenes que son más vulnerables a caer en engaños o acosos online.

Estrategias de Meta para identificar anuncios de servicios IA nudify

Para bloquear estos anuncios, Meta apuesta por tecnología basada en coincidencia, capaz de detectar anuncios incluso cuando las imágenes no muestran desnudos explícitos. Sus sistemas revisan palabras clave, frases y también emojis sospechosos, eliminando en cuanto detectan una “red flag”.

También te puede interesar:Meta Comenzará a Usar Casi Todos Tus Datos Para Entrenar Su IA: Así Puedes Protegerte

A fin de ir por delante, Meta ha ampliado la lista de términos y frases que hacen saltar las alarmas e implementa filtros inspirados en sus estrategias para combatir actores maliciosos. Desde principios de 2025, la compañía asegura haber desmantelado cuatro grandes redes que pretendían usar cuentas y anuncios clonados para vender servicios de IA nudify.

Por si fuera poco, también han potenciado la revisión de “anuncios duplicados”, rastreando patrones comunes en imágenes y textos, y validan continuamente los cambios para impedir que se repitan campañas con nuevos dominios web.

Ejemplo de cómo funcionan los sistemas de detección de Meta

  • Identifica patrones en los nombres de cuentas publicitarias, como el uso reiterado de nombres y numeraciones sospechosos.
  • Detecta términos, frases y emojis asociados a la desnudez generada por IA.
  • Elimina anuncios replicados en distintas cuentas, incluso cuando la web cambia de dominio o se disfraza bajo nuevos nombres.

Colaboración de Meta y Tech Coalition para combatir el abuso de imágenes falsas

Meta sabe que renunciar a la colaboración sería un error. Por ello, comparte datos relevantes con la Tech Coalition a través del programa Lantern, una iniciativa que implica a gigantes tecnológicos como Google, Snap y la propia Meta. El objetivo: prevenir la explotación sexual infantil y frenar webs que promuevan la generación de imágenes no consentidas.

Desde marzo, Meta ha facilitado más de 3.800 URLs únicas sobre apps de IA nudify a la red de Lantern, ayudando a trazar nuevas rutas de detección coordinadas entre plataformas.

De esta manera, si una web cierra en Facebook, pero reaparece en otra red, puede ser identificada y tumbada más deprisa. Cada paso es fundamental, aunque aún queden muchos caminos sin explorar.

Medidas de protección parental para la supervisión de apps en adolescentes

Meta insiste en la necesidad de leyes que ayuden a los padres a controlar lo que sus hijos descargan e instalan en los móviles. ¿Te gustaría poder aprobar cada app antes de que tu hijo adolescente la abra en su teléfono? Esa es precisamente la idea detrás de la Take It Down Act estadounidense, norma que Meta ya apoyó en su día y cuya aplicación siguen impulsando en colaboración con legisladores.

También te puede interesar:Escándalo en Meta: Chatbots de celebridades podrían hablar de sexo con menores

El reto es garantizar que los padres tengan herramientas para prevenir descargas peligrosas y supervisar el uso de apps sensibles, especialmente aquellas relacionadas con inteligencia artificial y retos virales fuera de control. Meta se comprometió a seguir trabajando con las autoridades para desplegar soluciones que faciliten esta tarea. Aunque no existe una herramienta mágica que sirva para siempre.

Si quieres recomendaciones para actuar frente a estos riesgos, es clave saber identificar el problema, denunciar a tiempo y fomentar la supervisión parental de aplicaciones en los móviles de adolescentes.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram