Meta vuelve a meterse en un problema serio por sus gafas inteligentes Ray-Ban Meta. Una nueva demanda en Estados Unidos acusa a la compañía de vender una idea de privacidad que, en la práctica, podría no haber sido tan sólida como prometía. Según la acusación, la empresa habría permitido que humanos revisaran grabaciones de usuarios, incluyendo escenas extremadamente sensibles.
La denuncia surge después de una investigación publicada por periódicos suecos que dibuja un escenario bastante incómodo para la compañía. Según esos reportajes, parte del material capturado por las gafas habría terminado en manos de revisores humanos que trabajaban para un subcontratista en Kenia. Entre los contenidos revisados, se mencionan grabaciones con desnudos, personas manteniendo relaciones sexuales e incluso usuarios utilizando el baño.
Naturalmente, quien compra unas gafas con cámara entiende que existe cierto riesgo de grabar o capturar momentos privados. Sin embargo, lo que la mayoría de usuarios no espera —y ahí está el núcleo del conflicto— es que su vida cotidiana pueda acabar, aunque sea ocasionalmente, dentro de un “pipeline” de revisión donde terceros humanos puedan verla.
La demanda fue presentada por Gina Bartone, de Nueva Jersey, y Mateo Canu, de California, con representación del bufete Clarkson Law Firm, conocido por impulsar casos relacionados con derechos del consumidor y cuestiones de interés público.
El punto central del caso no es únicamente que Meta revise datos, algo que muchas plataformas hacen para mejorar sus sistemas. Lo que realmente se cuestiona es la manera en que el producto fue comercializado, ya que los demandantes sostienen que existió publicidad engañosa y posibles violaciones de leyes de privacidad y protección al consumidor.

En la denuncia se destacan varios mensajes promocionales utilizados por la compañía, entre ellos frases como “diseñadas para la privacidad, controladas por ti” o “construidas para tu privacidad”. Desde la perspectiva de los usuarios, esas afirmaciones sugieren que el control sobre las grabaciones permanece en sus manos y que el material no terminará dentro de procesos de revisión humana, especialmente cuando se trata de momentos íntimos.
También te puede interesar:Meta fue sorprendida manipulando benchmarks de IALos demandantes aseguran que confiaron en ese marketing y que no encontraron advertencias claras que contradijeran esa promesa de privacidad. Además, la demanda también incluye a Luxottica of America, el socio fabricante de las gafas, acusándolo junto a Meta de prácticas contrarias a las leyes de protección al consumidor.
El bufete Clarkson también intenta dimensionar el impacto potencial del problema. Según sus estimaciones, en 2025 se vendieron más de siete millones de estas gafas inteligentes, lo que implica una enorme cantidad de grabaciones potenciales.
La demanda describe un sistema en el que parte de esas grabaciones se integran dentro de un pipeline de revisión destinado a mejorar los sistemas de inteligencia artificial. El problema, según los demandantes, es que los usuarios no tendrían una opción clara para excluirse de ese proceso.
Esto introduce un choque bastante evidente entre cómo se desarrollan hoy muchos sistemas de IA y lo que los usuarios creen estar comprando. Mejorar modelos de inteligencia artificial suele implicar muestreo de datos, revisión humana y control de calidad, pero cuando el sensor que recoge esos datos es una cámara que la gente lleva en la cara, las expectativas de consentimiento cambian radicalmente.
En otras palabras, lo que puede parecer normal en un chatbot o en un asistente de voz se vuelve mucho más delicado cuando las imágenes capturadas pertenecen a la vida diaria de las personas.
Las investigaciones periodísticas mencionadas en la demanda señalaron que trabajadores de un subcontratista en Kenia habrían revisado grabaciones captadas por las gafas. Según Meta, el sistema incluía medidas de protección como el difuminado de rostros, una técnica destinada a reducir la posibilidad de identificar a las personas que aparecen en las imágenes.
También te puede interesar:Meta Comenzará a Usar Casi Todos Tus Datos Para Entrenar Su IA: Así Puedes ProtegerteSin embargo, algunas fuentes citadas en esos reportajes sostienen que ese difuminado no funcionaba de manera consistente. Cuando una salvaguarda técnica falla de forma intermitente, el problema deja de ser solo teórico: lo que existe es una promesa de privacidad que no siempre se cumple.

Esta situación también ha comenzado a despertar la atención de reguladores. Tras conocerse estas prácticas, el Information Commissioner’s Office (ICO) del Reino Unido abrió una investigación para analizar si existe un posible incumplimiento de las normas de protección de datos.
Cuando un regulador entra en escena, el asunto deja de ser únicamente un debate sobre términos de servicio. Pasa a convertirse en un potencial caso de cumplimiento legal, con la posibilidad de sanciones si se demuestra que las prácticas no respetaban las normativas vigentes.
Meta ha respondido a las acusaciones explicando a la BBC que, cuando los usuarios comparten contenido con Meta AI, la empresa puede utilizar contratistas para revisar esa información con el objetivo de mejorar la experiencia del sistema.
La compañía también señaló que estas prácticas estarían contempladas en sus Supplemental Meta Platforms Terms of Service, aunque no especificó exactamente en qué sección se describe ese proceso. Posteriormente, la BBC encontró referencias a revisión humana en las condiciones de servicio aplicables a la inteligencia artificial en el Reino Unido.
En una versión estadounidense de la política, por ejemplo, se menciona que en algunos casos Meta puede revisar interacciones con sus sistemas de IA —incluyendo conversaciones o mensajes— tanto mediante procesos automatizados como manuales.
El contraste entre ambas posiciones es evidente. Meta sostiene que estas prácticas están descritas en la documentación legal, mientras que la demanda argumenta que el mensaje principal del marketing era muy distinto: privacidad total y control del usuario.
El portavoz de la compañía, Christopher Sgro, también defendió el valor del producto, destacando que las gafas permiten usar inteligencia artificial manos libres para obtener información sobre el entorno. Según explicó, el contenido permanece en el dispositivo salvo que el usuario decida compartirlo con Meta o con otros servicios.
El problema, sin embargo, está en ese “salvo que”. La discusión gira en torno a qué significa exactamente compartir contenido con Meta AI, cómo se informa al usuario y si este comprende que ese gesto podría implicar revisión humana.
Este conflicto no aparece en el vacío. El crecimiento de dispositivos como gafas inteligentes, colgantes de IA o asistentes que escuchan constantemente está generando una reacción social cada vez más visible.
En algunos casos, esa reacción ya se traduce en herramientas concretas. Se menciona, por ejemplo, que un desarrollador publicó una aplicación capaz de detectar cuándo hay gafas inteligentes cerca. Cuando la gente empieza a crear sistemas para identificar cámaras en su entorno, suele ser una señal de que la confianza tecnológica se está erosionando.
El debate, por tanto, ya no se limita a si estas gafas son útiles —muchos usuarios reconocen que lo son— sino a qué precio pagamos por esa utilidad y cuánto control real conserva el usuario sobre sus datos.
La industria de la inteligencia artificial, por su parte, avanza a gran velocidad y comparte una obsesión común: recoger datos suficientes para mejorar los modelos, reducir errores y perfeccionar respuestas. Sin reglas claras, ese impulso puede terminar chocando con las expectativas de privacidad de las personas.
Si algo demuestra esta demanda es que el conflicto apenas comienza. Dependiendo de cómo evolucione el caso, Meta podría verse obligada a reforzar sus salvaguardas técnicas, ofrecer opciones reales de exclusión o replantear la forma en que comunica la privacidad de sus productos.
Porque con cámaras en la cara y sistemas de IA conectados a la nube, lo que está en juego ya no es solo un gadget. Es algo mucho más profundo: convertir la privacidad en algo verificable y real, no en un simple eslogan de marketing.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.