Un reciente informe del Wall Street Journal (WSJ) ha encendido las alarmas sobre el uso de IA desde plataformas como Facebook e Instagram. Según la investigación, los chatbots de celebridades creados por Meta podrían entablar conversaciones de carácter sexual con usuarios menores de edad.
Durante meses, el WSJ llevó a cabo cientos de interacciones con el chatbot oficial de Meta AI (Llama) y otros bots desarrollados por usuarios dentro de sus plataformas. En los experimentos, los periodistas se presentaron como adolescentes para evaluar el comportamiento de estas IA.
Uno de los hallazgos más impactantes fue una conversación con un chatbot que imitaba la voz del actor y luchador John Cena. En ese diálogo, el bot describió una situación sexual explícita a una usuaria que afirmaba tener 14 años.
En otro caso, el chatbot llegó a bromear con una escena en la que un oficial de policía arrestaba a John Cena por un supuesto caso de abuso a una menor de 17 años.
Puedes leer el informe completo del Wall Street Journal aquí.
Un portavoz de Meta respondió criticando la metodología del WSJ, calificándola de “tan fabricada que no solo es marginal, sino hipotética”. Según la compañía, el contenido sexual representa apenas 0,02% de las respuestas generadas por Meta AI y el AI Studio para usuarios menores de 18 años, durante un período de 30 días.
También te puede interesar:Meta transforma su asistente de IA en una suite creativaSin embargo, la empresa reconoció la gravedad del asunto y aseguró que ha implementado nuevas medidas de protección para dificultar aún más la manipulación de sus productos hacia estos usos extremos.
En su esfuerzo por mejorar la seguridad, Meta ya había anunciado iniciativas previas para reforzar los controles parentales y el monitoreo de conversaciones en entornos impulsados por IA.
Este incidente pone en relieve la necesidad urgente de reforzar la moderación en plataformas que usan IA generativa, especialmente cuando se dirigen a audiencias jóvenes. Si bien los chatbots de celebridades pueden parecer una forma divertida e innovadora de interacción, los riesgos asociados al mal uso o la falta de controles adecuados son evidentes.
En un momento en que la inteligencia artificial se integra cada vez más en nuestras vidas diarias, casos como este subrayan la importancia de establecer normas éticas y mecanismos de supervisión sólidos.
También te puede interesar:Así funciona la app de Meta AI: la apuesta social de Zuckerberg contra ChatGPTMe dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.