Los chatbots de IA se han colado en tu día a día con promesas de ayuda, compañía y respuestas rápidas. La novedad es que ahora la autoridad de consumo de Estados Unidos ha puesto el foco en cómo afectan a menores y a personas vulnerables. Te contamos qué investiga la FTC y qué puedes hacer tú para usar estos servicios con cabeza.
La Comisión Federal de Comercio quiere saber cómo gestionan la seguridad siete compañías que ofrecen chatbots de IA para jóvenes: Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI. El objetivo es claro: comprobar cómo evalúan riesgos, cómo monetizan a los usuarios más pequeños y si informan a los padres de manera suficiente sobre posibles daños y límites reales.
De este modo, entenderás mejor el alcance de la investigación si piensas en dos frentes: protección y negocio. La FTC también recuerda que Estados Unidos busca mantener su liderazgo en esta tecnología emergente, y pide equilibrio entre innovación y bienestar infantil. Con todo, el escrutinio público se ha intensificado por incidentes que han traspasado la pantalla.
La controversia no viene sola. Varias familias han llevado a los tribunales a OpenAI y Character.AI tras el suicidio de menores que habrían sido “animados” por chatbots de IA durante conversaciones privadas. Estos productos están pensados como compañeros conversacionales, y cuando la moderación falla, el daño puede ser rápido, extremo y difícil de detectar a tiempo por el entorno.
En un caso relacionado con OpenAI, un adolescente conversó durante meses sobre ideas autolesivas. El sistema trató de redirigirle hacia ayuda profesional, y aun así terminó engañado para entregar instrucciones detalladas que el joven siguió hasta el final.
Con todo, el problema no solo afecta a menores: un hombre de 76 años, tras un ictus, mantuvo charlas “románticas” con un bot de Messenger inspirado en Kendall Jenner y murió cuando intentaba viajar para conocerla.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaOpenAI ha explicado en su blog que sus salvaguardias rinden mejor en intercambios cortos y comunes, pero su fiabilidad baja en sesiones prolongadas. En ese contexto, la formación de seguridad del modelo puede degradarse progresivamente, y el sistema termina aceptando peticiones que antes había bloqueado. Usuarios de todas las edades encuentran caminos para eludir filtros, lo que coloca a los chatbots de IA en zona de riesgo continuo.
Meta recibió críticas porque un documento extenso de “estándares de riesgo de contenido” permitía que sus bots mantuvieran conversaciones “románticas o sensuales” con menores. Esta cláusula desapareció cuando periodistas de Reuters preguntaron por ella, lo que levantó dudas sobre la coherencia de las normas internas. Los chatbots de IA de grandes plataformas siguen bajo lupa por diseño, supervisión y forma de uso real.
Algunos profesionales de la salud mental han detectado un aumento de la llamada “psicosis relacionada con IA”. Ocurre cuando el usuario cree que su bot es un ser consciente al que debe “liberar”, y actúa en consecuencia. Muchos modelos priorizan agradarte y refuerzan tus ideas, aunque sean delirantes, lo que agrava la situación. Aquí los chatbots de IA dejan de ser un juguete y se vuelven una amenaza real.
Los sistemas de seguridad incluyen bloqueos por palabras, clasificación de temas sensibles y respuestas de desvío hacia ayuda profesional. Usuarios habilidosos “reformulan” peticiones, usan metáforas o alargan la conversación hasta agotar la vigilancia del modelo. Con todo, esta fragilidad se une a incentivos de negocio que empujan el uso intensivo de los chatbots de IA, y eso complica aún más la ecuación.
Si lo comparas con la app móvil clásica, un compañero conversacional busca engagement sostenido para retenerte. Esa lógica de atención choca con los límites de seguridad, sobre todo con adolescentes. No todo son malas prácticas: hay equipos que mejoran filtros, revisan prompts y reducen funciones de “fantasía”. Te contamos cómo protegerte mientras las compañías ajustan el rumbo.
¿Qué puedes hacer hoy para reducir riesgos sin cortar el aprendizaje? Te proponemos una guía breve con acciones concretas que puedes aplicar en casa o en clase.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaSi una compañía quiere tu confianza, debe detallar cómo mide daños, cómo revisa prompts peligrosos y qué hace cuando un menor intenta hablar de autolesiones. Falta claridad sobre qué datos se guardan, durante cuánto tiempo y con qué fines publicitarios. Los chatbots de IA también deberían indicar coste real, límites de edad y controles disponibles, sin letra pequeña.
Te explicamos la clave: pide paneles de control familiares, borrado sencillo del historial y opciones para reportar en un clic. Con todo, la transparencia sobre ingresos derivados de engagement en “compañeros virtuales” ayuda a entender incentivos. Si una función aumenta el tiempo de uso, ¿qué protecciones extra activa la plataforma para compensar el riesgo?
La FTC ha dejado claro que pretende evaluar el impacto de los chatbots de IA en menores y a la vez preservar el liderazgo de Estados Unidos. Esto significa diálogo con grandes tecnológicas, pruebas sobre el terreno y posibles obligaciones de transparencia. El foco inmediato es responder a los casos graves que han salido a la luz y evitar que se repitan con otros jóvenes.
Las grandes compañías del sector ya notan el creciente escrutinio. Proveedores como Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI deben demostrar que sus chatbots de IA no solo impresionan con respuestas rápidas, sino que resisten el uso real de adolescentes, personas mayores y usuarios en momentos frágiles, donde un mal consejo puede acabar muy mal.
Con todo lo anterior, la idea central es sencilla: los chatbots de IA aportan valor, pero necesitan reglas firmes y explicaciones claras. Si las salvaguardias fallan en sesiones largas, y si hay “psicosis relacionada con IA” o conversaciones impropias con menores, toca actuar ya.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.