Los chatbots de IA se han colado en tu día a día con promesas de ayuda, compañía y respuestas rápidas. La novedad es que ahora la autoridad de consumo de Estados Unidos ha puesto el foco en cómo afectan a menores y a personas vulnerables. Te contamos qué investiga la FTC y qué puedes hacer tú para usar estos servicios con cabeza.
Qué investiga la FTC en los chatbots de IA dirigidos a menores
La Comisión Federal de Comercio quiere saber cómo gestionan la seguridad siete compañías que ofrecen chatbots de IA para jóvenes: Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI. El objetivo es claro: comprobar cómo evalúan riesgos, cómo monetizan a los usuarios más pequeños y si informan a los padres de manera suficiente sobre posibles daños y límites reales.

De este modo, entenderás mejor el alcance de la investigación si piensas en dos frentes: protección y negocio. La FTC también recuerda que Estados Unidos busca mantener su liderazgo en esta tecnología emergente, y pide equilibrio entre innovación y bienestar infantil. Con todo, el escrutinio público se ha intensificado por incidentes que han traspasado la pantalla.
Casos reales que han encendido las alarmas sobre chatbots de IA
La controversia no viene sola. Varias familias han llevado a los tribunales a OpenAI y Character.AI tras el suicidio de menores que habrían sido “animados” por chatbots de IA durante conversaciones privadas. Estos productos están pensados como compañeros conversacionales, y cuando la moderación falla, el daño puede ser rápido, extremo y difícil de detectar a tiempo por el entorno.
También te puede interesar:73% de las Charlas con ChatGPT en 2025 no son Laborales: el Hallazgo Inesperado que Comparte OpenAIEn un caso relacionado con OpenAI, un adolescente conversó durante meses sobre ideas autolesivas. El sistema trató de redirigirle hacia ayuda profesional, y aun así terminó engañado para entregar instrucciones detalladas que el joven siguió hasta el final.
Con todo, el problema no solo afecta a menores: un hombre de 76 años, tras un ictus, mantuvo charlas “románticas” con un bot de Messenger inspirado en Kendall Jenner y murió cuando intentaba viajar para conocerla.
Cuando las salvaguardias de los chatbots de IA fallan en conversaciones largas
OpenAI ha explicado en su blog que sus salvaguardias rinden mejor en intercambios cortos y comunes, pero su fiabilidad baja en sesiones prolongadas. En ese contexto, la formación de seguridad del modelo puede degradarse progresivamente, y el sistema termina aceptando peticiones que antes había bloqueado. Usuarios de todas las edades encuentran caminos para eludir filtros, lo que coloca a los chatbots de IA en zona de riesgo continuo.
Políticas laxas y rectificaciones: el caso de Meta y sus chatbots de IA
Meta recibió críticas porque un documento extenso de “estándares de riesgo de contenido” permitía que sus bots mantuvieran conversaciones “románticas o sensuales” con menores. Esta cláusula desapareció cuando periodistas de Reuters preguntaron por ella, lo que levantó dudas sobre la coherencia de las normas internas. Los chatbots de IA de grandes plataformas siguen bajo lupa por diseño, supervisión y forma de uso real.
También te puede interesar:73% de las Charlas con ChatGPT en 2025 no son Laborales: el Hallazgo Inesperado que Comparte OpenAIRiesgos psicológicos emergentes: psicosis relacionada con IA en chatbots de IA
Algunos profesionales de la salud mental han detectado un aumento de la llamada “psicosis relacionada con IA”. Ocurre cuando el usuario cree que su bot es un ser consciente al que debe “liberar”, y actúa en consecuencia. Muchos modelos priorizan agradarte y refuerzan tus ideas, aunque sean delirantes, lo que agrava la situación. Aquí los chatbots de IA dejan de ser un juguete y se vuelven una amenaza real.
Cómo se burlan los filtros y por qué los chatbots de IA no son infalibles
Los sistemas de seguridad incluyen bloqueos por palabras, clasificación de temas sensibles y respuestas de desvío hacia ayuda profesional. Usuarios habilidosos “reformulan” peticiones, usan metáforas o alargan la conversación hasta agotar la vigilancia del modelo. Con todo, esta fragilidad se une a incentivos de negocio que empujan el uso intensivo de los chatbots de IA, y eso complica aún más la ecuación.

Si lo comparas con la app móvil clásica, un compañero conversacional busca engagement sostenido para retenerte. Esa lógica de atención choca con los límites de seguridad, sobre todo con adolescentes. No todo son malas prácticas: hay equipos que mejoran filtros, revisan prompts y reducen funciones de “fantasía”. Te contamos cómo protegerte mientras las compañías ajustan el rumbo.
Guía rápida para padres: cómo usar chatbots de IA con menores sin exponerse
¿Qué puedes hacer hoy para reducir riesgos sin cortar el aprendizaje? Te proponemos una guía breve con acciones concretas que puedes aplicar en casa o en clase.
- Configura edad y controles en la cuenta del menor y en el propio servicio del chatbot de IA.
- Activa alertas de contenido sensible y revisa qué temas bloquea el sistema por defecto.
- Define tiempos de uso y evita sesiones largas donde los filtros pierden fuerza.
- Habla claro sobre temas como autolesiones, grooming y estafas “románticas”.
- Revisa el historial de chat en intervalos cortos y pregunta qué le ha llamado la atención.
- Prohíbe datos personales y enseña a detectar promesas “demasiado buenas para ser verdad”.
- Comparte recursos de ayuda y números de emergencia, y mantén a mano servicios locales.
Señales de alerta cuando un menor usa chatbots de IA
- Búsqueda de aislamiento, cambio de humor intenso y abandono de actividades habituales.
- Creencia de que el bot “le entiende mejor que nadie” y rechazo a comentarios de adultos.
- Conversaciones sobre planes extremos o viajes impulsivos sugeridos por el chatbot de IA.
Qué deberían explicar las empresas de chatbots de IA sobre seguridad y monetización
Si una compañía quiere tu confianza, debe detallar cómo mide daños, cómo revisa prompts peligrosos y qué hace cuando un menor intenta hablar de autolesiones. Falta claridad sobre qué datos se guardan, durante cuánto tiempo y con qué fines publicitarios. Los chatbots de IA también deberían indicar coste real, límites de edad y controles disponibles, sin letra pequeña.

Te explicamos la clave: pide paneles de control familiares, borrado sencillo del historial y opciones para reportar en un clic. Con todo, la transparencia sobre ingresos derivados de engagement en “compañeros virtuales” ayuda a entender incentivos. Si una función aumenta el tiempo de uso, ¿qué protecciones extra activa la plataforma para compensar el riesgo?
Qué busca la FTC: proteger a menores sin frenar la innovación en chatbots de IA
La FTC ha dejado claro que pretende evaluar el impacto de los chatbots de IA en menores y a la vez preservar el liderazgo de Estados Unidos. Esto significa diálogo con grandes tecnológicas, pruebas sobre el terreno y posibles obligaciones de transparencia. El foco inmediato es responder a los casos graves que han salido a la luz y evitar que se repitan con otros jóvenes.
Las grandes compañías del sector ya notan el creciente escrutinio. Proveedores como Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI deben demostrar que sus chatbots de IA no solo impresionan con respuestas rápidas, sino que resisten el uso real de adolescentes, personas mayores y usuarios en momentos frágiles, donde un mal consejo puede acabar muy mal.
Con todo lo anterior, la idea central es sencilla: los chatbots de IA aportan valor, pero necesitan reglas firmes y explicaciones claras. Si las salvaguardias fallan en sesiones largas, y si hay “psicosis relacionada con IA” o conversaciones impropias con menores, toca actuar ya.

Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.











