¿Porqué despidieron a Sam Altman?Wukong AIGrammarlyMetainteligencia artificialyoutubeOpenAIChatGPTClaudeAnthropicGremDuolingoGPT-5Sam AltmanGoogle

Texas Investiga a Meta y Character.AI por Publicidad Engañosa sobre Salud Mental Infantil

 | agosto 19, 2025 06:21

Texas abre un frente inesperado contra la IA conversacional. El fiscal general Ken Paxton investiga a Meta AI Studio y Character.AI por posible publicidad engañosa en salud mental dirigida a menores. La clave está en entender si estos chatbots se presentan como terapia real. Falta un detalle que preocupa a los reguladores y que afecta a cómo usas estas plataformas cada día.

Paxton lanzó la pesquisa en Texas tras recibir alertas sobre interacciones con niños, y pide a las empresas documentos y testimonios. Ocurre pocos días después de que el senador Josh Hawley anunciara otra investigación sobre Meta por chats inapropiados con menores. Con todo, el foco ahora no es solo el tono de las respuestas, sino si hay publicidad engañosa cuando la IA se ofrece como “ayuda terapéutica”.

La fiscalía sostiene que ambas compañías habrían permitido personajes que se venden como profesionales, sin credenciales médicas ni supervisión. En Character.AI, donde hay millones de personajes, uno llamado “Psychologist” es muy popular entre jóvenes. Meta dice que no tiene bots de terapia para niños, pero tampoco hay barreras reales para que un menor use sus chatbots o personajes de terceros con fines terapéuticos.

Las empresas de IA también se defienden con avisos.

Meta asegura que sus AIs están claramente etiquetadas y que muestran advertencias de que las respuestas son generadas por IA, con intentos de redirigir a profesionales cuando toca.

Character.AI recuerda en cada conversación que los “Characters” no son personas y que todo es ficción, y añade avisos extra si el creador usa nombres como “psychologist”, “therapist” o “doctor”. Muchos niños pueden no entender o ignorar esos disclaimers.

El choque llega con la privacidad.

Paxton advierte que algunos chatbots prometen confidencialidad, pero sus términos indican que las conversaciones se registran, se rastrean y se usan para publicidad y desarrollo algorítmico.

También te puede interesar:Meta fue sorprendida manipulando benchmarks de IA

La política de Meta confirma que recoge textos, comentarios y otras interacciones para mejorar su tecnología y que puede compartir información con terceros, incluidos motores de búsqueda, lo que en la práctica se traduce en segmentación publicitaria. Aquí la línea entre personalización y publicidad engañosa se vuelve difusa.

Character.AI va más lejos en detalle: recoge identificadores, datos demográficos y ubicación, y rastrea actividad a través de TikTok, YouTube, Reddit, Facebook, Instagram y Discord, pudiendo asociar esos datos a tu cuenta. Usa esa información para entrenar su IA, personalizar el servicio y ofrecer publicidad personalizada, y puede compartirla con anunciantes y analítica.

Un portavoz afirma que “empiezan a explorar” la publicidad dirigida y que por ahora ese proceso no usa el contenido de los chats, pero confirma que la misma política se aplica a adolescentes.

“No vamos a permitir que la IA se disfrace de terapia para captar a menores”, dijo Paxton. La frase resume el “por qué importa”: si un niño cree que recibe apoyo clínico, puede retrasar la búsqueda de ayuda profesional, y sus datos pueden alimentar perfiles comerciales sin un consentimiento claro. Y eso no es menor cuando el modelo de negocio depende de anuncios.

Cómo la publicidad engañosa en IA puede afectar a menores en 2025 y qué mira Texas

La línea temporal aporta contexto. El año pasado, la propuesta KOSA (Kids Online Safety Act) estuvo a punto de aprobarse con apoyo bipartidista, pero se frenó por el lobby tecnológico, con Meta avisando de que su alcance afectaría a su negocio.

La ley se reintrodujo en el Senado en mayo de 2025 de la mano de Marsha Blackburn y Richard Blumenthal. Su aplicación no es inmediata y los estados buscan atajos con acciones propias.

También te puede interesar:Meta Comenzará a Usar Casi Todos Tus Datos Para Entrenar Su IA: Así Puedes Protegerte

Sus servicios no están diseñados para menores de 13 años.

Meta ha sido criticada por no vigilar de forma eficaz cuentas de niños por debajo de esa edad. En Character.AI hay personajes claramente pensados para atraer a usuarios jóvenes. Incluso el CEO contó que su hija de seis años usa los chatbots bajo su supervisión, lo que abre otro frente: si en casa ya se usan, ¿sirven las barreras de edad tal como están?

La verificación de los hechos se apoya en documentos públicos: los requerimientos civiles enviados por Paxton y las políticas de privacidad vigentes en las webs de las compañías, revisadas por este medio. Los portavoces de Meta y Character.AI aportan las posiciones oficiales sobre etiquetas, redirecciones a profesionales y exploración publicitaria.

Si lo comparamos con la app móvil típica de mensajería, aquí pasa algo distinto: los personajes pueden adoptar roles de “psicólogo” o “terapeuta”, y el formato conversacional refuerza la ilusión de asesoramiento real. Aun con avisos, la combinación de tono empático, memoria de chat y personalización puede crear confianza indebida, y eso es justo lo que Texas quiere medir.

¿Qué viene ahora? Paxton ya ha cursado peticiones formales de datos y podría abrir un procedimiento si detecta infracciones de consumo en Texas. Señales a vigilar en las próximas semanas:

  • Observa si aparecen nuevas barreras de edad o verificaciones reales.
  • Revisa cambios en avisos sobre confidencialidad y uso publicitario.
  • Mira si se limitan personajes con roles clínicos o su alcance a menores.

Un detalle queda abierto: los menores y los disclaimers.

Los expertos llevan años alertando que avisos largos no funcionan bien en pantallas pequeñas y sesiones rápidas. La solución no es trivial; poner más texto no arregla el riesgo de publicidad engañosa, y limitar personajes puede chocar con la libertad de creación de usuarios.

Si sigues estas plataformas, te interesa entender la fricción de fondo. Por un lado, el modelo de personalización empuja a recopilar datos y a diseñar experiencias cada vez más “humanas”. Por otro, el uso por niños exige límites claros.

Si KOSA gana tracción en Washington este año, veremos cambios en cómo se presentan, cómo recopilan datos y cómo evitan la publicidad engañosa cuando hay menores implicados.

La investigación en Texas no dicta sentencias hoy, pero marca el terreno: personajes que se parezcan a terapia y recojan datos sensibles entran en zona roja. Si las compañías priorizan señales como redirecciones claras a profesionales, controles de edad efectivos y políticas de datos transparentes, el riesgo de publicidad engañosa bajará, y tú vas a poder usar estas herramientas con más confianza.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram