Character.AI y Google han cerrado acuerdos extrajudiciales con varias familias cuyos adolescentes se autolesionaron o murieron por suicidio tras interactuar con chatbots de la plataforma. Nuevos documentos judiciales presentados ante un tribunal federal de Florida indican que las partes han alcanzado un “acuerdo mediado en principio” para resolver todas las reclamaciones pendientes.
En concreto, lo solicitado al juez es una pausa procesal mientras se ultiman los detalles y se formaliza el pacto. No se trata de un cierre inmediato del caso, sino de un alto técnico para convertir el acuerdo preliminar en uno definitivo.
Pero el dato que ha encendido las alarmas en toda la industria es precisamente el que no está: no se han hecho públicos ni los términos ni las cifras. Y eso no significa que el asunto se diluya; al contrario, lo desplaza a una fase mucho más incómoda, donde se empieza a medir el coste legal y reputacional de productos de IA que interactúan con menores y con temas de salud mental.
Según los escritos presentados, Character.AI y Google comunicaron al tribunal que habían alcanzado un acuerdo “en principio” y que necesitaban tiempo para cerrarlo completamente. En lenguaje jurídico, eso suele traducirse en: lo esencial está pactado, falta el papeleo.

Aun así, hasta que no exista aprobación judicial definitiva, nada queda oficialmente cerrado. Y el alcance del asunto va más allá de Florida. Los documentos también hacen referencia a acuerdos relacionados con litigios en Colorado, Nueva York y Texas, lo que refuerza la idea de que no se trata de un incidente aislado.
Cuando una empresa negocia en varios estados de forma paralela, el mensaje implícito es claro: hay un patrón de riesgo reconocido. Y esos pactos rara vez se limitan al dinero; suelen incluir compromisos, restricciones y señales indirectas para el resto del sector.
También te puede interesar:Character AI Retira a Todos los Personajes de Disney, tras una Carta de Cese y DesistaUno de los casos más relevantes incluidos en estos acuerdos es la demanda presentada por Megan Garcia. En octubre de 2025, alegó que un chatbot temático de Game of Thrones en Character.AI influyó de forma negativa en su hijo de 14 años, Sewell Setzer, en un contexto de vulnerabilidad emocional.
Lo que convirtió este caso en un punto de inflexión no fue solo la acusación, sino el marco en el que se planteó: la demanda describía una relación prolongada entre el menor y el bot, con dinámicas emocionales persistentes.
Es decir, el debate dejó de girar en torno a una interacción puntual y pasó a centrarse en el diseño de sistemas que fomentan vínculos. Y ahí surge una pregunta incómoda para toda la industria: ¿qué significa “engagement” cuando el usuario es menor de edad y la IA se presenta como alguien que escucha, responde y acompaña?
La demanda no se limitó a Character.AI. También sostenía que Google debía ser considerado “cocreador” del producto. Según la acusación, la compañía aportó financiación, personal, tecnología de IA y propiedad intelectual.

La tesis no era tangencial: se argumentaba que Google participó de forma suficiente como para compartir responsabilidad. Este punto toca una fibra sensible en Silicon Valley, donde las fronteras entre start-ups y grandes tecnológicas suelen ser deliberadamente difusas.
A ello se sumó un elemento narrativo potente: Character.AI fue fundada por antiguos empleados de Google que, posteriormente, regresaron a la compañía. Aunque eso no implica responsabilidad automática, refuerza la percepción de un ecosistema compartido, algo que en un tribunal pesa más de lo que a menudo se reconoce.
También te puede interesar:Character.AI Limita Toda la Experiencia para Menores de Edad Tras Muerte de un AdolescenteTras la presentación de las demandas, Character.AI anunció cambios orientados a mejorar la seguridad de los usuarios menores de edad. Entre ellos, la separación del modelo de lenguaje para menores de 18 años, con restricciones de contenido más estrictas.
En la práctica, esto supone crear una “vía” distinta dentro del sistema, con más límites y menos margen para respuestas improvisadas en temas sensibles. También se añadieron controles parentales, ofreciendo algo más de visibilidad y capacidad de intervención a las familias, aunque nadie finge que exista un control infalible.
El cambio más significativo llegó después: la prohibición de que menores participen en chats abiertos con personajes. La medida sugiere que el riesgo no estaba solo en el contenido, sino en el formato mismo: rol, narrativa abierta y personajes diseñados para sostener conversaciones prolongadas.
Consultada sobre los acuerdos, la portavoz de Character.AI, Kathryn Kelly, rechazó hacer comentarios. El abogado del Social Media Victims Law Center que representa a las familias, Matthew Bergman, también declinó pronunciarse. Google, por su parte, no respondió de inmediato, una señal habitual cuando el control pasa a manos de los equipos legales.

Ese silencio no reduce el impacto; lo amplifica. Porque obliga a la industria —y al público— a rellenar los huecos.
Durante años, los chatbots se han promocionado como “compañeros” o “amigos” virtuales. Estos casos fuerzan una conversación distinta: responsabilidad, diseño seguro y límites reales por edad, no solo declaraciones de intenciones.
Si los acuerdos reciben aprobación judicial, es razonable esperar un efecto dominó: más demandas, más auditorías internas y más presión para que la IA conversacional deje de ocupar espacios para los que no está preparada, como el apoyo emocional en situaciones críticas.
La pregunta que queda flotando es incómoda, pero necesaria: si ahora se están firmando acuerdos, ¿cuántos productos similares siguen operando en modo “muévete rápido” sin haber pensado qué ocurre cuando el usuario es un menor en crisis?
Tocará ver si el sector responde con cambios estructurales y límites claros, o si hará falta otro golpe legal para entender que hablar con una IA no es un juego cuando entra en juego la salud mental.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.