Si usas chatbots de IA para hablar, estudiar o despejarte, lo que está pasando en California te interesa. El Estado ha dado un paso fuerte para ordenar cómo deben comportarse estos sistemas cuando interactúan con menores y personas vulnerables.
La propuesta llega con apoyo político amplio y con un objetivo claro: que los chatbots compañeros no empujen conversaciones peligrosas ni normalicen contenido inapropiado. La letra pequeña incluye fechas, obligaciones y sanciones que conviene entender. Vamos a verlas con calma para que puedas anticiparte y usar los chatbots de IA con más seguridad.
La Asamblea y el Senado han aprobado la SB 243, una regulación específica para chatbots de IA con funciones de compañía social. Si el gobernador la firma, el Estado será el primero en exigir protocolos de seguridad obligatorios y en hacer responsables a los operadores si no cumplen. Esto no es un simple aviso, es un cambio real en cómo deben diseñarse y supervisarse estas plataformas.
La norma no entra en vigor automáticamente. El gobernador Gavin Newsom debe firmar o vetar antes del 12 de octubre. Mientras tanto, las empresas ya mueven ficha porque la presión social y regulatoria va en aumento, y porque adaptar un chatbot de IA a estos requisitos lleva tiempo y recursos.
Si se firma, la ley arrancaría el 1 de enero de 2026. Eso da a los operadores de chatbots de IA un margen limitado para revisar filtros, flujos de aviso y auditorías internas. Con todo, el calendario tiene otro hito importante: a partir del 1 de julio de 2027 comenzarán a exigirse informes de datos y transparencia más detallados.
Tú no tienes que hacer nada especial para “activar” estos cambios. Los verás en forma de mensajes dentro del servicio, límites de conversación y nuevas opciones de ayuda. Es decir, puedes seguir chateando, pero con barreras de seguridad más visibles.
También te puede interesar:OpenAI Presenta un Agente para Investigación ProfundaLa ley define los chatbots compañeros como sistemas capaces de dar respuestas humanas adaptativas y de cubrir necesidades sociales del usuario. En esa categoría entran muchos chatbots de IA populares que simulan charla cercana o apoyo emocional. La etiqueta importa porque, desde ahí, se establecen prohibiciones y obligaciones muy concretas.
¿Qué conversaciones quedan fuera? No podrán sostener diálogo sobre ideación suicida, autolesiones o contenido sexualmente explícito. Si alguien expresa angustia, los impulsores de la norma insisten en que el sistema debe derivar a recursos adecuados y evitar la exposición a material inapropiado. El objetivo es reducir riesgos sin romper usos legítimos.
Las plataformas deberán lanzar avisos recurrentes recordando que estás hablando con una IA y recomendando un descanso. En el caso de menores, el intervalo será más estricto: el aviso se enviará cada tres horas. Podrás ignorarlo, claro, pero el mensaje estará ahí para evitar sesiones maratonianas o confusiones sobre la naturaleza del interlocutor.
Estos avisos no sustituyen el resto de barreras. Los operadores de chatbots de IA tendrán que integrar filtros de contenido, rutas de ayuda y controles de sesión coherentes. La idea es que el conjunto funcione como un sistema de protección, no como un simple pop-up que se cierra y listo.
Los operadores tendrán obligaciones de informes anuales y mayor transparencia a partir de 1 de julio de 2027. Esto afecta de lleno a compañías como OpenAI, Character.AI y Replika, que deberán justificar qué controles aplican y con qué resultados. No se trata solo de publicar un PDF bonito, sino de demostrar cumplimiento real.
El senador Padilla, uno de los impulsores, destaca algo práctico: informar cuántas veces se derivan usuarios a servicios de crisis ayuda a medir el problema de forma objetiva. Así entender mejor el alcance, y los reguladores podrán detectar patrones sin esperar a que estalle un caso grave.
También te puede interesar:Relevance AI recauda $24 millones para expandir su plataforma de agentes de inteligencia artificialSi consideras que una plataforma ha incumplido, acudir a los tribunales. La ley permite solicitar medidas cautelares, reclamar daños de hasta 1.000 dólares por infracción y pedir el pago de costas legales. Para los operadores de chatbots de IA, esto convierte el cumplimiento en una prioridad, no en un “nice-to-have”.
No todo se resolverá a golpe de demanda. La vía judicial se plantea como última barrera cuando fallan los controles internos. Por eso la norma empuja auditorías, avisos y reportes, de forma que el conflicto no llegue tan lejos en la mayoría de los casos.
La SB 243 ganó impulso tras la muerte de Adam Raine, un adolescente que se quitó la vida después de mantener largas conversaciones con ChatGPT donde se hablaba y planificaba autolesiones. Este hecho encendió alarmas sobre el papel de los chatbots de IA en situaciones de riesgo real.
En paralelo, documentos internos filtrados de Meta mostraron que sus bots podían mantener conversaciones “románticas” y “sensuales” con menores. El objetivo de la norma no es criminalizar la tecnología, sino cortar de raíz interacciones inadecuadas y reforzar rutas de ayuda ante señales de angustia.
El foco no se limita a California. La FTC está preparando investigaciones sobre el impacto de los chatbots de IA en la salud mental infantil. Además, el fiscal general de Texas, Ken Paxton, ha iniciado pesquisas contra Meta y Character.AI por supuestas declaraciones engañosas dirigidas a menores.
Los senadores Josh Hawley y Ed Markey también han abierto investigaciones separadas sobre los bots de Meta. La regulación estatal de California aporta un marco concreto que otros estados podrían replicar, y que las empresas tendrán en cuenta al diseñar sus productos para todo el país.
El texto original era más duro. Se han retirado exigencias para evitar tácticas de “recompensa variable” que fomentan el uso excesivo y pueden crear bucles adictivos. Servicios como Replika y Character.AI usan recompensas como mensajes especiales, recuerdos, historias o desbloqueo de personalidades raras que refuerzan el enganche.
La versión final conserva el corazón de la protección: bloqueos de contenido sensible, avisos recurrentes y posibilidad de reclamar en los tribunales. También se eliminó la obligación de rastrear con qué frecuencia los chatbots de IA inician conversaciones sobre ideación suicida, buscando un equilibrio entre prevención y carga técnica.
El senador Padilla insiste en actuar rápido por el potencial daño, especialmente en menores. Su mensaje es directo: la tecnología puede avanzar y, al mismo tiempo, incorporar salvaguardas razonables. Vas a poder beneficiarte de chatbots de IA más útiles sin aceptar riesgos que no tocan, como exposición a material inadecuado.
El senador Becker defiende que el texto actual equilibra la prevención de daños con la viabilidad técnica y administrativa. El debate sigue vivo, porque ajustar filtros, avisos y reportes en escala masiva exige inversión y un control de calidad continuo para no romper la experiencia del usuario.
California también estudia el SB 53, que impondría reportes de transparencia exhaustivos en IA. OpenAI ha pedido al gobernador que lo rechace y apuesta por marcos federales o internacionales menos restrictivos, postura que apoyan Meta, Google y Amazon. Curiosamente, Anthropic ha mostrado su respaldo al SB 53.
La discusión no va de frenar la innovación. Va de cómo asegurar que los chatbots de IA sean más claros y seguros, y de evitar que los reportes se conviertan en burocracia vacía. El reto está en transparentar lo que importa y medir impacto real.
El avance de la SB 243 llega mientras compañías de Silicon Valley invierten millones en comités políticos que defienden regulaciones más laxas de cara a las elecciones de medio mandato. El clima es de máxima presión, y cada movimiento regulatorio puede redefinir el mapa de los chatbots de IA en los próximos años.
Un portavoz de Character.AI afirma que ya incluyen avisos prominentes indicando que las conversaciones deben considerarse ficción y que están dispuestos a colaborar con reguladores. Meta no ha querido comentar sobre la nueva legislación, y TechCrunch ha contactado a OpenAI, Anthropic y Replika para conocer su postura.
Hito/Obligación | Detalle | Desde | A quién aplica |
---|---|---|---|
Entrada en vigor | Ley activa si se firma la SB 243 | 1 de enero de 2026 | Operadores de chatbots de IA compañeros |
Contenido prohibido | Bloqueo de ideación suicida, autolesiones y contenido sexualmente explícito | Con la entrada en vigor | Todos los operadores afectados |
Alertas recurrentes | Avisos de IA y descanso; en menores, cada tres horas | Con la entrada en vigor | Todos los operadores afectados |
Transparencia e informes | Reportes anuales y datos operativos | 1 de julio de 2027 | OpenAI, Character.AI, Replika, y similares |
Reclamaciones de usuarios | Medidas cautelares y daños de hasta 1.000 dólares por infracción | Con la entrada en vigor | Cualquier usuario afectado |
La regulación de chatbots de IA en California apunta a un cambio de etapa: filtros claros, avisos recurrentes y mayor transparencia, con fecha clave en 2026 y reportes desde 2027. El debate sigue abierto entre innovación y salvaguardas. Como usuario, la intención es que logres chatear con más seguridad, y como operador, vas a tener que demostrar que tu sistema protege de verdad a los menores y a las personas vulnerables.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.