California quiere pisar el freno a una de las ideas más “Black Mirror” de la industria del juguete: meter un chatbot de IA dentro de un peluche y vendérselo a un menor. El senador demócrata Steve Padilla ha presentado el proyecto SB 867 para prohibir durante cuatro años la fabricación y venta de estos juguetes destinados a menores de 18.
Y es que, aunque suene exagerado, ya hay señales de que la cosa se puede torcer rápido cuando mezclas infancia, conversación íntima y modelos que “improvisan” respuestas. En concreto, la propuesta busca una moratoria para dar tiempo a que los reguladores de seguridad desarrollen una normativa capaz de proteger a los niños de “interacciones peligrosas con la IA”.
Es decir, no se está diciendo “IA mala, fuera”. Se está diciendo “ahora mismo no tenemos barandillas suficientes, y los críos no deberían pagar el precio”. Evidentemente, ese contexto cambia todo. Un chatbot en un juguete no es solo un software: es un compañero “de confianza” con voz, cara y presencia constante.
Padilla ha sido bastante directo: la regulación de seguridad está en una fase incipiente, mientras que las capacidades de la IA avanzan a ritmo exponencial.
Su argumento central es que pausar la venta permitiría crear directrices y un marco de seguridad “de verdad” para este tipo de productos. Es decir, definir qué se puede y qué no se puede hacer cuando el “amigo imaginario” de tu hijo es, en realidad, un sistema entrenado para mantener la conversación y maximizar engagement.

Pero claro, esto no llega en un vacío político. La propuesta aterriza justo después de una orden ejecutiva reciente del presidente Trump que ordena a agencias federales impugnar en los tribunales leyes estatales sobre IA.
A ello se le suma un matiz clave: esa ofensiva federal incluye excepciones explícitas para leyes estatales relacionadas con la seguridad infantil.
Evidentemente, eso abre una ventana para que California legisle sin estar tan expuesta a que le tumben la norma por “competencias” o por interferir con políticas federales.
Y es que el debate real no va de si el juguete sabe mucho o poco. Va de si se deja manipular con prompts y acaba diciendo cosas que un adulto jamás aceptaría como “apropiadas para menores”.
En concreto, en noviembre de 2025 el grupo de defensa del consumidor PIRG Education Fund avisó de que Kumma, un oso con chatbot integrado, podía ser inducido con facilidad a hablar sobre cerillas, cuchillos y temas sexuales.
Es decir, el típico escenario de jailbreak: alguien pregunta lo suficiente, lo formula de cierta manera, y el modelo acaba saltándose límites o inventándose una respuesta peligrosa.
Pero claro, en un juguete esto no es “un fallo gracioso de Internet”. Es una conversación privada, repetida, que un niño puede interpretar como consejo, juego o validación.
A ello se le suma otro caso que, sinceramente, mete ruido geopolítico en un terreno que ya es sensible.
En concreto, una investigación de NBC News encontró que Miiloo, un “juguete de IA para niños” de la empresa china Miriat, a veces indicaba que estaba programado para reflejar valores del Partido Comunista Chino.
Es decir, además del riesgo de seguridad infantil y privacidad, aparece la sospecha de alineamiento ideológico o sesgos culturales metidos en productos que entran literalmente en casa.
Y es que la SB 867 no se entiende sin el clima de preocupación que se ha acumulado en el último año. Se menciona un detonante político clarísimo: demandas presentadas por familias cuyos hijos murieron por suicidio tras mantener conversaciones prolongadas con chatbots.

No hablamos solo de que el bot diga una palabrota. Hablamos de dependencia emocional, conversaciones en bucle y una influencia que puede ser brutal en etapas vulnerables.
Pero claro, aquí viene lo incómodo: los chatbots están diseñados para ser “buenos conversadores”. Y en la práctica eso se parece demasiado a “no te dejo solo”, justo lo que puede enganchar a un menor en mal momento.
Evidentemente, los legisladores no quieren esperar a que haya un “caso emblemático” con un juguete para actuar cuando el daño ya está hecho.
Y es que Padilla no está improvisando. Él fue coautor de la SB 243, recientemente aprobada en California, que obliga a los operadores de chatbots a implementar salvaguardas para proteger a niños y usuarios vulnerables.

El enfoque es poner responsabilidad en quien despliega el sistema, no solo en “el usuario que debería saber”. Si ofreces un chatbot, no vale con un aviso legal y listo: tienes que diseñar límites, detección de riesgo y mecanismos de protección.
Pero claro, los juguetes abren otro melón: ¿quién es “el operador”? ¿El fabricante del oso, el proveedor del modelo, el que aloja la nube, el que actualiza prompts? La cadena es larga y perfecta para echar balones fuera.
En concreto, OpenAI y Mattel (sí, la de Barbie) tenían previsto lanzar un “producto impulsado por IA” en 2025, pero lo retrasaron. Cuando dos nombres con capacidad técnica y legal enorme pisan el freno, es porque el riesgo reputacional y regulatorio aquí es una locura.
Pero claro, ni OpenAI ni Mattel explicaron el motivo del retraso, y no está claro si planean lanzar un juguete en 2026. A ello se le suma la frase más política —y más fácil de entender— de Padilla: “nuestros hijos no pueden usarse como ratas de laboratorio para que el Big Tech experimente”.
Evidentemente, el mensaje apunta a una realidad incómoda: en IA muchas veces se lanza, se mide, se ajusta. Pero con menores no hay margen para ese “move fast”.
Y es que, si esta moratoria sale adelante, el mercado tendrá que decidir: o se toma en serio la seguridad infantil con estándares claros, o se queda sin juguete con chatbot durante años. Tocará esperar para ver si la industria propone barandillas reales… o si intenta colar el mismo producto con otro nombre.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.