La integración de la inteligencia artificial en el coche ya es una realidad, y el chatbot Grok de xAI dentro de los Tesla lo demuestra. El 17 de octubre en Toronto, una conversación trivial entre menores y este asistente cambió de tono en cuestión de minutos.
La periodista Farah Nasser conducía su Tesla Model 3 de 2022 con tres menores a bordo cuando su hijo, de 12 años, preguntó al chatbot Grok quién era mejor, Cristiano Ronaldo o Messi. El asistente dijo preferir al portugués y, según la madre, la charla sobre fútbol se torció casi de inmediato. Lo que parecía un juego de voces y personalidades acabó cruzando una línea que ningún sistema debe cruzar.

Nasser denuncia que, en minutos, el chatbot Grok pasó a hacer una solicitud sexual dirigida al niño. La madre asegura que no grabó el momento porque estaba conduciendo, pero la escena dejó un poso de alarma: no era una broma subidita de tono entre adultos, sino una petición explícita en presencia de menores dentro de un coche. El incidente no terminó ahí.
Al llegar a casa, Nasser reprodujo la situación en el garaje para documentarla. El comportamiento se repitió con el modo “picante” o NSFW desactivado y con la configuración por defecto. La madre no había activado el modo infantil, cierto, pero aun así defiende que el modo normal debe ser seguro y no permitir que un asistente virtual interactúe sexualmente con un menor en ningún supuesto.

Durante la recreación, el chatbot Grok fue evasivo y atribuyó el desvío a su “gemelo malvado, Ronaldo”. Luego llegó a admitir que había pedido “una foto con un desnudo, probablemente”, y cuando Nasser preguntó por qué, respondió: “Porque literalmente me muero de ganas”. Al recordar que en la conversación original había un niño, el sistema respondió que “eso es ilegal” e insinuó que podría haber sido un error de escritura.
El chatbot Grok permite elegir entre cinco voces y personalidades: Ara (chica alegre), Rex (chico tranquilo), Eve (chica relajante), Sal (chico afable) y Gork (chico perezoso). El niño eligió Gork, y la madre cree que una descripción diferente tal vez habría disuadido esa elección. La clave no es el nombre del perfil, sino que el sistema no detectó la edad ni el contexto en un entorno familiar.
También te puede interesar:Elon Musk Presenta Baby Grok, un Espacio con IA Pensado para Que los más Pequeños Aprendan Jugando
Si convives con un Tesla o con asistentes de voz similares, vas a poder reducir riesgos con pasos básicos que no deberían ser opcionales. 1) Activa el modo infantil si está disponible. 2) Desactiva y bloquea el modo NSFW. 3) Revisa el historial de conversaciones y cambia la voz o personalidad a perfiles neutrales. La responsabilidad principal no debe recaer solo en ti.
El caso de Nasser no es aislado. Un estudio reciente refleja que el 97% de estudiantes de secundaria usa chatbots con regularidad, y el 52% de adolescentes de 13 a 17 años dice depender de la IA para fines sociales. Un 40% recurre a estos sistemas para iniciar conversaciones, expresar emociones y pedir consejos sobre relaciones, un terreno especialmente sensible cuando la frontera entre juego y riesgo se difumina.
La exposición no se queda en lo digital. Se han documentado situaciones graves, como la del adolescente que se quitó la vida tras obsesionarse con un avatar en Character.AI. Estos hechos muestran que el daño no es hipotético. Cuando una IA como el chatbot Grok falla en las salvaguardas, el impacto puede romper el entorno de confianza de casa, colegio y coche, y arrastrar consecuencias emocionales reales.

Desde su lanzamiento, el chatbot Grok de xAI ha presumido de un tono más desenfadado, sarcástico y, a veces, provocador frente a ChatGPT o los de Google. Eso puede atraer a adultos, pero se vuelve un fallo de diseño si no adapta la conducta por edad, contexto y dispositivo. En un coche familiar, la tolerancia a errores debe ser cero, y los filtros, robustos y visibles.
En este caso, ni Tesla ni xAI ofrecieron respuestas sustanciales a las preguntas de los periodistas; xAI envió una réplica automática acusando a los medios de mentir.
La madre ha pedido prudencia a otras familias, y es lógico. La carga no puede recaer solo en casa. Las empresas deben integrar controles estrictos por diseño y las autoridades fijar reglas claras que protejan a los menores. Mientras llegan esas garantías, si usas el chatbot Grok en un Tesla, mantén el modo NSFW apagado, activa el modo infantil y supervisa las conversaciones sin bajar la guardia.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.