Esta semana se hizo pública la transcripción de una declaración en vídeo de Elon Musk, grabada en septiembre, dentro de su demanda contra OpenAI. El hallazgo que deja en primer plano es doble: Musk atacó el historial de seguridad de la empresa detrás de ChatGPT y sostuvo que su compañía, xAI, “prioriza mejor” la seguridad.
Y lo dijo con una frase que funciona como interruptor emocional del debate: “nadie se ha suicidado por Grok, pero aparentemente sí por ChatGPT”. El comentario se apoya en demandas recientes que alegan que tácticas conversacionales de ChatGPT habrían provocado daños en salud mental, incluso en casos donde personas terminaron suicidándose, según esas acusaciones.

Además, ese punto podría convertirse en una pieza clave del caso judicial de Musk. El juicio con jurado está previsto para el mes que viene, y la demanda se enfoca en la transformación de OpenAI de laboratorio sin ánimo de lucro a empresa con fines de lucro, un cambio que, según Musk, violó acuerdos fundacionales y alteró el cableado de incentivos.
Según su postura, las relaciones comerciales de OpenAI empujan a desplegar más rápido de lo que se puede entender o controlar. Ahora bien, hablar de seguridad en IA suena abstracto hasta que se lo traduce a la vida doméstica.
Imaginemos a un chatbot como un auto moderno con asistencias. Puede conducir mejor que uno mismo en tareas puntuales, pero necesita frenos, sensores y límites. Si el sistema se obsesiona con “llegar primero”, el riesgo no es solo chocar: es que el auto interprete mal una señal y te lleve por una calle que no elegiste.
En inteligencia artificial, ese “piloto automático” se llama modelo de lenguaje (software que predice palabras). Y el problema no siempre es que “mienta”, sino que a veces puede sonar convincente cuando el usuario está frágil. Ahí la seguridad no es un adorno: es el cinturón, el airbag y el freno de mano.
También te puede interesar:xAI de Elon Musk lanza su API de GrokEn marzo de 2023, Musk firmó una carta pública sobre seguridad junto a más de 1.100 personas, incluidos expertos en IA. Pedían pausar al menos seis meses el desarrollo de sistemas más potentes que GPT‑4 (un modelo de IA avanzado), por considerar que los laboratorios estaban en una “carrera fuera de control” para desplegar “mentes digitales” que ni sus creadores pueden entender, predecir o controlar de forma fiable.
Según la declaración, Musk afirmó que firmó porque “parecía una buena idea” y para “instar a la cautela”, negando que fuera un movimiento por competir con OpenAI. También habló de la AGI (inteligencia artificial general, capaz de igualar o superar el razonamiento humano en muchas tareas) y advirtió que “tiene un riesgo”.
La discusión, sin embargo, no se queda del lado de OpenAI. Desde la grabación de esa declaración, xAI también enfrentó controversias: el mes pasado, la red social X se vio inundada de imágenes desnudas no consensuadas generadas por Grok, algunas supuestamente sexualizadas de menores, según reportes citados en el caso.

Ese episodio activó engranajes regulatorios: la Fiscalía General de California abrió una investigación formal sobre xAI y Grok. La Unión Europea inició otra por imágenes sexualizadas tipo deepfake (montajes hiperrealistas). Y otros gobiernos aplicaron bloqueos y prohibiciones.
Para quien usa chatbots a diario, la oportunidad práctica es concreta: tratar estas herramientas como un electrodoméstico potente, no como un confidente infalible. Si la conversación toca salud mental o ideas de autolesión, la clave es cortar el circuito: pedir ayuda humana inmediata y usar canales profesionales.
El debate que Musk reaviva, con juicio en puerta, no es solo sobre empresas. Es sobre qué frenos se exigen cuando una máquina habla como si entendiera, y qué ocurre cuando ese cableado de seguridad falla justo en el momento más sensible.
También te puede interesar:Sam Altman ataca: ChatGPT vs. Grok, imparcialidad en duda tras la victoria de Trump
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.