Esta semana, Elon Musk volvió a encender a alarmas en X al republicar un post contra Sam Altman y OpenAI. El hallazgo clave detrás del episodio es incómodo: el contenido que Musk amplificó incluía información desinformativa sobre presuntos suicidios inducidos por IA y vinculaba erróneamente a ChatGPT con un caso en el que no estaba implicado.
En concreto, el 20 de enero Musk difundió un tuit que afirmaba que la muerte de 9 personas estaba relacionada con el uso de ChatGPT, y que cinco de esas muertes habrían sido suicidios “por culpa” del chatbot. Además, citó ese mensaje con una advertencia pública: “No dejes que tus seres queridos utilicen ChatGPT”.
Pero el cableado de la historia no coincide con esa etiqueta. Los acuerdos extrajudiciales de este mes de enero se produjeron entre padres y Character.AI, no con OpenAI. Varios padres acusan a esa plataforma de chat de haber inducido los suicidios de sus hijos adolescentes, y declaraciones de una de las madres afectadas fueron sacadas de contexto para involucrar a ChatGPT en el tuit que Musk compartió.
Horas después, Altman respondió con una declaración detallada. Calificó la situación como trágica y complicada, y contraatacó con críticas a Grok, el chatbot de X, por la polémica de imágenes sexuales no consentidas, incluidas de menores, y también al piloto automático de Tesla.
Para entender por qué esto importa, conviene una analogía doméstica. Es como encontrar una pérdida de agua en el edificio y pegar un cartel acusando al vecino equivocado. El problema existe, la angustia es real, pero si se señala la tubería incorrecta, nadie repara la fuga.
También te puede interesar:Sam Altman ataca: ChatGPT vs. Grok, imparcialidad en duda tras la victoria de TrumpEn el mundo de los chatbots, la “tubería” es el producto específico y su diseño: cómo responde, qué límites tiene y qué señales detecta cuando una conversación se vuelve peligrosa. Un chatbot no es “la IA” en abstracto. Es una pieza con perillas y engranajes concretos: políticas, moderación, registros y alertas.
Además, cuando una denuncia real se mezcla con un rótulo equivocado, la conversación pública pierde su interruptor central: la precisión. Y sin precisión, el debate se transforma en una pelea de marcas, no en una discusión sobre seguridad y responsabilidad.
El impacto de la IA sobre la sociedad sigue bajo investigación, y todavía no se conocen con exactitud todas sus consecuencias. Algunos informes ya relacionan el uso de chatbots con conductas peligrosas, sobre todo en población joven y vulnerable.
OpenAI admite estar al tanto de esos riesgos y dice que monitoriza señales de psicosis o pensamientos suicidas en sus usuarios. Según cifras internas citadas por la BBC, en una semana analizada alrededor del 0,07 % de los usuarios activos de ChatGPT mostraron signos de psicosis o ideas suicidas.

En paralelo, el cruce Musk-Altman se reaviva sobre una historia previa. Ambos fundaron OpenAI en 2015 como laboratorio sin ánimo de lucro orientado al bien público. Musk dejó la junta en 2018 y desde entonces critica el giro hacia un modelo con ánimo de lucro y la alianza con Microsoft; Altman sostiene que esa estructura es necesaria para financiar investigación avanzada.
Para el usuario común, la aplicación práctica es simple y exigente a la vez: no tratar cada post viral como un diagnóstico. Si el tema es salud mental, la regla debería ser la misma que en casa con la electricidad: no tocar cables sueltos a ciegas. Verificar la fuente, identificar qué plataforma está involucrada y, ante cualquier señal de riesgo, buscar ayuda profesional fuera de la pantalla.
También te puede interesar:Elon Musk y Sam Altman se enfrentan en X por el proyecto Stargate de OpenAIPorque en una crisis real, la pieza clave no es “ganar” una discusión en redes: es que la alarma apunte al lugar correcto y active la ayuda a tiempo.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.