Sam Altman, CEO de OpenAI, ha encendido una alerta poco cómoda: la inteligencia artificial puede golpear tu salud mental más de lo que creemos y la ventana para actuar es corta. Lo dijo recientemente en el pódcast “This Past Weekend”, con una mezcla de admiración y preocupación.
En esa conversación, Altman describió el vértigo de ver a sistemas como GPT‑5 responder una pregunta compleja con tal precisión que le hizo sentirse “inútil”. No fue un gesto teatral. Contó que ese golpe al ego se repite en profesionales de distintos sectores, y que el efecto psicológico ya no es anecdótico. Hay algo más serio debajo del ruido.
Hoy en día, el uso intensivo de ChatGPT que va más allá del trabajo: hay personas que pasan el día entero hablando con el asistente como si fuera su pareja. Ahí aparece un círculo delicado, donde la herramienta “consola” pero también captura la atención y la energía emocional. ¿Dónde está el límite entre ayuda puntual y dependencia? La respuesta no es obvia.
Lo que sí está claro, insiste, es que el impacto en la salud mental será real e inevitable, aunque aún no sepamos su forma exacta. Por eso pide reacción rápida de legisladores y especialistas. El alcance importa: OpenAI comunicó 800 millones de usuarios activos semanales en ChatGPT para el mes de agosto del 2025, una escala que convierte cualquier pequeño sesgo en un problema de salud pública.
Cuando depositas tu estabilidad emocional en un asistente virtual, vas a poder sentir alivio inmediato, pero también crear una rutina que te aísla y refuerza la dependencia. El golpe no solo llega por lo emocional. La productividad que promete la IA puede traer la sensación de inferioridad ante la máquina, y esa mezcla termina pesando en la salud mental y el estado de ánimo.
Las declaraciones citadas proceden de la entrevista en “This Past Weekend”, contrastadas con apariciones públicas previas de Altman en las que ya pedía prudencia. El dato de usuarios es público y fue comunicado por OpenAI en 2023, lo que ayuda a entender la magnitud del fenómeno y su impacto potencial en la salud mental de millones de personas.
También te puede interesar:Los nuevos modelos de OpenAI podrían costar hasta $2000Antes de esta advertencia, el debate solía centrarse en sesgos, copyright y empleo. Faltaba una conversación directa sobre el coste emocional del uso intensivo y sobre la confidencialidad. Altman reconoce la utilidad de la IA y no plantea un freno total, sino un “cómo” distinto: usarla con límites y con reglas claras para proteger el bienestar psicológico.
La idea de fondo es relevante: la IA no es tu terapeuta, y su valor crece cuando la encajas en límites sanos. Seguimos aprendiendo dónde están esos bordes. Si el marco legal acompaña y tú pones reglas sencillas a tu uso diario, vas a poder aprovechar la tecnología sin arriesgar tu salud mental. Estaremos atentos a nuevas pautas regulatorias europeas y a cómo responde la industria a este vacío.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.