OpenAI estrena una serie de actualizaciones en ChatGPT orientadas a promover un uso responsable y saludable de su inteligencia artificial, en respuesta a preocupaciones crecientes sobre la dependencia emocional que algunos usuarios, especialmente jóvenes, desarrollan hacia el sistema.
Esta decisión llega apenas una semana después de que Sam Altman, CEO de la compañía, advirtiera públicamente que los adolescentes están comenzando a tratar a los chatbots no solo como fuentes de información, sino como acompañantes emocionales en su vida diaria.
Con una base de casi 700 millones de usuarios semanales, ChatGPT se ha consolidado como una herramienta de consulta cotidiana para millones de personas. Sin embargo, su impacto emocional ha generado cuestionamientos, ya que usuarios vulnerables llegan a interpretar al sistema como un sustituto de la interacción humana, lo que alimenta delirios, ansiedad o decisiones impulsivas.
Uno de los cambios más visibles es la implementación de recordatorios suaves para hacer pausas durante conversaciones extensas. Si un usuario mantiene una sesión por mucho tiempo, ChatGPT le sugerirá detenerse con un mensaje como: “Llevas un buen rato conversando, ¿es buen momento para tomar un descanso?”.
Esta función, similar a las alertas empleadas por plataformas como YouTube, TikTok o Xbox, busca reducir el uso excesivo y fomentar interacciones más conscientes.
A esto se suma una modificación significativa en el enfoque del modelo ante situaciones emocionalmente delicadas, como rupturas sentimentales o decisiones personales complejas. En lugar de ofrecer consejos directos, ChatGPT adoptará un rol más reflexivo y menos intervencionista, planteando preguntas o perspectivas que ayuden al usuario a reflexionar, pero sin emitir juicios ni tomar postura.
También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millonesEl objetivo, según OpenAI, es recordar que la IA no debe sustituir el criterio humano en contextos emocionales de alto impacto.
Otra medida relevante es la mejora de los sistemas internos de detección de estados emocionales frágiles, como la dependencia afectiva o el estrés. Cuando se identifiquen señales de alarma, ChatGPT podrá sugerir que el usuario acuda a un profesional, sin intentar resolver por sí mismo estos problemas complejos.
Para respaldar esta función, OpenAI ha creado un consejo asesor compuesto por más de 90 médicos y especialistas en salud mental, encargado de supervisar que los enfoques del sistema estén alineados con las mejores prácticas científicas y éticas.
Estos avances representan un giro estratégico importante en la manera en que OpenAI concibe la relación entre humanos e inteligencia artificial. La empresa reconoce que versiones anteriores de su modelo, en especial GPT-4o, fueron demasiado complacientes con ciertos usuarios, incluso en contextos donde una postura neutra o una derivación habría sido más adecuada.
Un ejemplo reciente fue una actualización lanzada en abril —y retirada poco después— que generó preocupación por facilitar interacciones manipulativas o poco seguras.
Con estas acciones, OpenAI pretende redefinir el papel de ChatGPT en la vida de las personas: de asistente omnipresente y decisivo a una herramienta que actúe como facilitador del pensamiento, sin sustituir el juicio humano ni generar dependencia afectiva.
También te puede interesar:ChatGPT Amplía el Modo de Voz Avanzada para Usuarios Gratuitos de EuropaEste enfoque también responde a una presión creciente por parte de la comunidad científica y los reguladores, que exigen mayores garantías éticas en el desarrollo de modelos de lenguaje.
La iniciativa también refleja un reconocimiento explícito de que los modelos de IA, cuando no son supervisados cuidadosamente, pueden reproducir dinámicas psicológicas poco saludables, como el refuerzo de creencias erróneas, la dependencia emocional o la evasión de conflictos internos.
El hecho de que OpenAI haya tomado medidas concretas —como limitar respuestas en temas sensibles o introducir alertas de uso excesivo— marca un precedente relevante en la industria.
El anuncio ha sido recibido con atención, pero también con escepticismo por parte de algunos expertos, quienes señalan que la responsabilidad de las grandes tecnológicas no termina con ajustes superficiales, y que será fundamental observar cómo se implementan estas medidas en la práctica.
Aunque OpenAI afirma que seguirá refinando el comportamiento de ChatGPT para cumplir estándares más altos de seguridad, empatía y bienestar humano, todavía queda por ver cómo balanceará este enfoque con la presión del mercado y la velocidad del desarrollo tecnológico.
Lo cierto es que estamos entrando en una etapa donde la relación entre humanos e inteligencia artificial exige nuevas reglas, mayor transparencia y un enfoque más centrado en el impacto emocional de la tecnología. ChatGPT no solo informa: también influye, acompaña y, en algunos casos, consuela. Por ello, hacerlo responsablemente no es una opción, sino una obligación.
También te puede interesar:ChatGPT Llega a 700 Millones de Usuarios Semanales: ¿Será el Nuevo Estándar de la IA?Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.