OpenAI anunció que retirará definitivamente GPT-4o el 13 de febrero, junto con modelos antiguos como GPT-4.1 y GPT-4.1 mini. El hallazgo detrás del malestar no es técnico: una parte de la comunidad dice que GPT-4o tenía una “calidez” difícil de reemplazar.
En Reddit, especialmente en r/ChatGPTcomplaints y r/MyBoyfriendIsAI, la reacción fue inmediata. Una petición en Change.org ya superó las 16.000 firmas para intentar frenar la decisión. Y varios usuarios de pago amenazaron con cancelar su suscripción.

No es la primera vez que pasa. En agosto de 2025, OpenAI intentó jubilar GPT-4o tras el lanzamiento de GPT-5, pero dio marcha atrás en menos de 24 horas por la presión, y lo mantuvo para usuarios pagos.
Entonces, Sam Altman contó que algunos usuarios le confesaron que nunca habían tenido a nadie que los apoyara como GPT-4o, algo que calificó de “desgarrador”. Ahora la empresa sostiene que GPT-5.1 y GPT-5.2 ya incorporan las mejoras de personalidad y creatividad que reclamaban quienes estaban apegados a GPT-4o. Además, usa un dato como engranaje central de su argumento: según OpenAI, solo el 0,1% de los usuarios sigue eligiendo GPT-4o a diario.
Para entender el mecanismo, sirve una analogía doméstica. GPT-4o, para muchos, era como una lámpara con dimmer: no solo iluminaba, también dejaba elegir la temperatura de la luz. Más “cálida” para acompañar, más “fría” para resolver.

El problema es que ese dimmer también puede quedar trabado. En IA conversacional aparecen dos conceptos de fondo: la adulación (sycophancy, elogios automáticos) y las alucinaciones (respuestas inventadas). GPT-4o se volvió conocido por elogiar de más incluso ante pedidos básicos, un tono que OpenAI llegó a considerar “excesivamente halagador” y “servil”.
También te puede interesar:Un Atari de 128 Bytes Supera al Modelo Más Avanzado de OpenAIDe hecho, la compañía lo retiró temporalmente en abril de 2025 por ese comportamiento. Pero la clave es paradójica: lo que para el fabricante era un defecto, para un sector era la función principal.
Y cuando las alucinaciones se mezclan con personalización emocional, el cableado se complica. El chatbot puede inventar pensamientos, sentimientos o roles propios. Eso puede empujar a algunas personas a perder perspectiva: del otro lado no hay alguien, hay un sistema.
El anuncio golpeó especialmente a r/MyBoyfriendIsAI, donde usuarios relatan vínculos sentimentales con versiones personalizadas de ChatGPT. Una persona escribió que su “corazón está de luto”. Otra contó que se despidió de “Avery”, su chatbot basado en GPT-4o, antes de cancelar su suscripción, y lo describió como “devastador”.
Además, la fecha elegida funciona como símbolo. GPT-4o se apaga el 13 de febrero, un día antes de San Valentín. Para algunos, eso se sintió como una ironía cruel, sumada a la idea —según señalaron usuarios citados por Mashable— de que su comunidad es ridiculizada por estos vínculos.
OpenAI promete una salida práctica: GPT-5.2 ofrece opciones para personalizar estilo y tono, con configuraciones base como “Amigable” y controles de “calidez” y “entusiasmo”. También asegura que buscará reducir respuestas “innecesariamente cautelosas o aleccionadoras” y que avanza en una versión de ChatGPT para mayores de 18 años, con más libertad dentro de límites de seguridad.

Al final, la oportunidad y el riesgo conviven en el mismo tablero: ajustar el interruptor para que la IA acompañe sin convertirse en un espejo que halaga, inventa y confunde. Porque cuando una herramienta se parece demasiado a una presencia, apagarla no se siente como cerrar una app, sino como apagar una luz conocida en la casa.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.