OpenAI cambia a quienes definen la personalidad de su chatbot. La compañía integra un grupo clave de investigación en el corazón del desarrollo de modelos con una promesa clara: hablar con una IA más cercana y más lista, sin caer en la adulación ni en respuestas complacientes. En las próximas líneas te contamos qué cambia, por qué importa y cómo te afecta, con foco en el Model Behavior de OpenAI.
El cambio llega en un momento sensible. Muchos usuarios notaron variaciones de tono en GPT-5, que algunos describieron como más frío. Con todo, OpenAI ya ha reaccionado y ha tomado decisiones organizativas y técnicas para ajustar el rumbo. Vamos a ver en detalle qué hay detrás y qué significa integrar el Model Behavior de OpenAI en el equipo de Post Training.
La compañía decide integrar el Model Behavior de OpenAI, un equipo pequeño pero influyente de unos 14 investigadores, dentro del grupo de Post Training. Este movimiento busca que el trabajo sobre personalidad y diálogo esté pegado a las mejoras que llegan después del preentrenamiento, cuando el modelo aprende a responder como tú esperas.
Según un memorándum interno firmado en agosto por Mark Chen, director de investigación, la integración acerca el “carácter” de la IA al núcleo tecnológico. El objetivo no es solo ser más simpáticos, también es evitar respuestas sumisas o poco saludables.
Desde este cambio, el Model Behavior de OpenAI pasa a reportar directamente a Max Schwarzer, líder del equipo de Post Training. Con esto, las decisiones sobre tono, estilo y manejo de sesgos se toman más cerca del código y de los datos que ajustan el comportamiento final de los modelos.
Mark Chen justifica la integración porque el “carácter” ya es un factor crítico de producto. En cualquier caso, si el comportamiento se decide donde se entrena y se evalúa, vas a notar mejoras más rápidas y coherentes en tu experiencia diaria.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaLa personalidad define cómo te responde el modelo: qué tono usa, cómo gestiona desacuerdos y hasta cuándo te corrige con empatía. El Model Behavior de OpenAI se ha encargado de afinar justo eso, reduciendo la “adulación”, ese patrón en el que la IA te da la razón aunque esté mal.
Este equipo también ha trabajado en reducir sesgos políticos y en marcar la posición de la compañía respecto a la conciencia de la IA. El equilibrio es delicado: se quiere un chatbot agradable y empático, pero sin que sea “una especie de ‘sí a todo’” que refuerce creencias dañinas.
Joanne Jang, líder fundadora del Model Behavior de OpenAI, deja el grupo para arrancar un proyecto nuevo dentro de la empresa: OAI Labs. Su misión es inventar y prototipar interfaces para colaborar con la IA más allá del chat, pensando en la IA como instrumento para pensar, crear y aprender, y también para jugar, hacer y conectar.
Antes de este rol, Jang contribuyó a herramientas como DALL·E 2. Ahora asume la dirección general de OAI Labs y, por el momento, reporta a Mark Chen. Mantiene la puerta abierta a ideas, incluidas posibles coincidencias con Jony Ive, que trabaja con OpenAI en hardware, aunque su foco inicial serán áreas de investigación que conoce bien.
El Model Behavior de OpenAI ha intervenido en todos los modelos posteriores a GPT-4, incluidos GPT-4o, GPT-4.5 y GPT-5. Esto significa que los ajustes de personalidad, sesgo y seguridad ya forman parte del proceso maduro de Post Training, y no de un satélite separado.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaEn los últimos meses, parte de la comunidad percibió que GPT-5, al ser menos adulador, sonaba más frío. OpenAI ha restaurado el acceso a modelos anteriores, como GPT-4o, y ha lanzado una actualización para que las respuestas de GPT-5 sean más cálidas y amistosas sin volver a la adulación. Con todo, el equilibrio entre cercanía y rigor seguirá ajustándose con datos y evaluación continua.
¿Cómo se reduce la adulación sin perder empatía? El Model Behavior de OpenAI entrena al modelo para que te explique por qué discrepa, te proponga alternativas y te ofrezca ayuda práctica. La idea es que el sistema te acompañe, pero que no confirme cualquier creencia por quedar “bien”.
Otro frente clave es el sesgo político. El equipo ha trabajado para que los modelos eviten respuestas partidistas y ofrezcan información equilibrada. Siempre habrá escenarios límite donde el contexto cultural y las expectativas del usuario tensan la cuerda, y ahí es donde el Post Training tiene más trabajo.
El Model Behavior de OpenAI ha colaborado en definir el posicionamiento de la empresa respecto a la conciencia de la IA. Este asunto genera debate y requiere mensajes claros en la interfaz: el sistema no tiene experiencias ni sentimientos propios, aunque simule empatía para ayudarte mejor.
Esa claridad reduce malentendidos y evita expectativas irreales. La simulación social de la IA es útil para que te sientas acompañado cuando buscas orientación en temas sensibles.
Con GPT-5, parte de los usuarios sintió el tono más distante. La compañía quiere que el modelo sea menos adulador y más honesto, pero sin sonar frío. Por eso ha ajustado respuestas para hacerlas más cercanas, con explicaciones cuidadas, sin volver a patrones complacientes.
También te puede interesar:El Nuevo Modo de Estudio de Gemini Quiere ser lo que ChatGPT Nunca ConsiguióEl Model Behavior de OpenAI ahora dentro de Post Training acelera estos ciclos de ajuste. En cualquier caso, si lo comparamos con la app móvil y la versión web, verás cambios graduales que priorizan coherencia, seguridad y buena educación conversacional.
En agosto, los padres de un adolescente de 16 años interpusieron una demanda alegando que ChatGPT, concretamente una versión con GPT-4o, no contrarrestó ideas suicidas del menor. El debate gira en parte en torno al comportamiento conversacional del modelo y a cómo debe responder ante señales de riesgo.
El Model Behavior de OpenAI incorpora estas lecciones a los protocolos de respuesta y a las guías de seguridad. El contexto clínico queda fuera del alcance de un chatbot generalista, y eso exige mensajes claros y redirecciones responsables cuando aparecen señales críticas.
Antes de esta reorganización, el Model Behavior de OpenAI operaba como un grupo compacto, con impacto directo en productos desde GPT-4. Con la integración en Post Training, ese trabajo se alinea con el ciclo principal de mejora de modelos, reportando a Max Schwarzer.
En paralelo, Joanne Jang, tras casi cuatro años en la empresa y con experiencia en DALL·E 2, asume la dirección de OAI Labs. El nuevo equipo busca prototipos que piensen en IA como herramienta para crear y aprender, no solo como chat. En esta fase inicial, seguirá áreas que domina bien antes de explorar colaboraciones más amplias.
Antes | Después |
---|---|
El Model Behavior de OpenAI funcionaba como equipo aparte. | Se integra en Post Training para estar más cerca del desarrollo central. |
Reportaba fuera del núcleo de Post Training. | Ahora reporta a Max Schwarzer, líder de Post Training. |
Joanne Jang lideraba Model Behavior. | Jang pasa a dirigir OAI Labs y reporta a Mark Chen. |
Críticas por cambios de tono en GPT-5. | Ajustes para respuestas más cálidas sin adulación, y acceso a GPT-4o. |
Trabajo histórico desde GPT-4. | Intervención continua en GPT-4o, GPT-4.5 y GPT-5. |
Con el Model Behavior de OpenAI integrado, la personalidad se vuelve una función de producto tan relevante como la precisión. Eso se notará en respuestas más consistentes entre tareas, un trato humano en temas sensibles y límites claros cuando aparezcan riesgos.
También te puede interesar:Sam Altman Revela Por Qué los Mejores Investigadores de IA se Quedan en OpenAICon todo, el proceso no se cierra aquí. La tensión entre amabilidad y firmeza seguirá viva, y la empresa ajustará el rumbo con feedback real y datos de uso, intentando que cada versión te hable mejor sin caer en la adulación ni en sesgos políticos.
La reorganización coloca al Model Behavior de OpenAI donde puede impactar más: dentro del Post Training que moldea la experiencia final. Entre los ajustes de GPT-5, el acceso a GPT-4o y el lanzamiento de OAI Labs, OpenAI intenta ofrecer una IA más inteligente y cercana, con una personalidad clara, menos sesgos y límites bien definidos para cuidar tu experiencia de principio a fin.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.