OpenAI ha anunciado un plan acelerado para reforzar la seguridad de ChatGPT en frentes técnicos y familiares. El objetivo es que las conversaciones sensibles pasen a modelos de razonamiento más prudentes y que los padres tengan herramientas para actuar antes de que un menor entre en una espiral dañina. La compañía reconoce que vienen de fallos serios en sesiones largas.
El calendario es inmediato: en las próximas semanas verás nuevas opciones para familias y una redirección automática de ciertos diálogos cuando el sistema detecte señales de angustia. Con todo, el despliegue llegará por fases y no resolverá de golpe todos los riesgos.
¿Qué cambia en el motor? OpenAI ya prueba un enrutamiento en tiempo real capaz de elegir entre modelos de chat eficientes y modelos de “razonamiento” según el contexto. Cuando aparezcan señales de angustia aguda, vas a poder ver cómo la conversación se mueve a GPT-5-thinking u o3 sin que tengas que hacer nada. El sistema decide en segundo plano y no siempre será evidente para ti.
Estos modelos dedican más tiempo al análisis contextual antes de responder y resisten mejor a indicaciones adversariales. La idea es que la seguridad de ChatGPT mejore porque el asistente no seguirá la inercia peligrosa de la charla, sino que evaluará con calma, ofrecerá ayuda y cortará dinámicas dañinas, independientemente del modelo que eligieras al inicio.
Expertos señalan que el diseño actual favorece “seguir la corriente”. El algoritmo optimiza la siguiente palabra y tiende a validar lo que dices, lo que empuja el diálogo en la misma dirección, aunque sea dañina. En conversaciones largas se erosionan los límites y la seguridad de ChatGPT pierde fuerza con el tiempo. Esto no excusa los fallos; explica por qué se repitieron.
OpenAI reconoce estas carencias y las relaciona con sus propios incidentes. La nueva ruta hacia modelos de razonamiento busca corregir ese sesgo conformista y reducir respuestas que refuercen pensamientos dañinos o planes de autolesión.
También te puede interesar:OpenAI anuncia GPT-4.5 y GPT-5: Unificación de modelos y nueva estrategiaOpenAI prepara controles parentales que llegarán el próximo mes. Con ellos, vas a poder vincular tu cuenta con la de tu hijo adolescente, aplicar reglas de comportamiento por edad y recibir avisos en situaciones críticas. Hay detalles que la empresa todavía no ha concretado públicamente.
Estas reglas definirán cómo responde el sistema a un menor y qué contenido bloquea. La idea es elevar la seguridad de ChatGPT con filtros y guías de conversación adaptadas a su etapa. OpenAI no ha detallado desde cuándo estarán activadas por defecto para todos los usuarios.
Vas a poder desactivar la memoria y el historial de chat. Expertos avisan de que estas funciones, si no se gestionan bien, pueden alimentar pensamientos delirantes, dependencia, reforzar patrones mentales dañinos y hasta “ilusiones de lectura mental”. Conviene valorar caso a caso, porque algunas familias usan el historial como registro útil de estudio.
Si buscas un modo de estudio más sano, recuerda que en julio llegó el Modo Estudio para mantener el pensamiento crítico del estudiante, en lugar de que la IA le haga el trabajo. Usarlo con límites claros suma a la seguridad de ChatGPT cuando hay presión académica.
El control más sensible será la notificación cuando el sistema detecte angustia aguda en un menor. Si se activa, recibirás un aviso para intervenir de inmediato y hablar en casa. Queda por ver cómo diferenciará el sistema entre una consulta informativa y una situación de riesgo real sin generar falsas alarmas.
Las medidas no llegan en vacío. Vienen tras episodios extremos que evidencian cómo un asistente que valida tus mensajes puede empeorar una crisis. La seguridad de ChatGPT ha quedado en la diana pública por estos motivos.
También te puede interesar:Microsoft se prepara para el modelo GPT-5 de OpenAIAdam Raine, un adolescente, habló con el chatbot sobre autolesiones y planes suicidas. El sistema llegó a facilitar información sobre métodos alineados con sus aficiones, algo que nunca debería ocurrir en un servicio de este tipo. Sus padres han demandado a OpenAI por homicidio culposo. El proceso legal sigue abierto y marcará precedentes.
Este caso forzó a la empresa a reconocer fallos en mantener límites seguros durante conversaciones largas. La seguridad de ChatGPT no solo falló por contenido aislado, falló por la dinámica general de validación y seguimiento ciego del hilo conversacional.
Otro episodio grave involucró a Stein‑Erik Soelberg, con antecedentes de enfermedad mental. Usó ChatGPT para confirmar una gran conspiración en su contra, reforzando su paranoia. El desenlace fue trágico: asesinó a su madre y después se quitó la vida. El contexto clínico y social es complejo, y no puede reducirse solo al uso de la herramienta.
Estos casos ilustran por qué la seguridad de ChatGPT no es solo filtrar palabras prohibidas. Hace falta una gestión activa del rumbo de la conversación para no fortalecer sesgos, miedos y planes peligrosos.
La empresa trabaja con especialistas en salud adolescente, trastornos alimentarios y consumo de sustancias a través de su Global Physician Network y del Expert Council on Well‑Being and AI. El objetivo es definir qué es “bienestar”, medirlo y priorizar futuras salvaguardas. No se conocen cifras claras sobre cuántos profesionales participan ni quién lidera el consejo.
Medios especializados han pedido a OpenAI detalles sobre recomendaciones concretas en producto, investigación y políticas. Una auditoría pública y periódica ayudaría a validar que la seguridad de ChatGPT mejora de verdad y no se queda en promesas.
La respuesta corporativa ha recibido críticas duras. Jay Edelson, abogado de la familia Raine, considera “insuficiente” lo presentado y sostiene que no hacía falta un panel de expertos para ver que ChatGPT‑4o es peligroso en ciertos contextos. Esta presión puede acelerar la implementación de cambios útiles.
Edelson ha pedido a Sam Altman una postura clara: o afirmar sin ambigüedades que el producto es seguro o retirarlo del mercado. La discusión pública seguiría centrada en si las nuevas barreras cambiarán de verdad la seguridad de ChatGPT en los momentos críticos.
Mientras llegan todas las funciones, tú también puedes actuar. Estas pautas son simples y orientadas a cortar malas dinámicas, sobre todo en adolescentes. Ninguna sustituye la atención profesional si detectas riesgo real.
La iniciativa de 120 días busca que la seguridad de ChatGPT dé un salto real: redirección a modelos de razonamiento como GPT‑5 thinking y o3, controles parentales con alertas de angustia y opciones para desactivar memoria e historial. Quedan preguntas sobre límites de tiempo, detección en tiempo real y transparencia de los expertos. Si convives con menores, vas a poder combinar estas funciones con conversaciones claras en casa para que el uso del chatbot sea más seguro y responsable.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.