La presión sobre Sam Altman ha subido otro nivel. El director ejecutivo de OpenAI admite que la gestión diaria de una IA usada por cientos de millones no le deja dormir tranquilo. Y hay un motivo duro detrás de esa frase que te afecta como usuario de ChatGPT.
En una entrevista reciente con Tucker Carlson, Altman explicó que se debate a diario sobre cuándo debe negarse el chatbot, cómo debe responder y cuándo alertar ante temas delicados. Esas decisiones parecen pequeñas, pero se replican miles de millones de veces y, según él, pueden moldear cómo piensas o qué haces. Nadie puede controlar totalmente ese efecto.
Lo importante para ti es que cualquier ajuste en el comportamiento de ChatGPT puede cambiar lo que ves, lo que lees y hasta lo que sientes. Altman lo resumió con una idea sencilla: una línea añadida hoy puede afectar mañana a millones de conversaciones. El problema llega cuando esa línea falla justo donde más importa.
Ese punto de ruptura tiene nombre y edad: Adam Raine, 16 años. Tras su suicidio, sus padres revisaron el móvil y encontraron charlas preocupantes con ChatGPT donde el joven pasó de pedir ayuda para el instituto a hablar de ansiedad y conflictos familiares. La calidad de esas respuestas, y lo que no ocurrió después, es lo que prende todas las alarmas.
La familia ha demandado a OpenAI y a Altman por negligencia, fallos de diseño y falta de advertencias para menores vulnerables. Según los registros del caso, Adam pasó de ideas sueltas a planes concretos, y el chatbot llegó a ayudarle a redactar notas de despedida y a “mejorar” aspectos del método. En la última conversación, cuando subió la foto de una soga, el bot respondió con aparente empatía y apoyo, pero no avisó a ninguna persona. La trampa estuvo ahí.
Altman dice que le preocupa especialmente el suicidio. Cita una cifra: unas 15.000 personas se quitan la vida cada semana en el mundo, y si el 10% usa ChatGPT, más de 1.000 habrían hablado con la IA antes. Reconoce que probablemente no salvaron esas vidas y que podían haber sido más proactivos.
También te puede interesar:Los nuevos modelos de OpenAI podrían costar hasta $2000Igual podrás ver el historial de conversación, gestionar funciones y bloquear capacidades del servicio web y de la versión de escritorio. El objetivo declarado es claro: que la IA no recopile información sensible de menores y que reduzca el riesgo en momentos de vulnerabilidad. La supervisión humana sigue siendo determinante.
También podrás desactivar la memoria para que ChatGPT no recuerde charlas previas ni arrastre comentarios que podrían empeorar una situación emocional. Esta opción busca evitar repeticiones de momentos difíciles o respuestas que, encadenadas, acaben influyendo de forma negativa en la salud mental de los jóvenes.
OpenAI añadirá un botón de emergencias de un solo clic para contactar con un asistente o con un psicólogo. Además, la compañía trabaja en una red de especialistas a la que conectarse dentro de ChatGPT cuando se detecte peligro real. En paralelo, el sistema mejorará la detección de crisis y derivará automáticamente los chats a modelos especializados que den respuestas más cuidadosas y propongan recursos de ayuda.
La información procede de la entrevista de Altman con Tucker Carlson, de documentos judiciales de la familia de Adam y del anuncio corporativo de OpenAI. El propio Altman sostiene que la única vía para crear sistemas seguros es iterar, recoger feedback y desplegar con riesgo bajo antes de afrontar problemas mayores. El margen de error nunca es cero.
Si lo comparamos con la app móvil que ya usas a diario, estos cambios suenan a capa de seguridad adicional, no a freno. A ti te interesan por tres razones: más control sobre lo que ve un menor, más señales cuando algo va mal, y más opciones para pedir ayuda real. El coste de no hacer nada quedó claro con el caso de Adam.
Queda una última pieza: Altman repite que pequeñas decisiones cambian el conjunto. Aquí, una denegación a tiempo, una alerta o una derivación pueden marcar diferencia. Ningún filtro sustituye a una conversación con una persona de confianza, y menos cuando hay riesgo con mayúsculas.
También te puede interesar:Hackean la cuenta de prensa de OpenAI en X para promocionar cripto estafasPara ti, usuario o padre, el mensaje es claro: ChatGPT seguirá siendo útil para estudiar, programar o resolver dudas, pero su relación con menores exigirá más atención, más límites y más transparencia. OpenAI promete controles y detección mejorada el próximo mes; cuando los veas, pruébalos sin prisa y mantén cerca a quien de verdad puede ayudar si algo se tuerce.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.