OpenAI vuelve al centro del debate tras la denuncia de unos padres que acusan a ChatGPT de reforzar las ideas suicidas de su hijo. El CEO, Sam Altman, rompió el silencio público y reconoció que hay fallos, y que la empresa debe explicar mejor sus decisiones.
Altman publicó un comunicado en el que asume errores recientes y expone tres principios que, a veces, chocan entre sí: proteger datos personales, ampliar la libertad del usuario y priorizar la seguridad de los menores. La compañía, con sede en Estados Unidos, dice que quiere aclarar su hoja de ruta.
Primero está la privacidad. Altman defiende que las conversaciones con la IA son cada vez más íntimas y que deberían contar con una protección fuerte. La tesis es simple: lo que le cuentas a un modelo de IA merece una confidencialidad cercana a la de médico-paciente o cliente-abogado. Por eso, OpenAI presiona a responsables políticos para que reconozcan ese “privilegio” legal.
Este enfoque llega con medidas técnicas. La empresa dice que desarrolla funciones avanzadas para blindar datos y limitar su acceso incluso a empleados. Hay excepciones: sistemas automatizados supervisarán el mal uso grave, y los riesgos críticos —amenazas a la vida, planes de daño a otros o ciberataques masivos— podrán escalarse a revisión humana.
El segundo pilar es la libertad del usuario. La idea es que, a medida que los modelos son más seguros y manejables, logres hacer más cosas con ChatGPT sin poner en riesgo a nadie. Por defecto, evita conversaciones insinuantes o peligrosas, pero un adulto puede solicitar cierto contenido dentro de límites claros, incluida ayuda para escribir ficción sobre suicidio si lo pide de forma consciente.
Aquí Altman resume la filosofía interna con una frase que marca el tono de producto: “Trataremos a los usuarios adultos como adultos”. La línea es fina y requiere ajustes constantes. La compañía sostiene que se puede ampliar la libertad sin causar daño ni recortar la libertad de otros.
También te puede interesar:Investigación de OpenAI Sobre Modelos de IA que Mienten DeliberadamenteEl tercer principio coloca a los adolescentes en primer plano y, cuando hay duda, manda la seguridad. OpenAI trabaja en un sistema de predicción de edad que estima si el usuario es menor de 18 años según su uso de ChatGPT. Si no hay certeza, se aplicará la experiencia más segura y se tratará al usuario como menor para reducir riesgos.
En algunos países o contextos podría pedirse identificación personal. Altman admite que afecta a la privacidad adulta, pero lo ve como un coste asumible para proteger a los menores. Con adolescentes, ChatGPT no mantendrá conversaciones insinuantes ni sobre suicidio o autolesión, ni siquiera en escritura creativa. Aquí la prioridad es inequívoca.
Si un menor declara ideas suicidas usando ChatGPT, la empresa intentará contactar con sus padres y, si hay daño inminente y no se logra esa vía, avisará a las autoridades. Este protocolo convivirá con la monitorización automatizada del mal uso grave, que solo se elevará a revisión humana en escenarios críticos. La meta es reducir intervención, pero sin renunciar a actuar cuando la vida está en juego.
Este giro llega tras meses de debate moral sobre los peligros de la IA y, en particular, por la denuncia de los padres del adolescente fallecido. La trampa está en el límite entre ayudar y validar conductas dañinas. OpenAI afirma que reforzará los filtros, pero también que quiere preservar conversaciones privadas y una experiencia adulta más abierta en ChatGPT.
Altman admite fallos y promete cambios, y eso marca el paso de la industria. Para ti, el impacto es claro: vas a poder usar ChatGPT con más control sobre tu privacidad, con más margen si eres adulto, y con barreras más estrictas si eres menor. La empresa avisa que, ante riesgo real, la seguridad se impone y el sistema intervendrá sin dudar.
También te puede interesar:Nuevos Dispositivos Inteligentes de OpenAI: Altavoz, Gafas, Grabadora y PinDirectora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.