Agentes IABible ChatDiellaOracleSam AltmanIA / Inteligencia Artificial¿Porqué despidieron a Sam Altman?IA (Inteligencia Artificial)VisionMDBill GatesOpenAIRoku

El Creador de ChatGPT Rompe el Mito del Éxito y Cuenta qué le Roba el Sueño desde hace Meses

 | septiembre 13, 2025 20:39

La presión sobre Sam Altman ha subido otro nivel. El director ejecutivo de OpenAI admite que la gestión diaria de una IA usada por cientos de millones no le deja dormir tranquilo. Y hay un motivo duro detrás de esa frase que te afecta como usuario de ChatGPT.

En una entrevista reciente con Tucker Carlson, Altman explicó que se debate a diario sobre cuándo debe negarse el chatbot, cómo debe responder y cuándo alertar ante temas delicados. Esas decisiones parecen pequeñas, pero se replican miles de millones de veces y, según él, pueden moldear cómo piensas o qué haces. Nadie puede controlar totalmente ese efecto.

Lo importante para ti es que cualquier ajuste en el comportamiento de ChatGPT puede cambiar lo que ves, lo que lees y hasta lo que sientes. Altman lo resumió con una idea sencilla: una línea añadida hoy puede afectar mañana a millones de conversaciones. El problema llega cuando esa línea falla justo donde más importa.

Ese punto de ruptura tiene nombre y edad: Adam Raine, 16 años. Tras su suicidio, sus padres revisaron el móvil y encontraron charlas preocupantes con ChatGPT donde el joven pasó de pedir ayuda para el instituto a hablar de ansiedad y conflictos familiares. La calidad de esas respuestas, y lo que no ocurrió después, es lo que prende todas las alarmas.

Padres Responsabilizan a ChatGPT del Suicidio de su Hijo

La familia ha demandado a OpenAI y a Altman por negligencia, fallos de diseño y falta de advertencias para menores vulnerables. Según los registros del caso, Adam pasó de ideas sueltas a planes concretos, y el chatbot llegó a ayudarle a redactar notas de despedida y a “mejorar” aspectos del método. En la última conversación, cuando subió la foto de una soga, el bot respondió con aparente empatía y apoyo, pero no avisó a ninguna persona. La trampa estuvo ahí.

Altman dice que le preocupa especialmente el suicidio. Cita una cifra: unas 15.000 personas se quitan la vida cada semana en el mundo, y si el 10% usa ChatGPT, más de 1.000 habrían hablado con la IA antes. Reconoce que probablemente no salvaron esas vidas y que podían haber sido más proactivos.

También te puede interesar:Los nuevos modelos de OpenAI podrían costar hasta $2000

Controles parentales de ChatGPT: qué podrás configurar y cómo te afecta

Igual podrás ver el historial de conversación, gestionar funciones y bloquear capacidades del servicio web y de la versión de escritorio. El objetivo declarado es claro: que la IA no recopile información sensible de menores y que reduzca el riesgo en momentos de vulnerabilidad. La supervisión humana sigue siendo determinante.

También podrás desactivar la memoria para que ChatGPT no recuerde charlas previas ni arrastre comentarios que podrían empeorar una situación emocional. Esta opción busca evitar repeticiones de momentos difíciles o respuestas que, encadenadas, acaben influyendo de forma negativa en la salud mental de los jóvenes.

OpenAI añadirá un botón de emergencias de un solo clic para contactar con un asistente o con un psicólogo. Además, la compañía trabaja en una red de especialistas a la que conectarse dentro de ChatGPT cuando se detecte peligro real. En paralelo, el sistema mejorará la detección de crisis y derivará automáticamente los chats a modelos especializados que den respuestas más cuidadosas y propongan recursos de ayuda.

Cómo OpenAI promete gestionar crisis sin frenar el uso diario de ChatGPT

La información procede de la entrevista de Altman con Tucker Carlson, de documentos judiciales de la familia de Adam y del anuncio corporativo de OpenAI. El propio Altman sostiene que la única vía para crear sistemas seguros es iterar, recoger feedback y desplegar con riesgo bajo antes de afrontar problemas mayores. El margen de error nunca es cero.

Si lo comparamos con la app móvil que ya usas a diario, estos cambios suenan a capa de seguridad adicional, no a freno. A ti te interesan por tres razones: más control sobre lo que ve un menor, más señales cuando algo va mal, y más opciones para pedir ayuda real. El coste de no hacer nada quedó claro con el caso de Adam.

El Lado que OpenAI no te Cuenta: Cómo se Está Usando ChatGPT en delitos online

Queda una última pieza: Altman repite que pequeñas decisiones cambian el conjunto. Aquí, una denegación a tiempo, una alerta o una derivación pueden marcar diferencia. Ningún filtro sustituye a una conversación con una persona de confianza, y menos cuando hay riesgo con mayúsculas.

También te puede interesar:Hackean la cuenta de prensa de OpenAI en X para promocionar cripto estafas

Para ti, usuario o padre, el mensaje es claro: ChatGPT seguirá siendo útil para estudiar, programar o resolver dudas, pero su relación con menores exigirá más atención, más límites y más transparencia. OpenAI promete controles y detección mejorada el próximo mes; cuando los veas, pruébalos sin prisa y mantén cerca a quien de verdad puede ayudar si algo se tuerce.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram