The New Yorker publicó una investigación basada en más de cien entrevistas con personas del entorno cercano de Altman. El hallazgo central no es una acusación aislada, sino un mecanismo más inquietante: una pérdida de confianza repetida, consistente y extendida entre quienes trabajaron con él o lo conocieron de cerca.
Además, Ars Technica recogió mensajes internos de Ilya Sutskever y Dario Amodei que refuerzan esa pieza clave del rompecabezas. Amodei fue directo al señalar que “el problema de OpenAI es el propio Sam”, una frase que resume el nivel de fractura interna que describe el perfil.
“El problema de OpenAI es el propio Sam”

La investigación no aporta una prueba única y definitiva. Revela algo distinto: una acumulación de indicios que, juntos, funcionan como un tablero eléctrico lleno de interruptores fallando a la vez.
También te puede interesar:Sam Altman avisa a indios y chinos de que Abandonen las esperanzas de competir con OpenAIAhí aparece la analogía más clara para entender el problema. Una compañía como OpenAI no funciona solo con talento o dinero. Funciona como una casa con una central eléctrica interna: cada equipo, cada consejo y cada norma es un fusible pensado para evitar incendios. Si el dueño de casa instala esos fusibles, pero luego los quita cuando le estorban, el sistema sigue encendido, sí, pero ya no es robusto.
Eso es lo que varios testimonios describen sobre Altman. Un investigador citado por el perfil sostiene que crea estructuras de control y después las desmonta cuando debe someterse a ellas. Un miembro anónimo del consejo, por su parte, lo retrata como alguien con fuerte necesidad de aprobación y poca preocupación por las consecuencias de engañar.
El choque entre el discurso y la realidad de la empresa
La revelación resulta todavía más sensible por el contexto. El mismo día en que salió el perfil, OpenAI presentó un documento de recomendaciones políticas firmado por Chris Lehane, su jefe de asuntos globales. Allí la empresa propuso ideas de alto impacto, como una jornada laboral de cuatro días, un fondo de riqueza pública y acceso universal a internet.
Sin embargo, ese mismo texto también reconoce riesgos severos. Advierte que la IA podría llegar a evadir el control humano y que los gobiernos podrían usarla para socavar democracias. Es decir, la compañía habla como si fuera a la vez fabricante del motor y oficina de seguridad vial.
También te puede interesar:Sam Altman avisa a indios y chinos de que Abandonen las esperanzas de competir con OpenAIEsa doble posición es la clave del conflicto. Porque, mientras OpenAI se presenta como voz responsable sobre regulación, el perfil sostiene que Altman presionó en privado contra reglas estrictas que en público decía apoyar. Incluso se mencionan maniobras con ONG para frenar leyes relacionadas con inteligencia artificial.

Por si fuera poco, OpenAI ofrece hasta 100.000 dólares en becas y un millón en créditos de API, el acceso pago a sus sistemas, para investigadores que estudien sus políticas. La oportunidad puede parecer valiosa. Pero también abre una pregunta incómoda sobre quién termina definiendo las preguntas de investigación sobre la propia compañía.
Qué cambia para el usuario común
A simple vista, esto puede parecer una pelea de ejecutivos en Silicon Valley. Pero no lo es. Cuando una empresa que construye herramientas cada vez más centrales para estudiar, trabajar o informarse muestra grietas de confianza en su liderazgo, el impacto potencial llega hasta la rutina del usuario.
Si el volante de un coche tiene juego, no alcanza con que la carrocería brille. Del mismo modo, si OpenAI enfrenta tensiones financieras y dudas internas sobre su conducción, sus promesas sobre seguridad, regulación y beneficios sociales empiezan a depender menos del discurso y más del estado real de sus engranajes.
Altman fue entrevistado más de doce veces para el perfil y atribuyó parte de las inconsistencias a la velocidad del sector. Pero no respondió de forma directa al núcleo de las acusaciones. Y ese vacío, hoy, pesa tanto como cualquier declaración.
La inteligencia artificial sigue avanzando. La pregunta, cada vez más concreta, es si quienes la conducen tienen el mismo nivel de control y responsabilidad que prometen cuando están frente al micrófono.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.











