Sam Altman, director ejecutivo y creador visible de ChatGPT, dejó una idea incómoda en el podcast Conversation with Tyler: en unos años, una inteligencia artificial podría ocupar su silla.
Altman lo dijo sin rodeos y con fecha mental corta: ya hay organizaciones que quieren que la inteligencia artificial asuma tareas empresariales, y su deseo es que OpenAI sea la primera gran compañía con un “CEO de IA”. No dio un calendario cerrado, pero deslizó que ese momento no está lejos.
En su planteamiento, una IA podría gestionar OpenAI mejor que él mismo. Y si él puede “hacer de político” cuando toca, una IA también podrá aprender esa habilidad. Reconoció una barrera cultural clara: hoy la gente confía más en humanos que en máquinas, incluso cuando la inteligencia artificial ofrece resultados iguales o mejores. Lo ilustra con un ejemplo sensible.
Imagina a un médico asistido por IA que acierta más que la media. Muchas personas seguirían pidiendo cita con un profesional humano. Esa inercia pesa, y las empresas no son distintas. Para que un “CEO algorítmico” sea aceptado, tú y yo necesitaremos tiempo. Con todo, Altman cree que la IA destacará en la toma de decisiones muy pronto y antes de lo que la mayoría espera.
La relevancia no es solo filosófica. Afecta a procesos, costes y responsabilidad legal. Un directivo de inteligencia artificial puede evaluar miles de variables en minutos y reducir sesgos visibles, pero también introduce riesgos nuevos. Según Altman, la clave regulatoria no es quién firma el contrato, sino qué capacidades tiene el sistema que decide y qué daños podría causar.
Su propuesta es regular por capacidades y riesgo. La mayoría de sistemas de inteligencia artificial no necesitarían normas duras. Otras piezas sí: agentes capaces de autorreplicarse por internet, de esconderse entre servicios en la nube o de ejecutar acciones peligrosas, como vaciar cuentas bancarias. Ahí, dice, la línea roja debe estar nítida y auditada.
También te puede interesar:Los nuevos modelos de OpenAI podrían costar hasta $2000
Cuando mira escenarios complejos, sitúa el problema en el terreno de los ciberataques. Un agente de IA desplegado desde nubes de países hostiles, difícil de desconectar y con defensas avanzadas, sería similar a una campaña de intrusión, pero más escurridiza. Admite que hoy no hay una respuesta definitiva para frenar el uso no autorizado y masivo de recursos de internet por estos agentes.
Conviene recordar qué hace él ahora. Su rol en OpenAI es liderar la estrategia, coordinar el desarrollo de tecnología de inteligencia artificial y representar a la empresa ante gobiernos y organismos internacionales. Fundada en 2015, una década después, en 2025, la firma es referencia del sector y su hoja de ruta pesa en todo el ecosistema.
No hay fecha oficial, pero puedes vigilar tres pistas: pruebas internas donde una IA proponga decisiones que luego se ejecuten, publicación de políticas de control más finas y aval legal en mercados clave. Si empiezas a ver estos pasos encadenados, la sustitución del CEO deja de ser una hipótesis y se convierte en piloto.
Aquí el consenso es mínimo y la urgencia, alta. Altman sugiere focalizar en capacidades peligrosas: autorreplicación en la red, acceso autónomo a sistemas financieros y mecanismos de ocultación. La supervisión debería ser continua y con capacidad de apagado. Su advertencia es incómoda: los agentes futuros tendrán defensas mejores, y rastrearlos será más difícil.

¿Y la aceptación social? Te va a costar confiar en una máquina que despide, contrata o redirige una estrategia. La propia inteligencia artificial podría justificar mejor sus decisiones con trazas y explicaciones, pero ese cambio cultural es gradual. Altman lo asume y, Apuesta por beneficios netos: mejores decisiones, menos sesgo visible y más rapidez cuando el reloj aprieta.
Todo esto no borra un límite práctico: hay que decidir hasta dónde llega el control humano. Altman lo plantea como el “dónde dibujar la línea” entre lo que requiere supervisión y lo que no. Si esa línea se fija con criterios públicos y auditables, un “CEO de IA” podría operar bajo reglas claras y no como una caja negra.
También te puede interesar:Hackean la cuenta de prensa de OpenAI en X para promocionar cripto estafasAltman ha puesto la idea sobre la mesa y no por provocación gratuita. Te afecta porque, si la inteligencia artificial entra en el comité de dirección, cambiará cómo se toman decisiones y a qué ritmo. La dirección es clara: regulación según capacidades, vigilancia sobre agentes de alto riesgo y pilotos controlados. Si esa combinación cuaja, la pregunta ya no será “si”, sino “cuándo”.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.