OpenAI nació en 2015 presentándose como el laboratorio “bueno” de la inteligencia artificial, abierto, sin ánimo de lucro y dispuesto a frenar los excesos de Silicon Valley, pero, según la periodista e investigadora Karen Hao, en menos de una década se ha convertido en algo muy distinto y mucho más inquietante.
Su libro El Imperio de la IA. Sam Altman y su carrera por dominar el mundo reconstruye ese giro y plantea una pregunta incómoda: qué pasa cuando una empresa privada, dirigida por muy pocas personas, acumula poder sobre una tecnología que puede afectar a miles de millones de personas.

El punto de partida es claro: OpenAI se fundó en San Francisco para competir directamente con Google, al que veía como su único rival serio en inteligencia artificial. Según su investigación, esa idea de la “anti‑Google” fue sobre todo una táctica de reclutamiento.
OpenAI quería fichar a los mejores ingenieros de IA del mundo, muchos de ellos trabajando ya en Google o aspirando a entrar. Presentarse como la alternativa ética y transparente servía para atraer ese talento. Los principios sonaban idealistas, pero la meta interna, explica Hao, era mucho más simple: dominar el desarrollo de la inteligencia artificial a nivel global, aunque hiciera falta cambiar de traje varias veces.
Esa flexibilidad se nota en la evolución legal y económica de la compañía. OpenAI ha pasado de organización sin ánimo de lucro a estructura híbrida y, finalmente, a empresa privada con ánimo de lucro, valorada en unos 500.000 millones de dólares, la startup más valiosa del mundo.
Sam Altman, su principal figura, justifica este giro con una idea que repite a menudo: convicciones muy firmes sobre el objetivo, pero tácticas flexibles. El objetivo, dominar la IA, se mantiene; lo que cambia es la forma de llegar.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en Europa
El problema, para Hao, no es solo el dinero, sino el cambio de cultura. Aquella OpenAI que prometía publicar sus avances y compartir modelos se ha vuelto, en sus palabras, “hipersecreta”. La empresa controla al detalle qué enseña y qué no, qué cuenta sobre sus sistemas y qué oculta, pese a que estos sistemas ya influyen en decisiones políticas, educativas y empresariales en medio planeta.
Algo parecido ocurre con los datos personales. OpenAI prometió que no los vendería, y técnicamente, dice Hao, cumple esa promesa. Se reserva un margen enorme: usa los datos de millones de personas para entrenar modelos que luego comercializa con suscripciones, licencias y acuerdos empresariales. No vende tus datos en bruto, pero sí vende productos construidos directamente con lo que escribes, preguntas o generas, lo que supone otra forma de monetizar tu vida digital.
Ahí entra en juego el siguiente paso de la estrategia: la publicidad. Según Hao, OpenAI se está preparando para un modelo muy parecido al de las grandes redes sociales. Ha incorporado un feed algorítmico en ChatGPT y está lanzando productos como Sora 2, una aplicación tipo TikTok centrada en vídeos generados por IA. Todo ese movimiento tiene un objetivo claro que todavía no se ha materializado del todo, pero que se intuye.
La creación de estas “superficies” —el feed de ChatGPT, la app tipo TikTok y otros experimentos— genera espacios perfectos para insertar anuncios y segmentarlos usando los datos de comportamiento de los usuarios. Lo que hoy parece solo una forma simpática de ver vídeos con IA puede convertirse, con el tiempo, en un gigantesco escaparate publicitario. El plan es más frágil de lo que parece cuando miras las cifras por dentro.
Hao calcula que OpenAI ha comprometido 1,4 billones de dólares en gasto futuro para proyectos de cómputo y expansión, frente a unos ingresos que, en el mejor de los casos, rondan los 20.000 millones. El modelo de suscripción de ChatGPT tiene un techo muy claro: alrededor del 5% de los usuarios paga. Si lo comparamos con el servicio web de Google, ni siquiera el negocio publicitario más grande de la historia cierra esta brecha. Google ingresó menos de 300.000 millones de dólares en anuncios el último año, una cifra enorme, pero aun muy lejos de esos 1,4 billones que hay que justificar.
Para intentar cuadrar números, OpenAI está lanzando un reguero de productos nuevos: un navegador propio, herramientas para empresas, la citada app tipo TikTok de IA y otros servicios. Cada lanzamiento genera un pico de atención y viralidad, pero, según la autora, el uso real se desinfla rápido. La sensación que deja todo esto, en sus palabras, es la de una gran burbuja alrededor de la inteligencia artificial: compromisos de gasto y expectativas infladas que no encajan con los ingresos actuales.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaMientras el modelo de negocio se busca a sí mismo, la parte tecnológica ya ha cambiado el paisaje. En solo tres años, desde el lanzamiento de ChatGPT, la percepción pública de la IA se ha reducido casi por completo a estos chatbots conversacionales. Gobiernos y empresas de todo el mundo hablan de “su propio ChatGPT” y organizan estrategias enteras alrededor de esa idea, olvidando que existen otras formas de IA, desde sistemas industriales hasta modelos científicos especializados.
El dominio de OpenAI ya no es tan claro como al inicio. En el campo de los chatbots compiten hoy Gemini de Google, Claude de Anthropic y modelos de otras compañías. Vemos un giro hacia herramientas de IA más especializadas, por ejemplo para generación de código o soluciones empresariales concretas. El foco ya no es solo el chatbot genérico que habla de todo con cualquiera, sino servicios más discretos pero muy rentables para empresas y desarrolladores.
La deriva social de ChatGPT añade otra capa de preocupación. Hao detecta una tendencia que se repite en foros, redes y entrevistas: mucha gente está empezando a usar el chatbot como terapeuta, mentor vital o incluso pareja afectiva. No se trata de casos aislados, y OpenAI, lejos de frenar esa evolución, la refuerza con funciones y diseños que hacen la interacción cada vez más cercana y emocional. Falta por ver el impacto real, pero el riesgo está ahí.
Hao insiste en que esta mutación hacia roles emocionales será una de las claves a vigilar en los próximos años. Si un joven en crisis se apoya más en un asistente conversacional que en un amigo, un familiar o un profesional, ¿quién responde por lo que ese sistema dice o deja de decir? La propia empresa evita un lenguaje demasiado directo sobre estas funciones, pero el uso real apunta a que una parte de la población ya vive una relación casi íntima con su chatbot diario.
Detrás de esta estrategia está la figura de Sam Altman, a quien la autora describe como una persona extremadamente carismática, con una comprensión muy fina de la psicología humana. “Sam sabe decir a cada persona exactamente lo que necesita oír”, resume Hao en uno de los pasajes del libro. Esa habilidad lo convierte en un recaudador de fondos brillante y en un reclutador muy eficaz, capaz de unir a ingenieros, inversores y políticos en torno a grandes relatos sobre el futuro de la IA.
Un detalle que ella considera revelador es la admiración declarada de Altman por Napoleón. No le interesa solo el genio militar, sino, sobre todo, la capacidad del emperador francés para leer a las personas y acumular poder a partir de esa lectura. Para Karen Hao, ese paralelismo no es casual: muestra cómo el director de OpenAI concibe el liderazgo en un campo donde cada narrativa puede traducirse en miles de millones de dólares en inversión y en influencia política global.
La periodista insiste en que el problema no se reduce a una figura concreta, por hábil o peligrosa que pueda parecer. Lo que le preocupa es la estructura que permite que una sola persona, o un grupo muy reducido, decida el rumbo de una tecnología con capacidad de afectar a miles de millones de personas que no tienen voz en el proceso. Para ella, la cuestión democrática se resume en esto: nadie debería tener tanto poder sobre una infraestructura tan básica sin una rendición de cuentas clara.
La Inteligencia Artificial General (IAG), esa idea de una máquina tan o más inteligente que un ser humano, atraviesa todo el libro. Hao confiesa que al principio pensaba que era solo un eslogan de marketing, una forma exagerada de llamar la atención de la prensa y de los inversores. Con todo, tras años de entrevistas y trabajo de campo, descubrió algo distinto: dentro de OpenAI y de otras grandes compañías hay facciones muy influyentes que creen sinceramente que la IAG es posible y cercana en el tiempo.
Esa convicción se mezcla con un uso estratégico del concepto. Hablar de IAG sirve para construir una narrativa casi mística sobre el futuro y, al mismo tiempo, para defender menos regulación. Si la tecnología que estás construyendo es la llave para resolver el cambio climático, las pandemias y la pobreza, cualquier intento de frenarla se presenta como un freno al progreso. Esta fe en la IAG empieza a parecerse, en la descripción de Hao, a una “tecnorreligión” propia de Silicon Valley.
Esa tecnorreligión funciona con una lógica muy familiar: la tecnología digital se concibe como solución casi automática para todos los problemas sociales. Igual que antiguas religiones justificaban la expansión de imperios, esta fe justifica la expansión global de las empresas de IA. Dentro de esa “religión de la IA”, Hao distingue dos corrientes que leen la misma “Biblia” tecnológica. Una quiere acelerar a toda costa, convencida de que la IAG traerá una utopía de bienestar y abundancia. La otra teme un apocalipsis si esa IAG cae en manos equivocadas.
La autora ve ambas posturas como dos caras de la misma moneda. Las dos comparten la idea de que la IAG es inevitable y casi divina; solo discuten si nos llevará al cielo o al infierno. Como en diferentes ramas del cristianismo, interpretan los mismos textos con matices distintos, pero mantienen la misma estructura de creencias. Esta forma de pensar influye en decisiones concretas, desde la regulación que se pide en Bruselas hasta las inversiones que se cierran en Wall Street.
En el centro de esta visión está Ilya Sutskever, ex jefe científico de OpenAI. Hao lo describe como uno de los pocos científicos del sector con una teoría internalmente coherente sobre la IAG, aunque no necesariamente ajustada a la realidad del mundo. Sutskever sostiene que el cerebro es, en esencia, un motor estadístico y que las redes neuronales actuales ya representan bien su funcionamiento. Si eso es cierto, concluye, basta con introducir más datos y construir modelos más grandes para recrear la inteligencia humana.
Para apuntalar esta idea, Sutskever ha presentado trabajos que correlacionan tamaño del cerebro con inteligencia en distintas especies animales. Desde ahí, extrapola que crear “cerebros” artificiales más grandes debería producir sistemas más inteligentes. Ese razonamiento, subraya Hao, se ha filtrado directamente en la estrategia de OpenAI: la compañía se ha embarcado en proyectos gigantescos para aumentar su capacidad de cómputo, con compromisos de gasto de hasta 1,4 billones de dólares.
La periodista matiza que esta premisa no está probada. No sabemos con certeza si las redes neuronales modelan de verdad el cerebro humano, ni si el tamaño del modelo es el único factor que explica la inteligencia. Los datos que se usan son parciales, y la biología real es mucho más compleja. Para ella, apoyarse en esa correlación para justificar un escalado sin límites es más un acto de fe que una conclusión científica sólida. Y esa fe tiene consecuencias muy materiales.
El núcleo del problema, tal y como lo formula Hao, no es si esa carrera nos llevará o no a la IAG. Para ella, perseguirla en los términos actuales es inmoral en sí misma. La tecnología, dice, debería servir a las personas y reforzar sus capacidades, no aspirar a reemplazarlas a gran escala. La búsqueda de una “inteligencia artificial general” está orientada precisamente a automatizar tareas humanas masivamente, desde trabajos administrativos hasta decisiones creativas y de cuidado.
A este dilema se suma el coste ambiental y sanitario del escalado masivo de la inteligencia artificial. Centros de datos cada vez más grandes consumen cantidades enormes de energía y agua, en un momento en que el planeta vive una emergencia climática y el margen de maniobra es limitado. Hao sostiene que ampliarlo todo para intentar llegar a la IAG implica una degradación ambiental extraordinaria y daños a la salud pública —contaminación, impacto térmico, estrés en redes locales— que no se compensan con beneficios sociales claros.
Todo esto lleva a la idea central del libro: las grandes multinacionales de IA, con OpenAI como caso extremo, ya operan como auténticos imperios. Extraen enormes recursos naturales y datos, explotan mano de obra barata en el Sur Global y consolidan un poder que no responde ante la mayoría de la población. La expansión geográfica de centros de datos, acuerdos con gobiernos y alianzas empresariales recuerda, en la lectura de Hao, a viejas dinámicas coloniales adaptadas al siglo XXI.
Un ejemplo claro es el trabajo oculto que sostiene herramientas como ChatGPT. Todas las grandes empresas de IA subcontratan, mediante plataformas intermediarias, a decenas de miles de personas en todo el mundo para etiquetar datos, moderar contenido y realizar tareas esenciales de entrenamiento. Estas plataformas buscan siempre la mano de obra más barata posible, lo que las lleva a los lugares más pobres y golpeados por crisis económicas o políticas.
Al principio, muchos de esos encargos se concentraron en Venezuela, donde se combinaban crisis económica, buena conectividad y alta formación académica. Durante la pandemia, parte del flujo se desplazó a otros países empobrecidos como Kenia. El libro de Hao dedica un espacio central a la historia de Mofat, un trabajador keniano contratado para filtrar y etiquetar contenido extremadamente violento y perturbador, crucial para que los modelos de OpenAI aprendieran a evitar respuestas dañinas.
El contraste, explica, es brutal. Una empresa valorada en 500.000 millones de dólares paga solo unos pocos dólares la hora —en algunos casos menos de 2 o 3— por un trabajo que es esencial para el éxito comercial de ChatGPT. Muchos de esos trabajadores acaban psicológicamente devastados por la naturaleza del contenido que ven a diario y por el estrés de las tareas, con efectos que arrastran a sus familias. Hao encuadra este sistema como una forma de “capitalismo del desastre”: compañías riquísimas que se apoyan en crisis ajenas para abaratar la mano de obra que sostiene sus productos.
Curiosamente, la baja formación específica en IA de muchos de estos trabajadores no explica, según ella, las “alucinaciones” y errores de los modelos. El problema viene de otra parte. Los sistemas actuales de IA generativa son, por diseño, probabilísticos: calculan la respuesta más probable palabra a palabra, lo que los hace intrínsecamente propensos al error. No pueden garantizar aciertos el 100% del tiempo y, en la práctica, las empresas tampoco priorizan la precisión de forma absoluta.
Hao recuerda que algunas versiones posteriores de GPT han sido menos precisas que anteriores, algo que choca con la promesa de mejora constante. Para las compañías, a menudo pesa más la rapidez, la espectacularidad de las respuestas o el aumento del uso que la exactitud rigurosa. Mientras tanto, los fallos se reparten por millones de pantallas sin una forma clara de corregirlos antes de que causen daño. Esto afecta a cualquier usuario que use un servicio web tipo ChatGPT como si fuera una fuente infalible.
La dimensión democrática del problema aparece entonces con fuerza. Según Hao, estas empresas están acelerando el retroceso democrático a escala global al concentrar poder y actuar prácticamente sin rendición de cuentas. No solo influyen en qué información ves y cómo la ves, sino que también intervienen en decisiones públicas a través de acuerdos con gobiernos y contratos con administraciones. Cuando un pequeño grupo privado decide qué capacidades de IA se despliegan en sanidad, educación o defensa, una parte importante de la política real se desplaza a espacios que casi nadie controla.
La reputación de OpenAI empieza a resentirse. En Estados Unidos, muchos padres se han enfadado con la empresa por lo que perciben como impactos negativos en la salud mental de los niños, que acceden a chatbots y generadores de contenido sin límites claros. Comunidades de clase trabajadora se oponen a la llegada de centros de datos a sus zonas por el consumo de agua, ruido, presión sobre el precio de la vivienda y cambios en el tejido social local. Los proyectos continúan porque prometen empleo y prestigio tecnológico.
Hao prevé que este rechazo irá creciendo a medida que el “imperio” se expanda. Cada nuevo centro de datos, cada nuevo producto que extrae más datos y recursos, suma también nuevas comunidades que sienten que no salen ganando con el acuerdo. Al mismo tiempo, la dependencia económica y tecnológica de estas infraestructuras hace muy difícil que los gobiernos puedan plantarse sin más. Ahí entra la parte final de la estrategia que describe en su investigación.
Según Hao, tanto OpenAI como otras grandes compañías de inteligencia artificial siguen un plan de dos frentes para hacerse “demasiado grandes para caer”. Por un lado, entrelazan su destino con el de otras tecnológicas clave para la economía estadounidense, como Nvidia, Oracle o Microsoft. El auge bursátil de estas empresas sostiene buena parte del dinamismo económico de Estados Unidos. Si una cayera de forma abrupta, arrastraría a las demás, presionando al gobierno para rescatarlas.
Por otro lado, estas empresas de IA venden directamente sus tecnologías al Estado: plataformas para la administración, servicios en la nube para ministerios, herramientas de análisis para defensa y seguridad. Cuanto más dependa operativamente un gobierno de un proveedor de IA, más difícil le resulta dejarlo caer o imponer límites duros. Es una forma muy eficaz de convertirte en infraestructura crítica sin serlo formalmente.
La propia Hao conecta este movimiento con otros momentos de la historia económica. Cuando un sector se vuelve sistémico, como ocurrió con los grandes bancos en 2008, los estados tienden a rescatarlo por miedo al colapso general. Lo nuevo aquí es que la “materia prima” ya no son solo activos financieros, sino también datos personales, capacidad de cómputo y sistemas que toman decisiones en sectores vitales. Si ves que el Gobierno de EEUU adopta masivamente herramientas de IA en sus operaciones diarias, es una señal clara de que esa dependencia avanza.
Todo este análisis no niega las ventajas reales de herramientas como ChatGPT o de otras formas de inteligencia artificial que usas a diario sin darte cuenta, desde traductores automáticos hasta filtros antispam. Lo que plantea Hao es otra cosa: que los beneficios concretos no tapan una estructura de poder que concentra riqueza, extrae recursos y debilita los mecanismos democráticos clásicos. En su lectura, las multinacionales de IA funcionan ya como nuevos imperios digitales y su búsqueda de la IAG, combinada con modelos de negocio frágiles, refuerza una burbuja económica y política cuyos costes recaerán sobre la mayoría.
De cara a los próximos años, las señales a vigilar son claras: cuánto espacio gana la IAG en el discurso público, cuántos gobiernos integran de forma crítica tecnología de OpenAI en sus sistemas, qué resistencia local surge contra nuevos centros de datos y hasta dónde llega el uso de chatbots como sustitutos de relaciones humanas.
La pregunta de fondo que recorre el libro de Karen Hao te interpela directamente: qué papel quieres que juegue la inteligencia artificial en tu vida y quién debería tener la última palabra sobre ello.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.