La investigación de Letras Libres pone el foco en Silicon Valley y en cómo las grandes empresas de inteligencia artificial moldean poder y expectativas a escala global. El caso de una mezcla de ambición imperial y fervor mesiánico no es solo ideología, también guía inversiones y decisiones que afectan a tu día a día.
Ahí entra OpenAI, epicentro de un fenómeno que, según un investigador chino citado, “solo podría haber nacido en Silicon Valley” por su cultura, su capital y su tolerancia al riesgo. Nació como organización sin fines de lucro y, aun sin modelo de negocio claro, atrajo miles de millones por una fe casi mística en la tecnología. La trampa está en que esa fe decide prioridades que no siempre coinciden con el interés público.
La periodista Karen Hao describe, en un libro que sirve de base a la investigación, cómo científicos como Ilya Sutskever y Dario Amodei, empresarios como Elon Musk y Sam Altman, e inversores influyentes, comparten la idea de que la inteligencia artificial traerá abundancia. Sutskever hablaba de “misión” y Altman llegó a escribir que las personas más exitosas crean religiones, no solo empresas. Ese tono mesiánico empuja a ir más rápido, y ahí surge el problema.
Dentro de la propia compañía estalló el choque entre acelerar y frenar. En noviembre de 2023, Sutskever intentó destituir a Sam Altman y se marchó después, junto a otras figuras clave. Los que no compartían la estrategia fundaron Anthropic, marcada por diferencias filosóficas antes que comerciales. Con todo, el sector aceleracionista siguió persiguiendo la llamada IA general, sin un acuerdo real sobre qué es la inteligencia humana.
Mientras se discuten riesgos “existenciales”, hay impactos ya visibles en el planeta. Para entrenar modelos de inteligencia artificial hacen falta datos a gran escala, terrenos para centros de datos, agua potable y mucha energía. Las empresas buscan estos recursos en países del sur global con normativas más laxas, a menudo golpeados por sequías.
Las conclusiones de Letras Libres se apoyan en el libro de Hao, sustentado en más de 300 entrevistas, y en documentos internos y declaraciones públicas verificables. La línea temporal encaja: crisis de gobierno en 2023, escisiones posteriores y una carrera por computación, datos y talento que reconfigura el mapa del poder tecnológico. La inteligencia artificial, tal y como se construye hoy, necesita volumen, velocidad y silencio.
También te puede interesar:Nuevos Centros de Datos Stargate de OpenAI: Alianza con Oracle y SoftBankEse silencio cubre trabajos esenciales y muy duros. Miles de personas en África y América Latina filtran contenido violento, sexual o de odio para que no aparezca en tus respuestas de IA generativa. Cobran poco, a veces de forma irregular, trabajan como freelance o subcontratados y se exponen a material perturbador sin apoyo suficiente. Son tareas invisibles, pero sin ellas los modelos no podrían operar en entornos abiertos.
La región conoce este patrón con otro nombre: extractivismo. Antes eran minas y petróleo; ahora son datos, metadatos y voces. Líderes indígenas lo expresan con claridad: “Los datos son la última frontera de la colonización”. No hay látigo, hay términos y condiciones. Si lo comparamos con la app móvil de cualquier servicio web, aceptas y sigues, y cedes valor con cada clic.
Además, si tu lengua o tu acento no aparecen en los datos, quedas fuera. La escasa representación de lenguas y minorías en el entrenamiento invisibiliza culturas y experiencias, y empobrece la realidad digital. Letras Libres alerta de un negocio basado en recolectar tus datos personales para convertirlos en productos que luego se te revenden como servicios, anuncios y suscripciones.
Este giro tiene consecuencias políticas y económicas directas. La presión por terrenos para centros de datos altera mercados locales y uso del agua. Las cadenas de suministro se desplazan a donde hay menos controles, y los costes sociales quedan fuera del balance trimestral. El relato dominante insiste en la promesa de eficiencia y crecimiento, sin atender a quién paga el precio.
¿Se puede “programar” la ética y cerrar la brecha? La filósofa Adela Cortina propone transmitir ética humana a los modelos, pero admite que es difícil a corto plazo y que el bien y el mal varían entre personas. Para Ria Kalluri, de Stanford, la prioridad es otra: analizar cómo la inteligencia artificial redistribuye o concentra poder y orientar su desarrollo hacia la equidad. Con el mapa actual de recursos, visibilizar los desequilibrios urge más que prometer una ética perfecta.
La inteligencia artificial que hoy te traduce un texto o te escribe un correo nace de un ecosistema con una fe enorme en el progreso y una cadena de costes poco visibles. Silicon Valley aporta capital, narrativa y velocidad; el sur global aporta datos, agua y trabajo. Entre ambos, quedan tus derechos digitales y el clima. Si el próximo gran anuncio viene con más computación y más datos, la pregunta no es solo “qué puede hacer”, sino “quién asume el coste”.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaDirectora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.