ZombieAgentChatGPTSam AltmanElon MuskProject AVAIA / Inteligencia ArtificialGrok Code Fast 1GrokChatGPT for HealthcarePayPalcopilotGmailGeminiOpenAIAgentes IA

ChatGPT y la Esclavitud Invisible: Karen Hao Revela la Explotación en Kenia y Venezuela

 | enero 9, 2026 01:00

El imperio de la IA. Sam Altman y su carrera por dominar el mundo, el libro de la periodista Karen Hao sobre Sam Altman y OpenAI, donde revela el lado oscuro de la compañía. Es la discrepancia entre el discurso público idealista y lo que, según documentos internos, correos y entrevistas, ocurría puertas adentro.

Hao dice contar con información privilegiada: documentos confidenciales, correos intercambiados entre Elon Musk (copresidente inicial de OpenAI), Altman, directivos y empleados, y entrevistas extensas. Y con ese material sostiene una tesis dura: que Altman persigue un proyecto de centralización del poder mediante la inteligencia artificial, casi como un “imperio” construido con software.

Una Periodista se Infiltra en el Mundo de la IA y Llega a una Conclusión Incómoda para OpenAI

También perfila el imaginario del propio Altman. Entre sus referencias íntimas aparecen Her y Napoleón. Para la autora, esa combinación funciona como pieza clave: una fantasía de intimidad tecnológica y, al mismo tiempo, un apetito por la expansión.

Ahora, ¿cómo se traduce todo esto en algo que cualquiera pueda entender? Pensemos en la IA como una casa conectada. Por fuera, ves luces cálidas, un timbre inteligente y una voz que te responde. Pero en el sótano hay un tablero eléctrico con interruptores que casi nadie mira: quién decide la velocidad de construcción, quién paga el material y quién se encarga de limpiar lo tóxico antes de que suba por las tuberías.

Porque el entrenamiento (la etapa en la que el sistema aprende leyendo enormes cantidades de texto) se alimenta de Internet. Y el libro sostiene que en OpenAI sabían que usar repositorios masivos y de baja calidad implicaba sesgos y contenidos dañinos. Se habría priorizado el crecimiento escalado y la salida temprana al mercado por encima de la seguridad, la privacidad y el respeto a derechos de autor.

Ese mecanismo tiene un engranaje humano. Para que ChatGPT parezca servicial, hace falta un filtrado intensivo de lo que leyó. El filtrado incluye revisión manual de violencia extrema. Es un trabajo psicológicamente devastador, describe la reseña, y recae sobre todo en trabajadores muy pobres de Kenia así como en personas en situación desesperada en Venezuela.

También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en Europa
Lo llaman “HackedGPT”: el informe que destapa las siete grietas más peligrosas jamás vistas en ChatGPT

En 2018, durante la hiperinflación venezolana, el 75% de los trabajadores de plataformas de anotación de datos eran venezolanos, según datos citados. Esa “anotación de datos” (etiquetar ejemplos para que la IA distinga) es la pieza central y subterránea de la industria. Sin esos ojos humanos, la máquina no “aprende” como promete.

El interruptor que nadie quiere mirar

En el libro, la “ley de Silicon Valley” aparece como un lema: correr, crecer, romper. Es el tipo de interruptor cultural que define prioridades. Y el departamento de Seguridad, según se narra, advirtió sobre falsedades y vulneraciones de propiedad intelectual, pero esas alertas fueron desoídas.

Además, Hao pone un ejemplo de opacidad: el acuerdo con Microsoft en 2018, gestionado personalmente por Altman, con una inversión de 1.000 millones de dólares. Ese pacto incluía presión por rentabilidad extrema, con el compromiso de sextuplicar beneficios, y la contrapartida de ocultar información veraz sobre cómo se entrenaban los modelos, según la crítica.

OpenAI Finaliza su Reestructuración con Fines de Lucro y Cierra un Nuevo Acuerdo con Microsoft

Mientras tanto, la concentración de capital siguió creciendo. En 2024, la última ronda de capital riesgo para OpenAI alcanzó 6.600 millones de dólares y elevó su valoración a 157.000 millones. El contraste es brutal: arriba, cifras récord; abajo, condiciones descritas como “esclavitud tecnocolonial”.

Para el lector, la aplicación práctica es incómoda y simple: cada vez que una IA “amable” responde, conviene preguntarse qué se sacrificó para lograr esa respuesta inmediata. Y también quién pagó el costo emocional de limpiar el material que el sistema no debería repetir.

Al final, la promesa de una IA segura no se juega solo en laboratorios. Se juega en ese tablero eléctrico escondido, donde los incentivos empresariales deciden qué se enciende rápido y qué se deja, deliberadamente, en penumbras.

También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científica

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram