Quick CutAdobe FireflyAlexa+CUDISSiriAsk GeminiIntrinsicDara KhosrowshahiDeepseekUNESCOagente de IAMetaDonald TrumpAgentes IAOpenAI

OpenAI, Nvidia H200 y 23 Gigavatios: la Letra Pequeña del Boom de la Inteligencia Artificial

 | febrero 25, 2026 08:48

En una cumbre tecnológica reciente en India, Sam Altman, CEO de OpenAI, intentó ponerle contexto a la polémica por el consumo de la inteligencia artificial generativa. El hallazgo del debate no fue un número nuevo, sino un mecanismo retórico: comparó la energía necesaria para sostener a la IA con la que se usa para criar y educar a un ser humano durante unos veinte años.

Además, Altman buscó desmentir otra idea que circula fuerte: que una sola consulta a un modelo gasta “como la batería de un teléfono”. Según él, el requerimiento eléctrico real por interacción es mucho menor de lo que se suele calcular. Y sostuvo que la comparación “justa” no es móvil contra chatbot, sino modelo entrenado contra esfuerzo mental humano, incluso insinuando que sus sistemas ya rozan la eficiencia del cerebro.

“La comparación justa no es entre una consulta y un móvil, sino entre la electricidad de un modelo entrenado y el esfuerzo mental equivalente”, vino a sostener Altman durante su intervención.

Sin embargo, el punto ciego que señalan críticos del argumento es clave: una persona no se “copia y pega”. Un programa sí. Y esa pieza clave cambia el cableado de toda la discusión, porque un mismo sistema de IA puede replicarse millones de veces y ejecutarse en paralelo en todo el mundo.

Se podría decir que pensar la IA como “una mente” es como evaluar el costo de una lámpara mirando solo una bombita. El verdadero consumo aparece cuando esa misma bombita se multiplica y se enciende en cada habitación, en cada edificio y durante toda la noche.

Y hay un engranaje más: el calor. Los centros de datos son salas de máquinas gigantes que trabajan 24/7. Cuando una GPU (procesador gráfico) —el “motor” que hace los cálculos— se exige, calienta. Por eso entra en juego la refrigeración, que puede usar aire, líquidos o, en muchos casos, evaporación.

También te puede interesar:El Impactante Despido de Sam Altman: ¿Qué Ocurrió Realmente en OpenAI?
Frenar la IA para Salvar el Agua: la ONU Advierte del Coste Oculto de los Centros de Datos de IA

Altman también abordó la polémica del agua. Calificó las quejas por el consumo hídrico como “fabricadas” y “completamente falsas”. Y aseguró que la industria está abandonando rápido la refrigeración evaporativa (enfriar evaporando agua) para reducir el uso de agua potable.

Pero el relato optimista choca con registros industriales independientes del mismo año: informes externos señalan que más de la mitad de las instalaciones para IA aún usan sistemas por evaporación. En la práctica, eso implica un goteo constante de recursos para mantener la temperatura estable de granjas de servidores inmensas.

El “interruptor” real: escala y demanda eléctrica

Los números ayudan a ver el mapa. Las previsiones oficiales indican que las grandes infraestructuras de IA demandarán 23 gigavatios de potencia este mismo año, una cifra que, según el artículo, igualaría el consumo eléctrico total del Reino Unido.

Departamento de Comercio Aprueba Exportaciones a China del Chip Nvidia H200

Y en el nivel micro, aparece otra clave: cada tarjeta Nvidia H200 —hardware (equipo físico) muy usado para IA— requiere alrededor de 700 vatios continuos cuando funciona a pleno rendimiento. Multiplicado por miles de unidades, el “electrodoméstico” deja de ser uno y pasa a ser un barrio entero.

Por eso crece la preocupación por sostenibilidad. La Agencia Internacional de la Energía advierte de un aumento anual cercano al 15% en el consumo energético asociado a la IA. Y estudios independientes apuntan a que el gasto global podría superar pronto al de la red de Bitcoin.

Qué cambia para el usuario común

La aplicación práctica es incómoda, pero útil: si la IA se vuelve un servicio cotidiano, su huella también se vuelve cotidiana. Varias organizaciones medioambientales ya piden frenar la construcción acelerada de nuevas infraestructuras privadas sin control regulatorio.

También te puede interesar:Sam Altman Advierte Que Los Bots Hacen Que Las Redes Sociales Parezcan Falsas

El artículo sostiene que equiparar calorías humanas con voltaje (energía eléctrica) desvía el foco del problema real: la capacidad energética global. Y ahí el interruptor no está en una metáfora biológica, sino en decisiones concretas sobre cómo, dónde y con qué reglas se encienden estas “habitaciones” digitales.

Porque, al final, la pregunta no es si una consulta “cuesta” como una carga de celular. La pregunta es cuántas casas más se están iluminando al mismo tiempo, y quién paga la cuenta.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram