El hallazgo lo pone sobre la mesa Rubén Cuevas, profesor de la Universidad Carlos III de Madrid y cofundador de la empresa Hiili. Su advertencia es directa: las preguntas a chatbots populares suponen una amenaza climática por las emisiones asociadas a su funcionamiento. Y no se trata de un caso aislado, sino de un mecanismo repetido millones de veces al día.
Según sus cálculos, los modelos conversacionales más potentes pueden emitir hasta 50 veces más CO2 que modelos más simples para responder preguntas sencillas con la misma eficacia. Para una consulta elemental —“¿cuál es la capital de España?”— ChatGPT rondaría los 11 gramos de CO2. Un modelo más ligero como el europeo Mistral bajaría a 0,016 gramos.

“No es necesario usar siempre los modelos más pesados para cualquier consulta”, advierte Cuevas, por razones energéticas y ambientales.
La clave está en que la IA conversacional se apoya en redes neuronales (capas de cálculo que imitan patrones) y aprendizaje automático (ajuste por datos y ejemplos). Eso exige una infraestructura enorme: centros de datos con máquinas que calculan sin pausa, se enfrían, se sincronizan y vuelven a calcular.
Ahora, la analogía doméstica: usar un chatbot gigante para una pregunta simple es como encender el horno eléctrico para calentar una taza de café. Funciona, sí. Pero el engranaje que se pone en marcha es desproporcionado para lo que pediste.
En cambio, un modelo más liviano se parece más a usar el microondas. Hace el trabajo justo. Consume menos. Y no necesita mover toda la “central” de la casa para una tarea pequeña.
También te puede interesar:Cómo la Inteligencia Artificial Transforma la Industria Cinematográfica IndiaAdemás, este impacto es una de las dimensiones menos visibles del cambio climático. El consumo energético del ecosistema digital —videollamadas, correos, publicidad online y ahora IA generativa— se midió mucho menos que sectores como la aviación o el transporte. Esa falta de visibilidad es, para Cuevas, una pieza clave del problema.
Los centros de datos son el corazón de esta historia. En momentos de máxima demanda, uno puede alcanzar potencias de hasta 200 megavatios, según expertos citados en el artículo. Y el consumo anual también impresiona: un centro pequeño puede usar entre 1 y 2 GWh (gigavatios hora) por año, mientras que uno grande puede trepar a 200 o 300 GWh.

Tomando esa cifra alta, un gran centro de datos puede equivaler al consumo anual de entre 85.000 y 90.000 viviendas en España, donde el promedio ronda los 3.300–3.500 kWh al año. Dicho de forma simple: la IA no vive en “la nube”, vive en enchufes reales.
Por eso Cuevas es categórico: “no hay energía suficiente para alimentar la inteligencia artificial tal y como se está planteando su expansión actual”. Y el despliegue masivo previsto de acá a 2026 vuelve el dilema más urgente.
Las grandes tecnológicas exploran salidas específicas para abastecer centros de datos: desde microrreactores nucleares junto a las instalaciones (con plazos largos y residuos) hasta acuerdos directos con compañías gasistas, una vía que se aleja de compromisos climáticos europeos.
Mientras tanto, España activó el Plan Nacional de Algoritmos Verdes, desde la Secretaría de Estado de Digitalización e Inteligencia Artificial, para trabajar en estándares que midan el consumo energético de los modelos. Hiili participó en esa iniciativa y busca “democratizar” el acceso a una tecnología responsable, eficiente y sostenible.
También te puede interesar:OpenAI Presenta un Agente para Investigación ProfundaPedro Travesedo, director de Alianzas de Hiili, subraya otro punto: hoy no existe una visibilidad real sobre qué modelos se usan, cuánto consumen ni cómo optimizar su eficiencia. Sin ese “medidor”, es difícil tomar decisiones cotidianas.
La aplicación práctica empieza por un gesto simple: no usar toda la artillería pesada para todo. Si la pregunta es básica, un modelo más liviano puede ser el interruptor correcto. Y si la tarea exige creatividad o contexto, ahí sí tiene sentido abrir el “horno”.
Porque la oportunidad no es apagar la IA, sino aprender a usarla como cualquier herramienta de casa: con criterio, con medida y sin recalentar el planeta por una taza de café.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.