¿Sabes cuánta energía y agua consume realmente la inteligencia artificial cuando hablas con ella? Sam Altman, CEO de OpenAI, acaba de dar una cifra que sorprende: una consulta normal a ChatGPT usa solo 0,000085 galones de agua. Este dato, compartido en su blog, llega acompañado de una reflexión: los costes de la inteligencia artificial ya se comparan con gastos de la vida cotidiana y, según Altman, deberían acercarse cada vez más al coste básico de la electricidad.
El misterio sobre cómo se recoge este dato continúa, ya que OpenAI no ha explicado el método para calcularlo. Investigadores independientes y reportajes recientes muestran que los mensajes de modelos avanzados de IA requieren bastante agua respaldando los sistemas de refrigeración de los centros de datos.
¿Estamos preparados para entender y medir de forma realista el coste ambiental oculto de la IA?
Según Sam Altman, una consulta media necesita unos 0,34 vatios-hora para procesarse. Es una cifra pequeña si pensabas en kilómetros de cableado y servidores rugiendo, pero tiene su escala: sería similar a usar un horno durante poco más de un segundo o una bombilla LED de alto rendimiento durante un par de minutos.
Puede sonar insignificante, pero, con millones de usuarios y preguntas al día, el cómputo total sube rápidamente. Por eso, cada vez que chateas con la inteligencia artificial, también aportas una pequeña carga al sistema eléctrico mundial. Este consumo no es constante, ya que depende del modelo de IA usado (como GPT-4) y de la infraestructura de cada plataforma.
ChatGPT gasta una diminuta cantidad de agua en cada consulta. Altman lo compara con «un quinceavo de una cucharadita», cifra que puede parecer minúscula, pero ilustra cómo cada interacción digital repercute en recursos físicos. Cuando utilizas estos servicios basados en IA, el agua juega un papel clave, sobre todo en la refrigeración de los potentes servidores que sostienen los modelos de OpenAI.
También te puede interesar:Los nuevos modelos de OpenAI podrían costar hasta $2000Esta agua suele evaporarse en los sistemas de climatización de los centros de datos. Investigaciones adicionales, como el estudio del Washington Post junto con expertos en sostenibilidad, han identificado que redactar un correo de 100 palabras con un chat de IA como GPT-4 equivalentemente requiere más de una botella de agua. Y si piensas en la escala global, los litros suman muy rápido.
No todos los centros de datos emplean la misma tecnología de refrigeración ni acceden a los mismos recursos hídricos. El lugar donde se aloja la IA puede influir mucho en la cantidad de agua necesaria.
Centros situados en zonas cálidas o con menor acceso a redes de refrigeración eficientes pueden gastar bastante más agua para mantener los sistemas a temperatura segura. Por eso, cada pregunta no solo tiene una huella eléctrica, sino también una huella hídrica dependiente de la infraestructura.
El debate no es solo teórico. Equipos de investigación externos han predicho que, lejos de mantenerse en niveles bajos, el consumo total de energía de la IA podría superar al de la minería de Bitcoin este mismo año. Si recuerdas la polémica sobre el gasto eléctrico del minado de criptomonedas, la comparativa puede ser inquietante.
Es importante recordar que, a diferencia del minado de Bitcoin, la IA tiene aplicaciones mucho más extendidas: desde la educación hasta la sanidad, el comercio electrónico y la vida diaria. Si sigue creciendo a este ritmo, vas a poder comprobar que la inteligencia artificial forma parte de la conversación pública sobre sostenibilidad tanto como otros grandes consumidores de energía.
Un artículo reciente, fruto de la colaboración entre el Washington Post y distintos investigadores, demostró que el cálculo del agua y la energía varía mucho. Redactar un simple correo con ayuda de GPT-4 es mucho más costoso en recursos de lo que podría parecer.
También te puede interesar:Hackean la cuenta de prensa de OpenAI en X para promocionar cripto estafasEste estudio analiza no solo la energía, sino también la variabilidad con respecto al clima y la ubicación física de los centros de datos, aportando así una imagen más realista y menos optimista que la visión corporativa de OpenAI.
Hoy en día, las grandes empresas de inteligencia artificial, desde OpenAI hasta otros gigantes tecnológicos, están en el punto de mira por el impacto medioambiental de sus plataformas.
Si lo comparamos con el uso extensivo de dispositivos electrónicos, el efecto acumulado puede ser abrumador. Por eso, grupos de presión, activistas ambientales y consumidores como tú reclaman datos fiables y métodos de cálculo transparentes.
El reto está claro: ¿vamos a poder medir realmente todo el “coste oculto” de hablar con una inteligencia artificial? Faltan muchos datos, pero la tendencia apunta a que la presión pública y las investigaciones independientes van a impulsar una mayor claridad en la divulgación del consumo de energía y agua.
También te puede interesar:Google permite que su IA sea accesible para menores de 13 años: así funciona Gemini con Family LinkMe dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.