En un mundo cada vez más habituado a interactuar con inteligencias artificiales, decir “por favor” y “gracias” podría parecer una simple muestra de educación. Sin embargo, en el caso de sistemas como ChatGPT, estas palabras de cortesía tienen un costo real: millones de dólares y un impacto ambiental considerable.
Según el propio CEO de OpenAI, Sam Altman, el uso de fórmulas de cortesía por parte de los usuarios representa un gasto acumulado de “decenas de millones de dólares” en procesamiento computacional. Aunque lo dijo con tono humorístico en la red social X, la cifra no es una exageración: cada palabra adicional en las consultas eleva la carga de trabajo de los servidores, incrementando el consumo energético y, por tanto, los costos operativos.
La explicación técnica es sencilla, pero reveladora. Cada vez que un usuario se dirige a ChatGPT, el modelo descompone la entrada en tokens (unidades de texto) para poder interpretarla. Cuanto más larga y detallada es la consulta (como ocurre cuando se emplean modismos corteses) más tokens se generan y más recursos computacionales se requieren para procesarla.
En promedio, una sola interacción con ChatGPT consume 0,3 vatios-hora (Wh), según cifras de Tom’s Hardware. Esto puede parecer mínimo, pero cuando se multiplican por millones de usuarios diarios, el impacto energético se vuelve colosal.
Además, este procesamiento requiere el uso intensivo de GPUs y centros de datos que no solo consumen electricidad, sino también agua para su refrigeración. Según un estudio de la Universidad de California, una simple respuesta de IA puede implicar entre 40 y 50 mililitros de agua.
También te puede interesar:OpenAI GPT-Image-1: la API que lleva la generación de imágenes a tus aplicacionesLa preocupación por la sostenibilidad de la inteligencia artificial no es nueva. La Agencia Internacional de Energía (AIE) estima que, para 2030, los centros de datos consumirán hasta 945 teravatios-hora (TWh) de electricidad, más del doble de los 415 TWh actuales. Este consumo se verá impulsado en parte por el uso extensivo de modelos generativos como ChatGPT.
Esto sitúa a la educación digital en una encrucijada: ¿vale la pena mantener los modales cuando cada “por favor” implica un gasto energético adicional? Para empresas como OpenAI, sí. Altman asegura que estos costos están “bien gastados”, ya que una interacción más amable podría sentar las bases para un futuro en el que la IA y los humanos coexistan de forma más armónica.
Más allá del costo económico y ambiental, también se ha investigado si ser cortés influye en la calidad de las respuestas generadas por la IA. Un estudio de la Universidad de Cornell encontró que el lenguaje educado puede mejorar la eficacia de las respuestas en ciertos contextos, aunque este efecto no es universal ni constante.
La investigación señala que los modelos como ChatGPT, entrenados con millones de ejemplos de lenguaje humano, tienden a replicar el tono del usuario. Si se les habla con respeto, suelen responder del mismo modo. Sin embargo, un exceso de cortesía puede ser contraproducente, y el impacto también varía según el idioma y la cultura.
Por ejemplo, mientras que el inglés se beneficia de una cortesía moderada, en japonés parece más efectiva una alta formalidad.
Decir “gracias” a una máquina puede parecer un gesto trivial, pero en el mundo de la inteligencia artificial, cada palabra cuenta. Literalmente. Si bien ser cortés con ChatGPT no garantiza mejores respuestas, sí contribuye a establecer un tono más humano en la conversación. No obstante, también eleva los costos y el impacto ambiental de cada interacción.
También te puede interesar:OpenAI libera una función de pago en ChatGPT para usuarios gratuitosLa decisión de ser educado con una IA, por tanto, no es solo ética o cultural, es también técnica, económica y ecológica. En última instancia, el dilema de la cortesía digital refleja una de las grandes tensiones del presente tecnológico: cómo equilibrar la humanidad en nuestras interacciones con la eficiencia de los sistemas que las hacen posibles.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.