Saltar al contenido

Cuánta energía usa la IA El auge de la inteligencia artificial está multiplicando el consumo energético global, pero la falta de transparencia impide saber hasta qué punto esta revolución tecnológica acelera también la crisis climática.

Cuánta energía usa la IA

Cuánta energía usa la IA es una pregunta cada vez más difícil de responder con precisión. Y no porque falten estudios, sino porque las grandes empresas detrás de los modelos más populares —OpenAI, Google, Anthropic o Meta— se niegan, en su mayoría, a publicar datos detallados sobre sus emisiones de carbono y consumo energético. En este vacío de información, proliferan estimaciones, declaraciones parciales y comparaciones poco verificables que, aunque capturan titulares, dicen poco sobre el verdadero impacto ambiental de la inteligencia artificial.

“La gente suele tener curiosidad por saber cuánta energía consume una consulta de ChatGPT”, escribió recientemente Sam Altman, CEO de OpenAI. Según él, cada interacción con el chatbot equivale a 0,34 vatios-hora, algo así como lo que un horno eléctrico gasta en poco más de un segundo o una bombilla LED eficiente en un par de minutos. La cifra parece modesta, pero multiplicada por los 800 millones de usuarios semanales de la plataforma, la magnitud del gasto energético adquiere otra dimensión.

Sin embargo, los especialistas advierten que ese número, aislado y sin contexto, dice poco. ¿Qué se entiende por una “consulta promedio”? ¿Incluye la generación de imágenes, el almacenamiento de datos, el enfriamiento de los servidores o el entrenamiento de los modelos? Nadie fuera de OpenAI lo sabe.

Sasha Luccioni, investigadora climática de Hugging Face, lo dice sin rodeos: “Podría habérselo sacado de la manga”. La compañía, señala, no respondió a ninguna solicitud de aclaración sobre el origen de esa cifra.

Un gasto invisible que crece con la IA

A medida que la inteligencia artificial se instala en la vida cotidiana —en búsquedas web, asistentes personales, traducción automática, generación de textos e imágenes— también crece su huella de carbono. Paradójicamente, esto ocurre en un momento en que el mundo intenta desesperadamente reducir las emisiones.

Un estudio en revisión firmado por Luccioni y otros tres investigadores propone justamente transparentar el impacto ambiental de la IA. Según los datos que analizaron, el 84 % del tráfico de grandes modelos de lenguaje (LLM) registrado en mayo de 2025 correspondía a sistemas sin ninguna información pública sobre su consumo energético.

“Es absurdo que podamos saber cuántos kilómetros por litro rinde un auto, pero no cuánta energía consume una herramienta de inteligencia artificial que usamos a diario”, apunta Luccioni. Y reclama que los reguladores de todo el mundo establezcan etiquetas energéticas obligatorias para los modelos de IA, como ya ocurre con electrodomésticos o automóviles.

La falta de datos, advierte, también genera distorsiones. Una de las comparaciones más repetidas en los últimos años es que “una consulta a ChatGPT consume diez veces más energía que una búsqueda en Google”. Pero esa frase, rastreada por los investigadores, proviene de un comentario improvisado hecho en 2023 por John Hennessy, presidente de Alphabet, la empresa matriz de Google, sobre un producto de la competencia. Pese a su endeble origen, la supuesta estadística se ha repetido una y otra vez en medios, informes y debates públicos.

“La gente ha tomado un comentario al pasar y lo ha convertido en un dato incuestionable”, lamenta Luccioni. “El verdadero problema es que no tenemos cifras reales”.

Los modelos abiertos como ventana al consumo real

Ante el secretismo de las grandes tecnológicas, los investigadores recurren a una alternativa: los modelos de código abierto, que permiten examinar su arquitectura y su desempeño energético.

Un estudio publicado recientemente en Frontiers of Communication analizó 14 grandes modelos de lenguaje abiertos, incluyendo versiones de Meta Llama y DeepSeek, y encontró diferencias de consumo de hasta un 50 % entre ellos. Los modelos más complejos —los que despliegan más “fichas de pensamiento”, es decir, procesos internos de razonamiento— son también los más precisos y los que más energía requieren.

Maximilian Dauner, autor principal del estudio y doctorando en la Universidad de Ciencias Aplicadas de Múnich, sostiene que la clave está en asignar tareas según el nivel de complejidad. Las preguntas simples podrían enviarse a modelos más pequeños y eficientes, mientras que los sistemas más potentes quedarían reservados para desafíos realmente complejos. “Incluso los modelos más modestos pueden ofrecer excelentes resultados en tareas básicas, sin emitir esa enorme cantidad de CO₂”, explica.

Algunas empresas ya aplican este principio. Google y Microsoft confirmaron que sus funciones de búsqueda utilizan modelos reducidos siempre que sea posible, lo que también acelera las respuestas. Sin embargo, no hay incentivos para que el público adopte hábitos de uso más sostenibles. “El diseño actual prioriza la inmediatez —dice Noman Bashir, del Consorcio Clima y Sostenibilidad del MIT—. Si una respuesta tarda cinco minutos, el usuario simplemente se va a otra plataforma”.

Lo que no se ve: el costo del hardware y los centros de datos

Calcular el consumo energético de la IA es complejo porque depende tanto del software como del hardware. Los procesadores de alto rendimiento, como las GPU Nvidia A100 utilizadas en los experimentos de Dauner, consumen cantidades considerables de electricidad. Pero eso es solo el comienzo.

Los centros de datos que albergan los servidores de IA necesitan refrigeración constante, iluminación, equipos de red y sistemas de respaldo eléctrico. Además, su huella de carbono varía según la fuente energética local: un centro que opera en una región con predominio de carbón o gas natural emitirá mucho más CO₂ que otro alimentado con energía solar o eólica.

Bashir usa una metáfora elocuente: calcular el consumo de una consulta de IA sin considerar la infraestructura que la sostiene es “como levantar un auto, pisar el acelerador y medir las revoluciones de una rueda para estimar su eficiencia de combustible”.

A ello se suma el entrenamiento de los modelos, un proceso que puede durar semanas o meses y requerir miles de GPUs trabajando de manera simultánea. Es una de las fases más intensivas en energía, y la mayoría de las empresas no revela cuánto consumen ni qué tipo de fuentes utilizan.

Sin transparencia, no hay sostenibilidad

La realidad es que nadie fuera de las grandes corporaciones sabe exactamente cuánta energía consume la inteligencia artificial. Las cifras de Altman sobre ChatGPT, por ejemplo, podrían no incluir el gasto en entrenamiento, en refrigeración o en la operación general de OpenAI.

“Si tuviera una varita mágica —afirma Luccioni— obligaría a todas las empresas que lanzan un sistema de IA al público a publicar sus cifras de carbono”. Solo con datos abiertos y verificables, dice, sería posible evaluar la eficiencia energética de los modelos y orientar políticas que reduzcan su impacto ambiental.

De lo contrario, seguiremos en la oscuridad: una revolución tecnológica impulsada por máquinas que aprenden, pero de las que aún sabemos muy poco sobre cuánto contaminan. La IA promete cambiar el mundo, pero su sostenibilidad depende de que aprendamos también a mirar dentro de la caja negra de su consumo energético.

Este artículo fue elaborado por el equipo de barrameda.com.ar y con el apoyo de herramientas de redacción asistida por inteligencia artificial.