Logotipo de Iceebook Iceebook - Noticias de Ciencia, Tecnología, Economía y más

La otra cara de la IA: cómo sus servidores consumen tanta energía como países enteros

La otra cara de la inteligencia artificial es su enorme gasto energético, sus servidores ya consumen tanta electricidad como países enteros, planteando un dilema ambiental urgente

Autor - Aldo Venuta Rodríguez

5 min lectura

Ilustración digital que contrasta la inteligencia artificial con su alto consumo de energía y el impacto ambiental de las plantas eléctricas
Imagen ilustrativa. Créditos: Iceebook

La inteligencia artificial se presenta como una de las grandes revoluciones tecnológicas del siglo XXI. Sus aplicaciones están en todas partes: desde asistentes virtuales hasta diagnósticos médicos y creación de imágenes. Sin embargo, hay una consecuencia que no suele verse a simple vista: el gasto energético colosal que sostiene su funcionamiento.

De acuerdo con la Agencia Internacional de la Energía, la demanda de electricidad de los centros de datos podría duplicarse para 2030, alcanzando casi 945 teravatios-hora. Buena parte de ese aumento se debe directamente a la IA, cuyo crecimiento ha disparado el consumo en niveles que ya preocupan a los reguladores energéticos de todo el mundo.

El problema no se limita al entrenamiento inicial de los modelos. Aunque esta fase es intensiva —se estima que entrenar un modelo como GPT-3 requirió aproximadamente 1.287 MWh (1.287.000 kWh), equivalente a 120 años de electricidad de una vivienda promedio estadounidense— la verdadera carga viene después, en el uso cotidiano. Cada interacción con un chatbot, cada imagen generada y cada video sintetizado requieren energía adicional.

Se calcula que la inferencia, es decir, la etapa en que los modelos responden a usuarios, representa entre el 70% y el 80% de todo el gasto energético asociado a la IA. Dicho de otro modo, la mayoría del consumo no se produce en el laboratorio, sino en la vida diaria, cuando millones de personas usan estos sistemas en simultáneo.

Publicidad

El contraste con una búsqueda web tradicional sigue siendo significativo, aunque las diferencias han disminuido considerablemente gracias a las mejoras en eficiencia. Una consulta actual en Google consume aproximadamente 0.04-0.3 vatios-hora, mientras que una interacción con ChatGPT usando GPT-4o consume alrededor de 0.3 vatios-hora. Aunque la diferencia actual es mucho menor que las estimaciones iniciales de "10 veces más", sigue siendo relevante cuando se multiplica por miles de millones de consultas diarias.

El uso de imágenes intensifica aún más la situación. La generación de una sola imagen por IA puede requerir entre 0.1 y 2.0 kWh dependiendo del modelo utilizado —desde modelos ligeros como Stable Diffusion 1.5 (0.1-0.3 kWh) hasta los más avanzados como Midjourney V6 o DALL-E 3 (hasta 2.0 kWh). Esto equivale aproximadamente al consumo de cargar un smartphone entre 10 y 200 veces. No es extraño, entonces, que los expertos adviertan que este tipo de servicios creativos están entre los que más presionan la red eléctrica global.

El consumo energético no es el único problema. Los centros de datos necesitan enfriarse constantemente para evitar el sobrecalentamiento. Para ello utilizan enormes volúmenes de agua dulce. Investigaciones recientes calculan que entrenar un gran modelo de IA puede requerir hasta 700.000 litros de agua limpia, un recurso crítico en un planeta cada vez más afectado por sequías.

La presión se refleja en las inversiones masivas del sector. Microsoft anunció que invertirá 80.000 millones de dólares en 2025 para ampliar su infraestructura de centros de datos, mientras que Google planea gastar 75.000 millones en infraestructura de IA y Amazon mantiene inversiones similares. Apple anunció planes de 500.000 millones de dólares en manufactura y centros de datos en los próximos cuatro años. Una carrera que, según analistas, podría convertir a la IA en uno de los principales motores de la demanda energética mundial en menos de una década.

Publicidad

El impacto ambiental no es menor. El entrenamiento de modelos como Llama 3 ha generado más de 11.000 toneladas de CO₂, mostrando que la huella de carbono es tan preocupante como el consumo eléctrico. Esto plantea un dilema: la IA que promete ayudarnos a luchar contra el cambio climático también podría estar alimentando el problema.

Frente a esta realidad, la industria busca alternativas y está logrando avances significativos. Se están aplicando técnicas como la poda y la cuantización de modelos, así como arquitecturas de hardware más eficientes. También se apuesta por el uso de chips fotónicos y neuromórficos, capaces de realizar cálculos con menor gasto energético.

Los resultados de estas mejoras son notables: Google asegura que en el último año logró reducir 33 veces el consumo medio de energía por petición en Gemini y 44 veces sus emisiones de carbono asociadas. OpenAI reporta que sus modelos GPT-4o actuales consumen 10 veces menos energía que las estimaciones iniciales de 2023. Aunque estas cifras son alentadoras, expertos recuerdan que lo fundamental es escalar estas soluciones en todos los actores del ecosistema y no solo en los gigantes tecnológicos.

La inteligencia artificial abre una paradoja: es a la vez la herramienta más poderosa para optimizar el consumo energético global y uno de los mayores desafíos de sostenibilidad de la era digital. La clave estará en decidir si su desarrollo será guiado por la eficiencia y la responsabilidad ambiental o si repetirá los errores de otras revoluciones industriales.

Publicidad

Continúa informándote

Por qué la IA consume tanta energía y casi nadie lo explica bien
Tecnología

Por qué la IA consume tanta energía y casi nadie lo explica bien

El alto consumo energético de la inteligencia artificial no se debe a la “magia” del algoritmo, sino a centros de datos, hardware especializado y procesos poco visibles

El metaverso de Meta se desinfla tras años de inversión y promesas incumplidas
Tecnología

El metaverso de Meta se desinfla tras años de inversión y promesas incumplidas

Tras invertir decenas de miles de millones de dólares, Meta reduce su apuesta por el metaverso, cierra estudios de realidad virtual y redirige su estrategia hacia la inteligencia artificial

Por qué cada vez más voces en Silicon Valley hablan de irse de California
Tecnología

Por qué cada vez más voces en Silicon Valley hablan de irse de California

El nerviosismo en Silicon Valley no se explica solo por un nuevo impuesto, sino por cómo una propuesta fiscal podría afectar al control real que los fundadores tienen sobre sus empresas

OpenAI considera la robótica como nueva línea de desarrollo
Tecnología

OpenAI considera la robótica como nueva línea de desarrollo

OpenAI busca alianzas en robótica para llevar sus sistemas de IA al mundo físico, una estrategia que podría abrir nuevos mercados y aumentar la presión sobre sus finanzas

ChatGPT empezará a mostrar anuncios en su versión gratuita
Tecnología

ChatGPT empezará a mostrar anuncios en su versión gratuita

OpenAI empezará a probar anuncios en ChatGPT para usuarios gratuitos, un giro estratégico que busca financiar el desarrollo de la IA y reducir su dependencia del modelo de suscripción

Un robot de Columbia aprende a sincronizar los labios con el habla y el canto
Tecnología

Un robot de Columbia aprende a sincronizar los labios con el habla y el canto

Ingenieros de Columbia presentan en Science Robotics un rostro robótico con 26 motores que aprende sincronización labial observándose en un espejo y con videos en línea