La inteligencia artificial no solo está cambiando la forma en que trabajamos o creamos contenido. También está empezando a dejar una huella en el planeta. Un nuevo estudio de la Universidad de Cornell advierte que el auge de los centros de datos que sostienen a la IA podría convertirse en una de las fuentes emergentes más importantes de emisiones y consumo de agua en la próxima década.
Los investigadores estiman que, si la tendencia actual continúa, las operaciones necesarias para entrenar y mantener modelos de IA podrían liberar entre 24 y 44 millones de toneladas métricas de dióxido de carbono al año para 2030. Es casi lo mismo que añadir unos diez millones de coches más a las carreteras estadounidenses.
El trabajo, publicado en Nature Sustainability, también calcula un gasto de entre 731 y 1.125 millones de metros cúbicos de agua anuales. Esa cifra equivale al consumo doméstico de entre seis y diez millones de hogares, un volumen difícil de ignorar en plena crisis climática y energética.
Detrás de los números hay una historia de crecimiento acelerado. En apenas cinco años, la demanda de computación necesaria para los modelos de lenguaje y sistemas de IA generativa ha crecido más rápido que la capacidad de las redes eléctricas para descarbonizarse. Cornell advierte que si no se frena ese ritmo, los objetivos de neutralidad de carbono simplemente no se cumplirán.
“Queríamos entender no solo cuánto contamina la IA, sino cómo evitar que ese impacto se dispare”, explicó Fengqi You, ingeniero energético y autor principal del estudio. Según el equipo, la solución pasa por tres factores: elegir mejor las ubicaciones, limpiar antes las redes eléctricas y mejorar la eficiencia operativa de los servidores.
El estudio muestra, por ejemplo, que muchos de los centros actuales se están levantando en zonas áridas como Nevada o Arizona, donde la escasez de agua es crítica. Reubicar la infraestructura hacia regiones con menor estrés hídrico, como el Medio Oeste o Texas, podría reducir el consumo en más de la mitad. Si a eso se suman prácticas de refrigeración eficiente, la reducción total alcanzaría el 86 %.
Aun así, los investigadores no caen en el alarmismo. Proponen una “hoja de ruta” realista que permitiría recortar casi tres cuartas partes de las emisiones actuales de carbono asociadas a la IA. Pero el mensaje es claro: el tiempo apremia. Cada año de retraso en la descarbonización multiplica el coste ambiental de la computación.
Uno de los aspectos más preocupantes es que, incluso si cada kilovatio-hora se vuelve más limpio, la demanda de energía crece más rápido que la capacidad de generar electricidad renovable. “La IA está creando su propio desafío climático”, reconoce You. “No basta con hacer que la electricidad sea más verde; también hay que usar menos”.
Los investigadores apuntan que la adopción de tecnologías de refrigeración líquida, la reutilización del calor residual y el aumento del rendimiento por servidor podrían eliminar otro tercio del impacto actual. Combinadas, estas medidas podrían equilibrar el crecimiento del sector sin detener la innovación.
Para Cornell, esta década será decisiva. Gigantes como OpenAI, Google o Amazon invierten miles de millones de dólares en granjas de servidores, y las decisiones que tomen ahora determinarán si la IA acelera el progreso climático o se convierte en una nueva carga para el planeta.
“La inteligencia artificial tiene el potencial de ayudarnos a combatir el cambio climático”, concluye You. “Pero si no actuamos, acabará siendo parte del problema que intenta resolver”.