Hace unas semanas, me uní a un pequeño grupo de periodistas en una conversación profunda con Bill Gates sobre el cambio climático, sus causas y posibles soluciones. Cuando el tema giró en torno al consumo de energía de la inteligencia artificial, Gates se mostró sorprendentemente optimista.
"No nos pasemos de la raya", comentó durante una rueda de prensa al margen de un acto que celebraba en Londres.
Los centros de datos de IA representan una carga adicional relativamente pequeña para la red, aseguró Gates. Es más, predijo que la información obtenida a partir de la IA proporcionaría mejoras en la eficiencia que compensarían con creces esa demanda adicional.
En resumen, según Gates, el asombroso auge de la IA no será un obstáculo para combatir el cambio climático. "No se trata de decir: 'Ah, no, no podemos hacerlo porque somos adictos a las sesiones de chat'", afirmó.
Es una valoración optimista de un multimillonario que tiene intereses invertidos en el tema. Gates es un gran inversionista en el clima, fue director de Microsoft y sigue siendo uno de los principales accionistas de la empresa, que está en el centro de la revolución de la inteligencia artificial.
Y aunque es demasiado pronto para llegar a una conclusión definitiva sobre la cuestión, algunas cosas ya están claras: la IA está teniendo un profundo impacto en la demanda de energía en todo el mundo, está provocando aumentos frecuentes de las emisiones que calientan el planeta, y no hay un final a la vista.
Los centros de datos de IA consumen mucha electricidad. Las unidades de procesamiento gráfico, o GPU por su sigla en inglés, utilizadas para entrenar grandes modelos de lenguaje y responder a consultas de ChatGPT, requieren más energía que un microchip promedio y emiten más calor.
Ahora que se activan más centros de datos casi cada semana, las proyecciones sobre cuánta energía se necesitará para alimentar el auge de la IA están por las nubes.
Un estudio revisado por expertos sugiere que, en 2027, la IA podría representar el 0,5 por ciento del consumo mundial de electricidad, es decir, aproximadamente lo que consume Argentina en un año. Los analistas de Wells Fargo sugieren que la demanda de electricidad en Estados Unidos podría aumentar un veinte por ciento para 2030, en parte debido a la IA.
Y Goldman Sachs predijo que los centros de datos representarían el ocho por ciento del consumo energético de Estados Unidos en 2030, frente al tres por ciento actual.
"Se trata de un crecimiento potencial de la carga realmente astronómico", explicó Ben Inskeep, director de programas de Citizens Action Coalition, un grupo de defensa de los consumidores con sede en Indiana que realiza un seguimiento del impacto energético de los centros de datos.
Microsoft, Google, Amazon y Meta hace poco anunciaron planes de construir nuevos centros de datos en Indiana, los cuales saturarían la red eléctrica según Inskeep.
"No tenemos energía suficiente para satisfacer las necesidades previstas de los centros de datos en los próximos cinco a diez años", reveló. "Necesitaríamos un despliegue masivo de recursos adicionales".
Los gigantes tecnológicos se afanan por controlar su consumo de energía. Desde hace una década, esas mismas cuatro empresas han estado a la vanguardia de los esfuerzos corporativos en favor de la sustentabilidad.
Sin embargo, en cuestión de meses, las demandas energéticas de la IA han complicado esa narrativa. Las emisiones de Google el año pasado fueron un 50 por ciento más altas que en 2019, en gran parte debido a los centros de datos y al auge de la IA. Las emisiones de Microsoft también se dispararon por las mismas razones, un 29 por ciento el año pasado respecto a 2020. Y las emisiones de Meta aumentaron un 66 por ciento de 2021 a 2023.
En sus declaraciones, Google y Microsoft afirmaron que la IA será crucial para combatir la crisis climática y que están trabajando para reducir su huella de carbono y suministrar más energía limpia al mundo digital. Amazon se remitió a una declaración en la que detallaba sus esfuerzos en materia de sustentabilidad.
Las empresas tecnológicas tienen dos formas de satisfacer la demanda: aprovechar la red existente o construir nuevas centrales eléctricas. Cada una plantea sus propios retos.
En Virginia Occidental, centrales eléctricas de carbón, cuya jubilación ya estaba prevista, se mantienen en funcionamiento para satisfacer las necesidades energéticas de los nuevos centros de datos al otro lado de la frontera, en Virginia.
Además, en todo el país, las empresas de servicios públicos están construyendo nuevas infraestructuras de gas natural para los centros de datos. Goldman Sachs prevé que "el aumento del consumo energético por parte de los centros de datos en Estados Unidos generará una demanda de gas natural de unos 93 millones de metros cúbicos al día de aquí a 2030, lo que exigirá la construcción de nuevos gasoductos".
La demanda energética de la IA no hace más que aumentar. Microsoft y OpenAI planean construir un centro de datos de 100.000 millones de dólares, según informes. Los informes iniciales sugieren que este podría requerir cinco gigavatios de energía, o aproximadamente el equivalente a cinco reactores nucleares.
Y al mismo tiempo que las empresas construyen más centros de datos, muchos de los chips que están al centro de la revolución de la inteligencia artificial consumen cada vez más energía. Nvidia, líder en chips de IA, presentó hace poco nuevos productos que consumirían exponencialmente más energía de la red.
El auge de la IA está generando grandes beneficios para algunas empresas. Y es posible que se produzcan avances que ayuden a reducir las emisiones. Pero, al menos por ahora, los centros de datos son más perjudiciales que beneficiosos para el clima.
"Es muy preocupante en un momento en el que intentamos pasar de nuestra red actual a las energías renovables", aseguró Inskeep. "Añadir una enorme carga nueva supone una grave amenaza para esa transición".
Un centro de datos en San José, California, el 23 de febrero de 2024. (Jim Wilson/The New York Times).