
La Inteligencia Artificial llegó a revolucionar la forma en que nos desarrollamos los humanos, tanto que se ha integrado en escuelas, empleos y directamente en el internet, donde la mayoría de las personas pueden hacer solicitudes para que les ayude a redactar desde mensajes breves hasta ensayos complejos.
Sin embargo, su apoyo tiene un precio muy alto, pues al redactar un correo de 100 palabras, consume una cantidad elevada de electricidad y agua, tanta que equivale a una botella promedio, según un análisis realizado por The Washington Post en colaboración con investigadores de la Universidad de California, Riverside (UCR).
De acuerdo con el informe, generar un correo electrónico de 100 palabras utilizando el modelo de lenguaje GPT-4, lanzado en marzo de 2023 por OpenAI, requiere aproximadamente 519 mililitros de agua. Si un usuario promedio realiza esta acción semanalmente durante un año, el consumo ascendería a 27 litros, equivalente a 1.43 garrafones de agua.
El papel del agua en los centros de datos

El consumo de agua está directamente relacionado con el funcionamiento de los centros de datos, donde se alojan los servidores que procesan las consultas de los chatbots. Estos servidores generan una gran cantidad de calor al realizar los cálculos necesarios para responder a las solicitudes de los usuarios.
Para evitar el sobrecalentamiento, muchos centros de datos utilizan sistemas de enfriamiento basados en agua, que transportan el calor hacia torres de enfriamiento, permitiendo que se disipe. Según Shaolei Ren, profesor asociado de la Universidad de California, Riverside, este proceso es similar al mecanismo de sudoración del cuerpo humano.
Sin embargo, el consumo de agua varía según la ubicación del centro de datos. En regiones donde el agua es escasa o la electricidad es más económica, se opta por sistemas de enfriamiento eléctricos, que también tienen un impacto significativo en el consumo energético.
Además, los centros de datos suelen ser grandes consumidores de agua en las comunidades donde operan, lo que genera tensiones con los residentes locales. Por ejemplo, en West Des Moines, Iowa, los centros de datos de empresas como Microsoft utilizan alrededor del 6 % del agua total del distrito, según registros del departamento de agua.
Además, procesar entre 20 y 50 consultas en estas plataformas puede consumir aproximadamente medio litro de agua dulce, un recurso que ya enfrenta una creciente presión debido al cambio climático y la sobreexplotación.
Los chatbots como otro enemigo del agua

Además del agua, los chatbots de inteligencia artificial también demandan grandes cantidades de electricidad. Según el análisis de The Washington Post, generar un correo electrónico de 100 palabras con GPT-4 consume 0.14 kilovatios-hora (kWh) de electricidad, suficiente para alimentar 14 bombillas LED durante una hora. Si esta acción se repite semanalmente durante un año, el consumo asciende a 7.5 kWh, equivalente a la electricidad utilizada por 9.3 hogares en Washington D.C. durante una hora. A mayor escala, si uno de cada diez trabajadores estadounidenses realizara esta acción semanalmente, el consumo anual alcanzaría los 121.517 megavatios-hora (MWh), suficiente para abastecer a todos los hogares de Washington D.C. durante 20 días.
El impacto energético de los centros de datos no se limita a los chatbots. Estas instalaciones también soportan actividades como la computación en la nube, lo que incrementa aún más la carga en las redes eléctricas. En regiones cálidas, donde se depende del aire acondicionado para enfriar los servidores, el consumo energético es aún mayor.
Antes de que los chatbots puedan responder a las consultas de los usuarios, deben ser entrenados mediante modelos de lenguaje avanzados, un proceso que también requiere enormes cantidades de agua y energía. Por ejemplo, el entrenamiento del modelo GPT-3 de Microsoft consumió 700 mil litros de agua, una cantidad equivalente a la necesaria para producir 45 kilogramos de carne de res. Por su parte, Meta utilizó 22 millones de litros de agua para entrenar su modelo de inteligencia artificial LLaMA-3, un volumen comparable al necesario para producir 2.000 kilogramos de arroz.
El entrenamiento de estos modelos puede durar meses y requiere que los servidores analicen millones de datos para generar respuestas precisas y naturales. Este proceso intensivo en recursos ha llevado a empresas como Google, Meta y Microsoft a construir más centros de datos, lo que a su vez incrementa la presión sobre los recursos naturales.
Más Noticias
Estas son las nuevas reglas de FIFA que México deberá seguir para el Mundial 2026
La próxima Copa del Mundo tendrá nuevas pausas de hidratación, control más estricto de tiempos de juego y sanciones inmediatas para retrasos en sustituciones

Nueva Caledonia vs Jamaica EN VIVO: ya lo ganan 1-0 los Raggae Boyz en el repechaje para el Mundial 2026
Se juega el repechaje intercontinental desde la sede mundialista del Estadio Akron cuando se midan neocaledonios contra jamaiquinos por un boleto al Mundial 2026

Embajada de México en EEUU defiende permanencia de médicos cubanos: “gozan de los mismos derechos”
El organismo diplomático respondió a las declaraciones emitidas por el congresista Mario Díaz-Balart, negando cualquier participación relacionada con trata de personas

Secuestros masivos de trabajadores en México son por el aumento de grupos criminales y su diversificación, señala experto
Ante la desaparición de trabajadores en diferentes partes del país, Infobae México contactó con el investigador Víctor Sánchez

Alcaldía Miguel Hidalgo de CDMX se pronuncia ante retiro de estructuras de ‘Alicia en el país de las maravillas’ en el Parque Lira
Desde el pasado jueves 24 de febrero se suspendieron las actividades en este recinto de la Ciudad de México

