Para 2026, se espera que la potencia informática dedicada al entrenamiento de la IA se multiplique por diez. A medida que se gasta más energía, se necesitan más recursos. Como resultado, hemos visto aumentos exponenciales en el consumo de energía y, quizás de manera más inesperada, en el consumo de agua. Incluso, algunas estimaciones muestran que el funcionamiento de un modelo de IA de gran tamaño genera más emisiones a lo largo de su vida útil que un coche promedio. Un informe reciente de Goldman Sachs encontró que para 2030 habrá un aumento del 160% en la demanda de energía impulsada por aplicaciones de inteligencia artificial.
Sabemos que existe un riesgo ambiental palpable al operar de esta manera indefinidamente, pero también sabemos que la IA puede ser una nueva y poderosa herramienta para la sostenibilidad, acelerando la velocidad con la que resolvemos problemas, ayudándonos a comprender y enfrentar el cambio climático, y apoyando la incipiente transición energética.
La adopción de la IA es la nueva normalidad para las empresas y los gobiernos que buscan mejorar la toma de decisiones, aumentar la productividad empresarial y reducir los costos. Por ello, debemos considerar prácticas de IA más sostenibles ahora y, al mismo tiempo, priorizar los casos de uso de la IA para impulsar los beneficios generales de sostenibilidad.
¿Cómo podemos utilizar eficazmente la IA y aprovechar sus beneficios, al tiempo que minimizamos el impacto ambiental en la medida de nuestras posibilidades colectivas?
TOMAR DECISIONES INTELIGENTES SOBRE LOS MODELOS DE IA
Un modelo de IA consta de tres fases (entrenamiento, ajuste e inferencia), y en cada fase existen oportunidades para ser más sostenible. Al inicio de un proyecto de IA, los líderes empresariales deben considerar la elección de un modelo base, en lugar de crear y entrenar código desde cero. En comparación con la creación de un nuevo modelo, los modelos base se pueden ajustar para fines específicos en una fracción de tiempo, con una fracción de los datos y una fracción de los costos de energía. De este modo, se "amortizan" efectivamente los costos iniciales de entrenamiento a lo largo de su vida útil con usos diferentes.
También es importante elegir el modelo base de tamaño adecuado. La mayoría de los modelos ofrecen diferentes opciones, con 3 mil millones, 8 mil millones, 20 mil millones o más parámetros. Más grande no siempre es mejor. Un modelo pequeño, entrenado con datos curados de alta calidad, puede ser más eficiente energéticamente y lograr los mismos (o mejores) resultados en función de sus necesidades. La investigación de IBM ha descubierto que algunos modelos entrenados con datos específicos y relevantes pueden funcionar a la par de otros que son de tres a cinco veces más grandes, pero con mayor rapidez y menor consumo de energía. La buena noticia para las empresas es que esto probablemente también signifique menores costos y mejores resultados.
LOCALIZAR SU PROCESAMIENTO DE FORMA REFLEXIVA
A menudo, un enfoque de nube híbrida puede ayudar a las empresas a reducir el consumo de energía al brindarles flexibilidad sobre dónde tiene lugar el procesamiento. Con un enfoque híbrido, puede tener lugar en la nube, en los centros de datos más cercanos a las necesidades. Otras veces, por motivos de seguridad, reglamentarios o de otro tipo, puede tener lugar en las instalaciones, es decir, en servidores físicos propiedad de la empresa.
Un enfoque híbrido puede apoyar la sostenibilidad de dos maneras. En primer lugar, puede ayudarle a ubicar sus datos junto a su procesamiento, lo que puede minimizar la distancia que deben recorrer los datos y, con el tiempo, resultar en ahorros reales de energía. En segundo lugar, esto puede permitirle elegir ubicaciones de procesamiento con acceso a energías renovables. Por ejemplo, dos centros de datos pueden ofrecer un rendimiento similar para sus necesidades, pero uno estar rodeado de energía hidroeléctrica y el otro de carbón.
Por último, es importante utilizar sólo el procesamiento que se necesita. Muchas organizaciones sobreaprovisionan la cantidad de potencia informática disponible para sus necesidades, sin embargo, ya existe software para que puedan hacerlo mejor. En un caso de nuestras propias cargas de trabajo de IA, IBM pudo reducir el exceso de "espacio libre" de reserva del equivalente de 23 a 13 unidades de procesamiento de gráficos (GPU, por sus siglas en inglés), reduciendo significativamente el uso de energía y liberando GPU de alta demanda para otros fines, sin ninguna reducción en el rendimiento.
UTILIZAR LA INFRAESTRUCTURA ADECUADA
Una vez que ha elegido un modelo de IA, aproximadamente el 90% de su vida transcurrirá en modo de inferencia, donde los datos se procesan para hacer una predicción o resolver una tarea. Naturalmente, la mayor parte de la huella de carbono de un modelo también se produce aquí, por lo que las organizaciones deben invertir tiempo y capital en hacer que el procesamiento de datos sea lo más sostenible posible.
La IA se ejecuta de forma más eficiente en procesadores que soportan tipos muy específicos de cálculos. Es bien sabido que la IA funciona mejor en GPU que en unidades centrales de procesamiento (CPU, por sus siglas en inglés), pero ninguna fue originalmente diseñada para la IA. Cada vez vemos más (y nuevos) prototipos de procesadores, diseñados desde cero para ejecutar y entrenar modelos de aprendizaje profundo de manera más rápida y eficiente. En algunos casos, se ha demostrado que estos chips son hasta 14 veces más eficientes desde el punto de vista energético.
El procesamiento energéticamente eficiente es el paso más importante que se puede tomar, ya que reduce la necesidad de refrigeración a base de agua (e incluso de energía renovable adicional), que a menudo conlleva sus propios costos ambientales.
ADOPTAR EL CÓDIGO ABIERTO
Ser abierto significa tener más ojos en el código, más mentes en los problemas y más manos en las soluciones. Ese nivel de colaboración transparente puede tener un gran impacto. Por ejemplo, el proyecto Kepler de código abierto (gratuito y disponible para todos) ayuda a los desarrolladores a estimar el consumo de energía de su código a medida que lo construyen, permitiéndoles desarrollar un código que les permita cumplir sus objetivos sin ignorar las compensaciones energéticas que repercutirán en los costos y las emisiones a largo plazo.
El código abierto también significa aprovechar la "sabiduría de la multitud" para mejorar los modelos de IA existentes, en lugar de depender de nuestras redes de energía para construir nuevos modelos constantemente. Estos modelos permitirán que las organizaciones con recursos limitados persigan la innovación rentable y tranquilicen a las organizaciones escépticas con flexibilidad, seguridad y confiabilidad.
El proyecto de código abierto más grande de la historia (Internet) originalmente se utilizaba para compartir contenido académico. Ahora, sustenta gran parte de nuestra economía y sociedad.
De manera similar, al prever cómo la IA puede contribuir a un futuro mejor, debemos esforzarnos por innovar y, al mismo tiempo, ser conscientes y responsables de las opciones que tenemos y los recursos naturales involucrados.