Se han utilizado más de 700,000 litros de agua para desarrollar ChatGTP

Se han utilizado más de 700,000 litros de agua para desarrollar ChatGTP

Foto: Gustavo Torres

El programa de las Naciones Unidas para el Medio Ambiente advierte que de no desvincular el crecimiento económico al uso de agua, más de la mitad de la población mundial no tendrá acceso a dicho recurso. Además, estima que la demanda de agua superará la oferta en un 40 por ciento para 2023. Esto implicará inversiones gubernamentales a nivel global, superiores a 2 mil millones de dólares al año.

 

Una de las acciones señaladas por este programa es evaluar la huella hídrica y el impacto de los modelos de desarrollo de tecnología. Una investigación realizada por la Universidad de Colorado y Riverside y la Universidad de Texas Arlington analiza el consumo de energía y la huella hídrica utilizada en inteligencia artificial como ChatGTP.

 

Mediante el uso de fuentes públicas, los investigadores determinaron que los centros de datos de Microsoft en Estados Unidos pueden consumir de manera directa cerca de 700 mil litros de agua potable. La cual equivale a la producción de 370 unidades vehiculares de gasolina o 320 de energía eléctrica. Otra de las compañías abordadas es Google, durante 2021 sus centros de datos en Estados Unidos gastaron 12,700 millones de litros de agua en refrigeración de servidores.

 

Si bien la actividad de los modelos de inteligencia artificial ocurre de manera digital, el almacenamiento físico y el procesamiento de datos genera calor en los servidores. Ante ello, se utilizan sistemas de enfriamiento que consumen una gran cantidad de agua. Además, los sistemas para generar energía eléctrica también hacen uso de este recurso.

 

Dicho estudio señala que una conversación con la plataforma ChatGTP de entre 20 y 50 palabras equivale a consumir 500 ml de agua. Cabe mencionar que este chatbot cuenta con más de 100 millones de usuarios activos, cada uno de los cuales genera múltiples conversaciones al día.

 

Aunado al consumo de recursos, las operaciones relacionadas con IA, afectan la biodiversidad acuática y generan grandes emisiones de CO2. La sostenibilidad de esta industria a largo plazo podría generar presión adicional a la crisis hídrica mundial, señala Pengfei Li, autor de "Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models".

 

Frente este problema, los investigadores de la Universidad de Colorado han sugerido un esquema llamado "diversidad espacio temporal de la eficiencia de uso de agua". En resumen, al programar el entrenamiento y la inferencia del modelo de IA en diferentes lugares y en diferentes momentos, los desarrolladores pueden reducir la huella hídrica de sus modelos de IA para equilibrar la eficiencia de consumo de agua y reducir la emisión de CO2.

Notas Relacionadas