Pesquisadores dos Estados Unidos alertam para o alto consumo hídrico no resfriamento de data centers
Muita gente pode não se dar conta, mas toda vez que faz uma pergunta para sua plataforma de Inteligência Artificial preferida está consumindo uma certa quantidade de água. O ChatGPT, por exemplo, “bebe” uma garrafinha de meio litro a partir de 10 respostas medianas, dependo do servidor utilizado. A conclusão é de um estudo realizado por pesquisadores da Universidade da Califórnia-Riverside e da Universidade do Texas em Arlington (EUA), divulgada recentemente. Isso porque os data centers usados por essa tecnologia sofrem com o superaquecimento e precisam do líquido potável para seu resfriamento. De acordo com a pesquisa, a demanda global por IA deve ser responsável por 4,2 a 6,6 bilhões de metros cúbicos de captação de água em 2027, o que equivale à captação anual total de água de 4 a 6 milhões de habitantes da Dinamarca.
O estudo realizado pelos pesquisadores Pengfei Li, Jianyi Yang, Mohammad A. Islam e Shaolei Ren alerta para a crescente pegada hídrica da IA e para a necessidade de serem tomadas medidas que mitiguem esse consumo. Os dados são ainda mais relevantes para o Brasil, que pretende estimular a instalação de data centers no país, até com incentivos fiscais, apesar da crescente escassez de água doce até para as plantações e o abastecimento domiciliar.

Por meio da metodologia empregada, os pesquisadores revelaram o que as empresas de tecnologia tentam ocultar. Muito tem sido falado sobre a pegada de carbono desses servidores, devido ao alto consumo de energia, mas a água que se evapora no resfriamento não conta com a divulgação de dados transparentes. O problema tende a se tornar cada vez mais grave, devido ao aumento vertiginoso do uso dessas plataformas. Só o ChatGPT, da OpenAI, que tem uma versão gratuita, chegou a ganhar 1 milhão de novos usuários no intervalo de uma hora com uma campanha de estímulo ao uso de sua ferramenta de geração de imagens de animação, o que provavelmente consumiu 75 mil litros de água.
“É superdivertido ver as pessoas adorando as imagens no ChatGPT, mas nossas GPUs estão derretendo. Esperamos que não demore muito. A versão gratuita do ChatGPT em breve fará três gerações por dia”, admitiu o CEO da OpenAI, Sam Altman, em postagem no X.
GPUs (Graphics Processing Units) são chips eletrônicos especializados que processam gráficos e imagens e por isso muito utilizados pela IAs. Além do ChatGPT, plataformas como Midjurney e a DALL-E, entre outras, estão consumindo muito energia e produzindo calor para a produção de vídeos e animações, muitas vezes para a diversão dos adolescentes. O custo ambiental está se tornando alto.

“Esse processamento consome uma enorme quantidade de energia, e a passagem desta energia pelos condutores e processadores, por exemplo, causa um efeito físico que transforma energia elétrica em calor”, alertou o especialista em IA Fernando Moulin. “Esse calor gerado pelo fenômeno é massivo, e existem máquinas chamadas ‘trocadores de calor’, que utilizam água de resfriamento para abaixar a temperatura dos servidores e, assim, evitar que superaqueçam ou se deteriorem enquanto operam.”, acrescentou.
Além de recomendarem uma maior transparência por parte das plataformas de IA no que tange ao consumo de água, os pesquisadores fazem uma série de recomendações com relação aos aprimoramentos que precisam ser feitos pelas empresas de tecnologia.

Uma das propostas é o agendamento do treinamento e da inferência de IA de maneira inteligente para se reduzir a pegada hídrica. Essa escala pode priorizar horários para essas atividades em que a demanda não esteja tão intensa. Da mesma forma, se forem informados aos usuários os horários de maior eficiência hídrica em tempo real, eles podem também transferir o uso das plataformas para esses períodos do dia.
Uma medida de eficiência aparentemente simples é a de se evitar o superaquecimento dos equipamentos nos horários de ensolação. Os pesquisadores também recomendam a instalação de data centers em locais mais frios como uma mitigação. Tecnolgias alternativas, que reduzam a quantidade de água empregada no processo, estão entre as formas de se reduzir a pegada hídrica.
“A pegada hídrica da IA não pode mais ficar de fora e deve ser tratada como prioridade como parte dos esforços coletivos para combater os desafios globais da água”, concluem os pesquisadores.
O alto consumo de energia elétrica não deixa de ser, por sua vez, uma preocupação. Tanto que as big techs estão em busca de fontes de energia mais limpas para alimentar seus data centers, como a nuclear. Enquanto a Amazon e a Microsoft já fecharam acordos com usinas nucleares nos Estados Unidos, a Google, bem como a Microsoft, estudam o uso de reatores modulares para o suprimento desses equipamentos. Não há dúvidas de que a cobrança de medidas para mitigar os danos ambientais deve aumentar.