As Large Language Models (LLMs), como o ChatGPT, revolucionaram a interação humano-máquina, oferecendo respostas rápidas e precisas a uma variedade de perguntas. No entanto, por trás dessa eficiência, existe um custo ambiental significativo, especialmente no que diz respeito ao consumo de água.
O treinamento e a operação de LLMs exigem vastos recursos computacionais, que, por sua vez, geram calor. Para evitar o superaquecimento dos servidores, sistemas de resfriamento são empregados, muitos dos quais utilizam grandes quantidades de água.
Estudos recentes revelaram números alarmantes:
- Treinamento do GPT-3: Pesquisadores estimam que o treinamento do modelo GPT-3 consumiu cerca de 700 mil litros de água, quantidade suficiente para encher a torre de resfriamento de um reator nuclear (www.folhape.com.br).
- Interação com o ChatGPT: Durante uma conversa de 20 a 50 perguntas com o ChatGPT, estima-se que sejam consumidos aproximadamente 500 mililitros de água. Embora pareça pouco, considerando os bilhões de usuários, o impacto acumulado é significativo. (www.ecycle.com.br)
A demanda global por IA é projetada para representar entre 4,2 e 6,6 bilhões de metros cúbicos de retirada de água em 2027, o que supera o consumo anual total de países como a Dinamarca (arxiv.org).
Empresas líderes em tecnologia, como Microsoft e Google, relataram aumentos significativos no consumo de água devido à expansão de suas operações de IA. Em 2022, a Microsoft aumentou seu consumo de água em 34%, enquanto o Google registrou um aumento de 22% (www1.folha.uol.com.br).
O alto consumo de água pelas LLMs levanta preocupações ambientais, especialmente em regiões onde a escassez hídrica já é uma realidade. Além disso, a competição por recursos hídricos entre data centers e comunidades locais pode gerar tensões sociais.
Conteúdo gerado quase totalmente com IA!