
image by roroza, from freepik
Os Centros de Dados de IA Estão Aumentando o Uso de Energia, Mas a Transparência é Escassa
A IA está aumentando rapidamente as demandas de energia, mas a verdadeira escala permanece incerta devido à falta de transparência das empresas de tecnologia.
Com pressa? Aqui estão os fatos rápidos!
- Os centros de dados de IA consomem tanta energia quanto dezenas de milhares de casas.
- Na Irlanda, os centros de dados usam mais de 20% da eletricidade nacional.
- O treinamento de modelos de IA é intensivo em energia, mas responder às consultas dos usuários consome ainda mais.
Uma recente análise da Nature destaca as crescentes, mas em grande parte opacas, demandas de energia da IA. A Nature relata como em Culpeper County, na Virgínia, grandes centros de dados estão transformando as paisagens rurais. Esses centros, essenciais para a execução de modelos de IA generativos como o ChatGPT, requerem enormes quantidades de eletricidade.
Cada instalação pode consumir tanta energia quanto dezenas de milhares de residências, potencialmente aumentando os custos e sobrecarregando as redes locais. Virgínia, já a capital mundial dos data centers, poderá ver sua demanda por eletricidade dobrar na próxima década.
A Nature observa que o problema se estende além da Virgínia. Os data centers alimentados por IA estão concentrados em clusters ao redor do mundo, impactando significativamente as redes de energia locais. Ao contrário de siderúrgicas ou minas de carvão, os data centers são construídos próximos uns dos outros para compartilhar recursos e otimizar a eficiência.
Na Irlanda, eles representam mais de 20% do consumo nacional de eletricidade e, em cinco estados dos EUA, ultrapassam 10%.
Apesar do crescente consumo de energia da IA, os dados sobre seu uso de energia são escassos. A Nature relata que os pesquisadores lutam para obter números precisos das empresas, forçando-os a estimar usando métodos indiretos. Uma abordagem é a análise da cadeia de suprimentos.
Em 2023, o pesquisador Alex de Vries calculou que, se o Google integrasse a IA gerativa em todas as pesquisas, seria necessário até 500.000 servidores NVIDIA A100, consumindo 23-29 terawatts-hora (TWh) anualmente – até 30 vezes mais energia do que uma pesquisa padrão, conforme relatado pela Nature.
Outro método envolve medir o uso de energia de tarefas individuais de IA. Os pesquisadores usam ferramentas como o CodeCarbon para estimar o consumo de imagens ou textos gerados por IA.
Esses estudos sugerem que a geração de uma imagem consome cerca de 0.5 watt-hora (Wh), enquanto a criação de texto requer um pouco menos. No entanto, essas estimativas são conservadoras, pois não levam em conta o resfriamento ou chips proprietários como os TPUs do Google, conforme relatado pela Nature.
Treinar modelos de IA também é intensivo em energia, mas a energia gasta para responder a bilhões de consultas de usuários é ainda maior. Treinar um modelo como o GPT-3 requer cerca de um gigawatt-hora, enquanto as consultas diárias de IA consomem terawatt-horas anualmente, diz a Nature.
Com o aumento da concorrência, as empresas se tornaram mais secretas sobre as demandas energéticas da IA. Algumas, como Google e Microsoft, reconhecem o aumento das emissões de carbono devido à expansão dos centros de dados, mas não fornecem dados específicos, conforme observado pela Nature.
Apesar do impacto local da IA, sua pegada energética global ainda é relativamente pequena, argumenta a Nature. A Agência Internacional de Energia estimou que os centros de dados utilizaram entre 240-340 TWh em 2022, cerca de 1-1,3% da eletricidade global.
No entanto, à medida que a adoção de IA aumenta, a demanda pode disparar. Sem uma melhor compartilhação de dados, os formuladores de políticas podem ter dificuldades para gerenciar as consequências ambientais do futuro energético intensivo da IA.
Deixe um comentário
Cancelar