Na última semana, quando uma onda de calor de início de verão cobriu New Jersey, parecia o momento perfeito para se deparar com uma nova e preocupante previsão da Accenture: as emissões de carbono dos data centers de inteligência artificial estão a caminho de aumentar 11 vezes até 2030.
O relatório estima que, nos próximos cinco anos, os data centers de IA poderão consumir 612 terawatts-hora de eletricidade — aproximadamente o equivalente ao consumo anual total de energia do Canadá — impulsionando um aumento de 3,4% nas emissões globais de carbono.
E a pressão não para na rede elétrica. Em um momento em que os recursos de água doce já estão sob severa pressão, projeta-se que os data centers de IA consumirão mais de 3 bilhões de metros cúbicos de água por ano — um volume que supera as retiradas anuais de água doce de países inteiros como Noruega ou Suécia.
Continua depois da publicidade
Não surpreendentemente, o relatório — Powering Sustainable AI — oferece recomendações para conter o problema e evitar que esses números se tornem realidade. Mas, com manchetes quase diárias sobre as enormes construções de data centers de IA das Big Techs nos EUA e no mundo, não se pode deixar de ser céticos. A urgência da corrida de IA contra a China parece não deixar muito espaço — ou tempo — para pensar seriamente sobre sustentabilidade.
Corrida contra a China
Nesta semana, a OpenAI concordou em alugar uma enorme capacidade de computação dos data centers da Oracle como parte de sua iniciativa Stargate, que pretende investir US$ 500 bilhões nos próximos quatro anos para construir nova infraestrutura de IA para a OpenAI nos Estados Unidos.
A capacidade adicional da Oracle totaliza cerca de 4,5 gigawatts de energia para data centers nos EUA, segundo reportagem da Bloomberg. Um gigawatt equivale à capacidade de um reator nuclear e pode fornecer eletricidade para cerca de 750 mil casas.
Continua depois da publicidade
E foi reportado que a Meta (M1TA34) busca levantar US$ 29 bilhões de firmas de capital privado para construir data centers de IA nos EUA, enquanto já está construindo um centro de US$ 10 bilhões no Nordeste da Louisiana. Como parte desse acordo, a concessionária local, Entergy, fornecerá três novas usinas de energia.
O CEO da Meta, Mark Zuckerberg, deixou claras suas intenções: os EUA devem expandir rapidamente a construção de data centers de IA ou correrão o risco de ficar para trás da China na corrida pela dominância da IA. Falando no podcast Dwarkesh em maio, ele alertou que a vantagem americana em inteligência artificial pode se desgastar a menos que acompanhe a agressiva expansão da capacidade de data centers e hardware em escala fabril da China.
“Os EUA realmente precisam focar em agilizar a construção de data centers e a produção de energia,” disse Zuckerberg. “Caso contrário, estaremos em desvantagem significativa.”
Continua depois da publicidade
O governo dos EUA parece alinhado com esse senso de urgência. David Sacks, atualmente o czar de IA e Cripto da Casa Branca, também destacou que a expansão de energia e data centers é central para a estratégia americana de IA — deixando pouco espaço para preocupações com sustentabilidade.
No podcast All In, em fevereiro, Sacks argumentou que a abordagem “devagar” de Washington para IA poderia sufocar a indústria. Ele enfatizou que os EUA precisam abrir caminho para o desenvolvimento de infraestrutura e energia — incluindo data centers de IA — para acompanhar a China.
No final de maio, ele foi além, dizendo que agilizar licenças e expandir a geração de energia são essenciais para o futuro da IA — algo que ele afirmou ter sido “efetivamente impossível sob a administração Biden.” Sua mensagem: os EUA precisam acelerar a construção.
Continua depois da publicidade
E a responsabilidade ambiental?
Enquanto isso, a Accenture está incentivando seus clientes a crescer e projetar seus data centers de IA de forma responsável, buscando equilibrar crescimento com responsabilidade ambiental.
A empresa oferece uma nova métrica, chamada Sustainable AI Quotient (SAIQ), para medir os verdadeiros custos da IA em termos de dinheiro investido, megawatts-hora de energia consumida, toneladas de CO₂ emitidas e metros cúbicos de água usados.
O relatório diz que a métrica ajudará as organizações a responder a uma pergunta básica: “O que realmente estamos obtendo dos recursos que investimos em IA?” e permitirá que a empresa meça seu desempenho ao longo do tempo.
Matthew Robinson, diretor-gerente da Accenture Research e coautor do relatório, enfatizou esperar que as previsões preocupantes da Accenture estejam erradas. “Elas meio que tiram o fôlego,” disse ele, explicando que a Accenture modelou o consumo futuro de energia a partir do número esperado de chips de IA instalados, ajustado pela utilização e pelos requisitos adicionais de energia dos data centers.
Esses dados foram combinados com informações regionais sobre geração de eletricidade, matriz energética e emissões, enquanto o uso de água foi avaliado com base no consumo de energia dos data centers de IA e na quantidade de água consumida por unidade de eletricidade gerada.
“O ponto realmente é abrir a conversa sobre as ações disponíveis para evitar esse caminho — não queremos estar certos aqui,” disse. Ele não comentou sobre ações específicas de empresas como OpenAI ou Meta, mas afirmou que, no geral, claramente mais esforço é necessário para evitar o aumento da carbonização impulsionada pelos data centers de IA, enquanto ainda permite crescimento.
Otimização faz sentido
As recomendações da Accenture fazem sentido: otimizar a eficiência energética das cargas de trabalho e data centers de IA com tudo, desde opções de energia de baixo carbono até inovações em resfriamento. Usar IA de forma consciente, escolhendo modelos menores de IA e melhores modelos de precificação para incentivar a eficiência. E garantir melhor governança sobre iniciativas de sustentabilidade em IA.
É difícil imaginar que os maiores players na corrida pela dominância da IA — gigantes da Big Tech e startups fortemente financiadas — frearão tempo suficiente para abordar seriamente essas preocupações crescentes. Não que seja impossível. Veja o Google (GOGL34), por exemplo: em seu último relatório de sustentabilidade divulgado esta semana, a empresa revelou que seus data centers estão consumindo mais energia do que nunca. Em 2024, o Google usou aproximadamente 32,1 milhões de megawatts-hora (MWh) de eletricidade, com impressionantes 95,8% — cerca de 30,8 milhões de MWh — consumidos por seus data centers. Isso é mais que o dobro da energia usada pelos data centers em 2020, pouco antes do boom da IA para consumidores.
Ainda assim, o Google enfatizou que está fazendo progressos significativos para limpar sua matriz energética, mesmo com a demanda em alta. A empresa disse que reduziu as emissões de energia dos data centers em 12% em 2024, graças a projetos de energia limpa e melhorias de eficiência. E está extraindo mais de cada watt.
O Google relatou que a quantidade de computação por unidade de eletricidade aumentou cerca de seis vezes nos últimos cinco anos. Sua eficiência no uso de energia (PUE) — uma medida chave da eficiência dos data centers — está agora se aproximando do mínimo teórico de 1,0, com um PUE reportado de 1,09 em 2024.
“Falando pessoalmente, eu seria otimista,” disse Robinson.
Esta matéria foi originalmente publicada no Fortune.com
2025 Fortune Media IP Limited
Fonte: Info Money