Sistemas de IA demandam uma quantidade significativa de energia para operar, mas não existem números precisos, especialmente quando se trata de consultas individuais de chatbots. Para investigar isso, um engenheiro da Hugging Face desenvolveu uma ferramenta que busca esclarecer a questão.
A terminologia usada em torno da infraestrutura de IA, muitas vezes centrada em “nuvem” e outras metáforas relacionadas ao ar, pode encobrir a realidade de que estas tecnologias dependem de computadores ávidos por energia. Para realizar cálculos complexos rapidamente, os sistemas de IA necessitam de chips poderosos, múltiplas GPUs e centros de dados extensos, todos consumidores de energia quando você faz uma pergunta ao ChatGPT. Isso é parte da razão pela qual o acesso gratuito a muitos chatbots possui limites, uma vez que os custos de eletricidade tornam a computação dispendiosa para as empresas que hospedam esses serviços.
Para desmistificar essa questão, o engenheiro da Hugging Face, Julien Delavande, criou uma interface de chat de IA que exibe estimativas de uso de energia em tempo real durante suas conversas. A ferramenta compara a energia usada por diferentes modelos, tarefas e solicitações; por exemplo, um comando que exige raciocínio provavelmente consome mais energia do que uma simples consulta de fatos. Além de Watt-horas e Joules, a ferramenta apresenta o consumo em métricas mais acessíveis, como a porcentagem de uma carga de celular ou o tempo de condução, usando dados da Agência de Proteção Ambiental (EPA).
Ao perguntar ao chatbot da Hugging Face (funcionando com Qwen/Qwen2.5-VL-7B-Instruct) sobre o clima em Nova York, a primeira comparação mostrada foi em relação à carga do celular (minha consulta usou cerca de 9,5%). Ao clicar nessa estimativa, a ferramenta alternou entre outras comparações equivalentes, incluindo o uso de uma lâmpada LED por 45 minutos, 1,21 segundos de uso de micro-ondas e 0,15 segundos de energia de uma torradeira. À medida que você prossegue na conversa, o bot exibe o total de energia utilizada e o tempo da interação na parte inferior da janela de chat.
Embora minha consulta tenha sido bastante simples, dependia de acesso à internet, algo que o bot não possui. Isso pode explicar o tempo de 90 segundos (e o consumo de mais energia do que o esperado) para retornar uma resposta. Mesmo assim, como estimativa, 45 minutos de uso de uma lâmpada LED parece anedoticamente elevado, o que coloca em perspectiva a energia consumida por prompts muito mais complexos e de múltiplas etapas. Apenas as empresas de IA têm conhecimento sobre a real energia gasta por seus sistemas, mas estudos sugerem que, com base nas tendências de demanda, esse consumo só tende a aumentar. Um relatório da Agência Internacional de Energia de 2024 prevê que a demanda global por eletricidade aumentará em 3,4% — uma taxa mais alta do que o habitual — até 2026, impulsionada em parte por uma expansão considerável dos centros de dados. Um relatório do Berkeley Lab também constatou que os centros de dados estão se acelerando, com uma taxa de crescimento esperada entre 13% e 27% entre 2023 e 2028. O lançamento sublinha a distinção entre plataformas de código aberto, como a Hugging Face, e empresas de IA mais opacas.
“Com projetos como o AI Energy Score e pesquisas mais amplas sobre a pegada energética da IA, estamos promovendo a transparência na comunidade de código aberto”, afirmaram os criadores do chat em um comunicado. “Um dia, o consumo de energia pode ser tão visível quanto os rótulos de nutrição nos alimentos!”
Você pode experimentar o chatbot e explorar vários modelos de código aberto, incluindo Google Gemma 3, Llama 3.3 da Meta e Mistral Nemo Instruct. Deseja mais histórias sobre IA? Inscreva-se em nossa newsletter semanal.
Referência: Elyse Betters Picaro / ZDNET
Posts relacionados:



