Clear Sky Science · pt

Comparando consumo de energia e precisão na inferência de classificação de texto

· Voltar ao índice

Por que a IA faminta por energia importa

Nos bastidores de chatbots e ferramentas inteligentes de documentos, os computadores consomem eletricidade de forma discreta. À medida que os grandes modelos de linguagem crescem em tamanho e se tornam mais comuns, seu apetite por energia suscita questões para metas climáticas e orçamentos públicos. Este artigo faz uma pergunta simples, porém crucial: quando usamos IA para ordenar e rotular textos, precisamos mesmo dos maiores modelos, ou ferramentas menores e mais leves conseguem desempenhar a tarefa igualmente bem consumindo bem menos energia?

Organizando reclamações do mundo real

Os autores fundamentam o estudo em uma tarefa concreta da administração pública alemã: processar objeções escritas de cidadãos sobre onde armazenar resíduos radioativos de alto nível. Centenas de pequenas declarações precisavam ser agrupadas em categorias como problemas de dados ou exigências do local, para que pudessem ser encaminhadas aos especialistas corretos. Esse é um problema clássico de classificação de texto que governos, empresas e ONGs enfrentam sempre que triagem e‑mails, chamados de suporte ou comentários públicos.

Para investigar isso, os pesquisadores usaram um conjunto de dados público limpo com 378 submissões rotuladas. Dividiram‑no em metades iguais para treinamento e teste e repetiram cada experimento dez vezes com divisões aleatórias diferentes para evitar resultados fortuitos. Em seguida, compararam modelos tradicionais de aprendizado de máquina — como regressão logística e gradient boosting alimentados por características textuais simples — com uma ampla gama de modelos modernos de grande porte, incluindo modelos recentes de código aberto das famílias Llama, Qwen, Phi, Jamba e DeepSeek. Todos os grandes modelos de linguagem foram usados “prontos para uso” em modo zero‑shot: receberam instruções da tarefa e o texto, mas sem treinamento adicional nas categorias específicas.

Figure 1
Figure 1.

Medindo eletricidade, não apenas respostas corretas

A maioria dos artigos de IA destaca a precisão e pouco mais. Aqui, os autores medem não só com que frequência cada modelo clas­sifica o texto corretamente, mas também quanta energia consome ao fazê‑lo e quanto tempo leva. Eles executam os experimentos em três clusters de alto desempenho equipados com gerações diferentes de GPUs NVIDIA. Usando a ferramenta CodeCarbon, estimam a potência consumida por processadores, placas gráficas e memória durante a fase de inferência — o momento em que os modelos são efetivamente usados para fazer previsões. Focam em condições de “warm start” que refletem implantações reais, nas quais um modelo permanece carregado na memória e processa muitos documentos em sequência.

Essa configuração permite investigar várias questões práticas: modelos grandes são sempre mais precisos? Mais GPUs economizam tempo sem poupar energia? Quanto importa a escolha do hardware? E o tempo de execução simples — o tempo de relógio que um modelo leva — pode servir como um proxy razoável para seu consumo de energia quando medições diretas não estão disponíveis?

Modelos menores, contas menores

A conclusão central é marcante: para o conjunto de dados sobre resíduos radioativos, um modelo linear tradicional construído sobre embeddings de sentença pré‑computados foi tanto o mais preciso quanto muito mais eficiente em energia do que qualquer um dos grandes modelos testados. Mesmo os modelos tradicionais mais simples superaram vários grandes modelos consumindo quantidades mínimas de energia. Em contraste, alguns dos maiores modelos, especialmente aqueles com etapas internas adicionais de “raciocínio”, consomem centenas a milhares de vezes mais eletricidade sem oferecer melhores resultados.

Ao analisar diferentes configurações de hardware, a GPU domina o consumo de energia sempre que modelos grandes estão envolvidos. Adicionar mais GPUs acelera a inferência, mas geralmente não reduz a energia total, e espalhar um modelo por múltiplos nós de computador na verdade piora a situação devido à sobrecarga de comunicação. Quando os autores examinam múltiplos conjuntos de dados além do caso de resíduos nucleares — temas de notícias, avaliações de clientes, sentimento de filmes e emoções — encontram um quadro mais nuançado: em algumas tarefas, modelos grandes alcançam precisão notavelmente maior, porém essa melhoria frequentemente tem custos energéticos elevados. Em todo cenário, o uso de energia escala quase linearmente com o tempo de execução, o que significa que quanto tempo um modelo leva é um bom substituto para estimar quanta energia ele consome em uma máquina dada.

Figure 2
Figure 2.

Rumo a escolhas de IA conscientes do clima

Além dos números, o artigo argumenta que a IA sustentável deve ser avaliada por pelo menos dois eixos distintos: quão bem executa uma tarefa e quantos recursos consome. Maior nem sempre é melhor, e confiar por padrão em modelos massivos de uso geral para classificações rotineiras arrisca emissões desnecessárias, custos operacionais mais altos e tempos de processamento maiores. Os autores recomendam que organizações comecem com modelos transparentes e leves como linhas de base, migrem para modelos de linguagem maiores apenas quando estes comprovarem melhora na precisão e sempre ponderem esse ganho frente às demandas de energia e hardware.

O que isso significa para sistemas do dia a dia

Para leitores leigos, a mensagem é clara: quando um sistema de IA etiqueta seu e‑mail, encaminha sua reclamação ou classifica um documento, um modelo pequeno e bem escolhido pode atendê‑lo tão bem quanto um gigante — além de ser mais barato, mais rápido e mais amigável ao planeta. Ao mostrar que o consumo de energia pode variar em seis ordens de magnitude para precisão similar, e que medições simples de tempo podem aproximar necessidades de energia, este estudo oferece um conjunto prático de ferramentas para decisões de IA mais conscientes em relação ao clima, no governo e além.

Citação: Zschache, J., Hartwig, T. Comparing energy consumption and accuracy in text classification inference. Sci Rep 16, 12717 (2026). https://doi.org/10.1038/s41598-026-45023-0

Palavras-chave: IA energeticamente eficiente, classificação de texto, modelos de linguagem grandes, computação sustentável, dados da administração pública