Pular para o conteúdo

Essa inovação chega na hora certa: IA pode consumir bem menos energia.

Jovem sorridente segurando um circuito impresso em escritório com servidores e computadores ao fundo.

Pesquisadores chineses afirmam ter encontrado uma forma de treinar redes neurais potentes reduzindo drasticamente o consumo de energia, combinando um hardware pouco convencional com um método de aprendizagem contraintuitivo: em vez de tentar eliminar imperfeições, o treinamento passa a conviver com elas.

O problema crescente do gasto energético da IA

Por trás de chatbots e geradores de imagens há centros de dados cheios de chips que consomem muita eletricidade. Treinar e operar modelos avançados de inteligência artificial (IA) exige bilhões - às vezes trilhões - de operações. Cada operação custa energia; quando isso se multiplica por milhões de usuários e por ciclos frequentes de atualização, a conta chega a níveis comparáveis aos de países pequenos.

Hoje, a maior parte da IA roda em GPUs e aceleradores especializados. Embora sejam rápidos, esses sistemas desperdiçam energia em um ponto específico: o vai‑e‑vem constante de dados entre memória e processador. Muitas vezes, esse transporte de informações consome mais do que a própria conta matemática.

À medida que governos e empresas estabelecem metas climáticas, a ideia de aumentar cargas de trabalho de IA em várias ordens de grandeza torna-se desconfortável. O setor precisa de meios para tornar o treinamento muito menos intensivo em energia sem sacrificar o desempenho.

Memristores: componentes incomuns que “guardam” informação

Uma rota promissora vem de um tipo diferente de chip, baseado em memristores. Um memristor se comporta como um resistor que “se lembra” da carga elétrica que o atravessou: sua resistência pode ser ajustada e permanece naquele nível, armazenando informação diretamente no próprio dispositivo.

Com isso, em vez de mover dados entre memória e processador, um arranjo de memristores pode manter os pesos de uma rede neural e realizar cálculos no próprio local (no mesmo circuito), aproveitando a física do hardware. Essa ideia é conhecida como computação analógica em memória.

O ganho potencial é claro: reduzir o custo energético associado ao deslocamento de dados - o calcanhar de Aquiles de muitas arquiteturas com GPUs. Só que existe um obstáculo importante.

Na prática, memristores reais são ruidosos e pouco precisos. Seus estados podem derivar ao longo do tempo, e a gravação de um valor nem sempre resulta exatamente no valor desejado. Se você aplicar algoritmos tradicionais, pensados para hardware digital ideal e confiável, essa aleatoriedade pode atrapalhar o treinamento e derrubar a precisão.

EaPU e memristores: transformando defeitos em vantagem no treinamento de redes neurais

Pesquisadores do Zhejiang Lab, na China, em um trabalho publicado na Nature Communications, dizem ter encontrado uma forma de usar essas imperfeições a favor do treinamento. O método recebeu o nome de atualização probabilística ciente de erro (error-aware probabilistic update), abreviado como EaPU.

Em vez de tentar corrigir cada pequeno erro do hardware, a EaPU aceita desvios pequenos e concentra esforço apenas no que realmente muda o aprendizado.

A lógica central é a seguinte: no treinamento convencional, quase todos os parâmetros do modelo recebem algum ajuste a cada passo, mesmo quando o gradiente sugere mudanças mínimas. Em um chip de memristores, isso significaria regravar dispositivos o tempo todo - o que consome energia e acelera o desgaste.

Com a EaPU, o procedimento de aprendizagem:

  • tolera erros pequenos, desde que estejam dentro da faixa de imprecisão do hardware de memristores;
  • pula atualizações quando a mudança estimada é pequena demais para fazer diferença prática;
  • altera menos de 0,1% dos pesos a cada etapa de aprendizado.

Na prática, isso reduz drasticamente o número de gravações nos memristores - e gravações costumam ser muito mais caras em energia do que leituras.

Ao atualizar apenas uma fração minúscula dos pesos por etapa, a EaPU diminui o gasto com gravação sem perder o rumo do aprendizado.

Economia de energia e vida útil do hardware: o que os números sugerem

O grupo do Zhejiang relata resultados expressivos ao comparar o treinamento com EaPU em memristores tanto com outros métodos baseados em memristores quanto com configurações tradicionais usando GPUs.

Métrica Treinamento convencional em memristores Memristores com EaPU Sistema baseado em GPUs
Energia de treinamento (relativa) 1 ~0,02 (≈ 50× menor) ~1.000.000× maior que EaPU (estimativa dos autores)
Vida útil do dispositivo (gravações) Referência ~1.000× maior Não comparável diretamente
Precisão vs. sistema digital ideal Bem inferior Próxima do nível de supercomputadores digitais Nível de referência

Segundo os autores, frente a outras abordagens em memristores, a energia de treinamento cai cerca de 50 vezes. Como os dispositivos são regravados muito menos, a vida útil projetada aumenta em torno de 1.000 vezes.

Além disso, eles reportam uma melhora de aproximadamente 60% na precisão em relação a esquemas anteriores com memristores, aproximando a qualidade do que se obtém em um supercomputador digital tradicional.

Eles também fazem uma comparação mais ousada: ao estimar o consumo total frente a sistemas padrão de treinamento com GPUs, sugerem uma redução de seis ordens de magnitude - algo como um milionésimo da energia para tarefas equivalentes, caso a mesma lógica seja ampliada para sistemas maiores.

Validação prática: remoção de ruído e super-resolução de imagens

Até aqui, não seria apenas um argumento teórico. A equipe validou a EaPU em um arranjo de memristores fabricado em 180 nanômetros - longe do estado da arte atual dos semicondutores, mas suficiente para experimentos de prova de conceito.

Eles treinaram redes neurais em duas tarefas visuais conhecidas e exigentes:

  • remoção de ruído em imagens (limpar fotos com granulação e artefatos);
  • super‑resolução (reconstruir imagens em alta resolução a partir de versões de baixa resolução).

Por serem problemas bem estudados, essas tarefas servem como referência. De acordo com o estudo, o sistema com memristores usando EaPU alcançou desempenho semelhante ao de métodos digitais convencionais, porém com consumo energético muito menor durante o treinamento.

Os testes iniciais indicam que um treinamento analógico tolerante a erros pode competir de igual para igual com abordagens digitais clássicas em tarefas reais de imagem.

Isso escala para modelos de linguagem grandes (LLMs)?

A pergunta inevitável é se essa estratégia pode chegar aos gigantes atuais da IA: os modelos de linguagem grandes (LLMs), que podem ter centenas de bilhões de parâmetros e exigem enorme quantidade de eletricidade em GPUs para serem treinados.

O próprio grupo reconhece limitações: os experimentos foram restritos pelo tamanho e pela maturidade do hardware, usando redes relativamente pequenas e um processo de fabricação mais antigo. Ainda assim, argumentam que os princípios da EaPU devem se estender a modelos bem maiores - inclusive LLMs - quando houver hardware analógico em memória adequado.

Eles também destacam que a EaPU não precisa ficar presa aos memristores. Em tese, o mesmo estilo de treinamento poderia rodar em outras tecnologias emergentes de processamento em memória, como:

  • transistores ferroelétricos;
  • RAM magnetorresistiva (MRAM).

Se isso se confirmar, fabricantes teriam múltiplos caminhos para incorporar esse tipo de treinamento em futuros aceleradores de IA.

Por que aceitar erros pode deixar a IA mais “verde”

A EaPU se apoia em um princípio mais amplo: o treinamento de IA não exige aritmética perfeita em cada passo. Redes neurais costumam tolerar certo nível de ruído e quantização. O que realmente importa é a direção geral do aprendizado - não se cada atualização de peso foi representada com precisão ultra‑fina.

Ao modelar explicitamente erros do hardware e incorporá-los ao algoritmo, os pesquisadores deixam de “brigar” com a natureza analógica dos dispositivos e passam a tirar proveito dela. Isso contrasta com uma parte da indústria, que gasta energia e área de chip para fazer tudo parecer perfeitamente digital.

Um desdobramento natural seria desenhar modelos e rotinas de treinamento já pensando em hardware imperfeito e eficiente, em vez de treinar uma versão digital “ideal” e depois tentar comprimir ou adaptar o modelo para rodar com restrições.

O que pode mudar em centros de dados e em dispositivos do dia a dia

Em um cenário futuro, um centro de dados poderia usar racks de arranjos analógicos de memristores para executar treinamentos com uma fração do custo energético atual. Isso permitiria:

  • treinar mais modelos dentro do mesmo limite de potência;
  • fazer ajustes frequentes e fine-tuning sem contas proibitivas;
  • reduzir a necessidade de refrigeração, já que menos energia vira calor desperdiçado.

Do lado do consumidor, se chips analógicos compactos se tornarem viáveis, celulares, notebooks e dispositivos de casa inteligente poderiam treinar ou adaptar pequenos modelos localmente, sem enviar tudo para a nuvem. Isso tende a diminuir latência e também a pegada de carbono associada ao uso cotidiano de serviços de IA.

Um ponto adicional (pouco discutido) é o impacto na infraestrutura elétrica: reduzir picos de consumo em treinamento pode facilitar a operação de data centers em regiões onde a expansão de subestações e linhas de transmissão é lenta e cara. Nesse contexto, eficiência pode ser tão determinante quanto desempenho bruto.

Conceitos importantes: IA analógica vs. IA digital

A maioria das pessoas só convive com eletrônica digital, em que a informação aparece como 0 e 1. Já a computação analógica representa valores de forma contínua por meio de tensões ou correntes. Isso pode tornar operações como multiplicações de matrizes - centrais em redes neurais - extremamente eficientes quando executadas diretamente no domínio físico.

A contrapartida é previsibilidade e precisão. Temperatura, variações de fabricação e ruído alteram valores. A contribuição da EaPU está em oferecer um arcabouço de treinamento que lida com essas “manias” do analógico sem recorrer a correção de erros pesada, que acabaria elevando novamente o consumo energético.

Também vale lembrar que memristores ainda são uma tecnologia em evolução: o comportamento pode variar entre lotes, e desafios de fabricação permanecem. Porém, se as economias de energia observadas em estudos iniciais se confirmarem em escala, a pressão para amadurecer o processo e transformar isso em produto comercial tende a aumentar.

Outro aspecto prático será o ecossistema de software: para que EaPU e treinamento em memória ganhem tração, será necessário integrar essas rotinas a ferramentas populares de treinamento, compiladores e pipelines de dados, reduzindo a fricção para pesquisadores e empresas que hoje dependem de fluxos padronizados em GPUs.

Riscos, benefícios e expectativas realistas

Há riscos reais. Estimativas de energia feitas em protótipos podem se desfazer ao migrar para sistemas completos. Integrar aceleradores analógicos a centros de dados existentes traz desafios de engenharia e de software. Além disso, requisitos de segurança e confiabilidade em aplicações críticas terão de considerar as peculiaridades do analógico.

Ainda assim, os benefícios potenciais são grandes: emissões associadas à IA podem cair mesmo com aumento de uso; países com redes elétricas mais frágeis poderiam acessar IA avançada sem construir usinas adicionais na mesma proporção; e laboratórios menores ou startups poderiam treinar modelos competitivos com hardware mais barato.

Um cenário realista no curto prazo é que o treinamento analógico ciente de erro, como a EaPU, apareça primeiro em aceleradores especializados voltados a cargas bem definidas: visão computacional, sistemas de recomendação ou modelos de linguagem compactos. Se esses usos mostrarem estabilidade e economia concreta, a pressão para aplicar as mesmas ideias aos maiores modelos que dominam a pesquisa em IA deve crescer.

Nesse sentido, a proposta chega em um momento oportuno: a indústria de IA está encontrando limites físicos e ambientais, e a resposta padrão - mais GPUs e mais energia - parece cada vez menos sustentável. Ensinar redes neurais a aprender bem em hardware ruidoso e frugal pode alterar esse rumo.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário