Pular para o conteúdo

Nova tecnologia chinesa de IA promete reduzir drasticamente o consumo de energia.

Mulher segura chip azul com símbolo de IA em laboratório com gráficos e equipamentos tecnológicos ao redor.

Modelos de linguagem gigantes, geradores de imagem e assistentes “inteligentes” viraram parte do dia a dia - mas a conta de luz por trás disso também cresceu. O boom da IA tem exigido uma infraestrutura pesada, e o consumo energético de data centers virou um gargalo real.

Um grupo de pesquisa na China agora propõe uma saída bem direta: mudar onde a conta é paga. Em vez de tentar tornar GPUs ainda mais eficientes, a ideia é repensar a base do treinamento de redes neurais para cortar o gasto de energia de forma drástica - sem sacrificar a precisão.

A onda atual de IA tem uma sombra: data centers esquentam, e os medidores de energia também. Especialmente no treinamento de modelos grandes, consumo e custos sobem a níveis difíceis de sustentar. Pesquisadores na China apresentam agora um método que pode reduzir radicalmente a demanda energética de redes neurais - mantendo a acurácia.

Por que a IA moderna consome tanta energia

Seja ChatGPT, geradores de imagens ou sistemas de assistência em carros: nos bastidores, enormes clusters de computação rodam em chips especializados. O treinamento de redes neurais profundas exige milhões a bilhões de operações de matriz repetidas. Para isso, a maioria dos operadores usa GPUs, ou seja, processadores gráficos.

Essa arquitetura tem dois grandes vilões do consumo:

  • a própria computação nos processadores e GPUs
  • a cópia constante de dados entre memória e unidades de processamento

É justamente nesse segundo ponto que a nova abordagem mexe: calcular direto na memória, com uma base de hardware totalmente diferente.

Memristores: componentes que “se lembram”

A palavra-chave aqui é memristor. Em termos simples, é um resistor com memória. Sua resistência elétrica depende de como o componente foi “programado” antes - e esse estado fica preservado.

Isso torna memristores especialmente adequados para representar fisicamente os pesos de uma rede neural. A lógica é: em vez de manter números em uma memória tradicional e ficar enviando tudo para os processadores, os cálculos acontecem no mesmo lugar onde os pesos estão armazenados. Na teoria, isso economiza uma quantidade enorme de energia.

Na prática, porém, existe um obstáculo: memristores não são perfeitos. Eles geram ruído, variam e não respondem com exatidão total. E erros pequenos já podem bagunçar modelos de IA.

O grande desafio é conviver com a imprecisão do hardware - em vez de tentar eliminá-la com correções extremamente caras.

Nova técnica de treino: em vez de combater erros, incorporar

É aqui que entra a técnica apresentada pelo time do laboratório chinês em Zhejiang. Ela se chama “error-aware probabilistic update”, ou EaPU. Por trás do nome há uma ideia bem intuitiva: erros pequenos podem ser aceitáveis - desde que fiquem dentro de uma faixa de tolerância.

Como o EaPU funciona na prática

No treinamento tradicional, a rede neural ajusta uma grande parte dos pesos a cada passo. Em hardware com memristores, isso seria extremamente caro em energia, porque reescrever esses componentes consome muita corrente.

O EaPU inverte a lógica:

  • O sistema aceita pequenas diferenças, desde que estejam abaixo de um limiar definido.
  • Só quando uma mudança é realmente relevante, o peso correspondente é reescrito no memristor.
  • Em cada rodada de aprendizado, a rede atualiza menos de 0,1% de todos os parâmetros.

Com isso, o maior custo energético do treinamento praticamente desaparece: a reescrita constante de inúmeras células de memória.

Consumo de energia cai muito, e o hardware dura bem mais

Os pesquisadores relatam vários efeitos fortes, em comparação com métodos anteriores baseados em memristores:

  • Até 50 vezes menos consumo de energia no treinamento em hardware de memristores.
  • Até 1.000 vezes mais vida útil, porque os componentes são regravados com muito menos frequência.
  • Cerca de 60% mais precisão em relação a técnicas mais antigas de treinamento em memristores.

Mais interessante ainda é a comparação com hardware clássico de GPU. Segundo o grupo, para a mesma tarefa o EaPU atinge um consumo energético cerca de seis ordens de grandeza menor - em termos simples: algo como um milhão de vezes menos energia do que um setup comparável com GPUs.

Um consumo que caia em relação a sistemas com GPU por um fator de 10^6 mudaria de forma fundamental a operação dos modelos de IA atuais.

Primeiros testes: remover ruído e melhorar resolução

O time já testou o EaPU na prática, usando uma matriz de memristores com largura de estrutura de 180 nanômetros. Eles treinaram redes neurais em duas tarefas típicas de processamento de imagens:

  • Remover ruído de imagens
  • Aumentar a resolução de imagens artificialmente (super-resolution)
  • Os resultados ficaram em um nível parecido ao de métodos estabelecidos em hardware tradicional - só que com um gasto de energia bem menor. Isso sugere que a ideia não funciona apenas “no papel”, mas também em aplicações reais.

    Modelos de linguagem grandes também podem se beneficiar?

    No momento, a própria disponibilidade de hardware limita os experimentos. Os chips de memristores usados até aqui são relativamente pequenos. Ainda assim, a equipe acredita que a abordagem pode, em princípio, servir também para grandes modelos de linguagem (Large Language Models, LLMs).

    Se isso se confirmar, o impacto em sistemas como chatbots, assistentes de programação e ferramentas de análise pode ser direto, já que hoje eles exigem recursos gigantescos de computação. Os pesquisadores planejam testar o EaPU no futuro com redes bem maiores.

    Outro ponto relevante: o método não é exclusivo de memristores. A expectativa dos autores é que ele também possa ser adaptado a outros tipos novos de memória, como:

    • transistores ferroelétricos
    • RAM magnetorresistiva (MRAM)

    Isso abre um leque maior de opções de hardware para IA com menor consumo.

    O que isso pode significar para data centers e o dia a dia

    Se a abordagem conseguir escalar, data centers focados em IA podem ficar bem diferentes do padrão atual. Em vez de galpões cheios de GPUs, seria possível pensar em chips analógicos compactos que unem memória e computação no mesmo lugar. Isso não só reduz a conta de energia, como também diminui a necessidade de refrigeração e a pegada de CO₂.

    Consequências práticas podem incluir:

    • ciclos de treinamento muito mais baratos para empresas
    • chips de IA menores e especializados para celulares, carros e aplicações industriais
    • mais processamento direto na borda da rede (edge), sem enviar dados o tempo todo para a nuvem

    No cotidiano, isso pode levar funções inteligentes a cenários onde hoje o gasto energético é um impeditivo - como sensores a bateria, wearables ou robôs autônomos.

    Contexto: o que significam esses termos

    Para quem não vive o tema de hardware, alguns conceitos podem soar técnicos demais. Dois deles são centrais aqui:

    • Computação analógica in-memory: operações são feitas dentro do próprio bloco de memória, com correntes e tensões analógicas em vez de apenas zeros e uns digitais.
    • Tolerância a ruído (noise-tolerance): o modelo é treinado para lidar com sinais imprecisos ou ruidosos sem que as previsões fiquem instáveis.

    O ponto interessante é que redes neurais já têm, por natureza, certa robustez a perturbações. O EaPU aproveita essa margem de forma consistente, em vez de insistir em uma exatidão matemática máxima que muitas vezes nem é necessária na prática.

    Riscos, dúvidas e o que vem pela frente

    Como toda tecnologia nova, ainda existem questões em aberto. Por exemplo, não está claro como o método se comporta em modelos extremamente grandes, com bilhões de parâmetros. E os custos reais para fabricar chips de memristores confiáveis em escala industrial ainda não são previsíveis.

    Também há riscos em aplicações críticas, como medicina ou direção autônoma. Nesses casos, é essencial avaliar com cuidado o quanto de imprecisão do hardware, combinada com o EaPU, pode ser tolerado sem ultrapassar limites de segurança.

    Mesmo com essas interrogações, o trabalho manda um recado claro: a tendência de aumentar indefinidamente o tamanho dos modelos não precisa terminar em um beco sem saída energético. Ao pensar hardware e método de treinamento juntos, dá para reduzir de maneira significativa o “apetite” por eletricidade das próximas gerações de IA - talvez, no futuro, a ponto de um modelo potente caber em um único chip eficiente e econômico.

    Comentários

    Ainda não há comentários. Seja o primeiro!

    Deixar um comentário