À medida que os centros de dados esquentam e as redes elétricas dão sinais de saturação, uma mudança discreta começa a ganhar força em laboratórios de pesquisa na China.
Em vez de apostar apenas em transistores cada vez menores, engenheiros estão recuperando uma tecnologia analógica que ficou famosa nos anos 1970 - agora modernizada com lasers, fotônica e chips avançados - e defendendo essa abordagem como um caminho concreto para reduzir, de forma agressiva, o gasto energético da computação.
Por que a China está apostando em tecnologia analógica de baixa energia
A fome chinesa por poder computacional cresce em ritmo acelerado. Treinamento de IA, mineração de criptoativos, transmissão de vídeo, serviços em nuvem e aplicações corporativas exigem fazendas de servidores gigantescas - e essas instalações já consomem volumes impressionantes de eletricidade e água para refrigeração.
A eletrônica digital, baseada em transistores que alternam entre 0 e 1, vem sendo otimizada há décadas. Os chips ficam menores e mais rápidos ano após ano, mas o avanço em eficiência energética perdeu fôlego. Ao mesmo tempo, os modelos de IA aumentam de tamanho e o tráfego de dados continua subindo.
Pesquisadores na China estão voltando a olhar para a computação analógica, uma abordagem mais antiga que, em certas tarefas, pode gastar até 200 vezes menos energia do que chips digitais convencionais.
Essa “ressurreição” não se trata de um equipamento nostálgico. É um modo de processar informações com sinais elétricos ou ópticos contínuos, em vez de bits discretos. A ideia tem mais de meio século: computadores analógicos eram usados para resolver equações em engenharia e no setor aeroespacial.
Com a popularização de microprocessadores digitais baratos, essas máquinas perderam espaço. Agora, princípios semelhantes voltam ao centro do debate, impulsionados por hardware moderno e por necessidades típicas da era da IA.
O que é, de fato, essa tecnologia de 50 anos
A computação analógica não funciona como o notebook sobre a mesa. Em vez de transformar números em longas sequências binárias, ela representa valores como tensão, corrente ou intensidade luminosa. As operações matemáticas acontecem “por natureza”, guiadas pela física dos componentes.
Nos anos 1970, isso significava armários com amplificadores operacionais, capacitores e resistores. Hoje, equipes chinesas testam versões muito mais compactas e sofisticadas, como:
- Aceleradores analógicos de IA baseados em matrizes de células de memória
- Chips ópticos/fotônicos que usam luz no lugar de elétrons
- Processadores de sinal misto (analógico + digital) com blocos combinados no mesmo sistema
A essência não mudou: em vez de executar bilhões de operações digitais extremamente precisas, faz-se uma conta aproximada em um único passo físico. Para aprendizado de máquina - que costuma tolerar pequenos erros - isso pode representar uma vantagem enorme.
Ao permitir cálculos “bons o suficiente” diretamente no hardware, chips analógicos reduzem drasticamente tanto o número de operações quanto a energia necessária por operação.
De amplificadores operacionais a aceleradores de IA
Historicamente, computadores analógicos resolviam equações diferenciais em tempo real para controle de aeronaves, guiagem de mísseis e simulações nucleares. O método era direto: o circuito era montado de modo a espelhar, fisicamente, as equações que se queria resolver.
As versões atuais - na China e em outros países - exploram matrizes de memória, como memória RAM resistiva, em que a condutância de cada célula representa um número. Assim, multiplicações de matrizes (o “trabalho pesado” das redes neurais) podem ocorrer por meio de simples fluxos de corrente e da lei de Ohm.
Em vez de percorrer cada multiplicação no domínio digital, o circuito executa a operação matricial praticamente “de uma vez”. É aí que economias de energia acima de 100× se tornam plausíveis em certos tipos de carga de trabalho de IA.
Por que “200 vezes menos energia” importa agora
O problema energético da IA é concreto. Treinar um único modelo de ponta pode consumir tanta eletricidade quanto uma cidade pequena usa ao longo de um ano. E até tarefas cotidianas - recomendações de vídeo, assistentes de voz, triagem de conteúdo - dependem de grandes clusters de servidores.
Países como China, Estados Unidos e membros da União Europeia já demonstram preocupação com centros de dados pressionando metas climáticas e sobrecarregando redes locais. Chips de IA famintos por energia agravam esse atrito.
| Tecnologia | Uso típico de energia por operação de IA | Principal contrapartida |
|---|---|---|
| GPU digital convencional | Alto | Alta precisão, ecossistema maduro |
| Chip digital de IA com baixa precisão | Médio | Menor precisão, ainda amigável ao software |
| Acelerador analógico/de sinal misto | Muito baixo (até 200× menos) | Mais ruído, programação e calibração mais difíceis |
A China, com uma base industrial extensa e uma política industrial centralizada, quer atacar esse gargalo cedo. Além disso, computação eficiente em energia combina com compromissos públicos de clima e com a ambição de reduzir dependência de tecnologias estrangeiras de semicondutores.
Como laboratórios chineses estão modernizando a computação analógica (e por que isso favorece a IA)
Várias linhas de pesquisa convergem nessa estratégia.
Chips ópticos e fotônicos para IA
Uma frente de alto destaque é a computação fotônica, na qual a informação viaja como luz por guias de onda e interferômetros dentro do chip. A luz pode executar operações de álgebra linear com enorme velocidade e baixas perdas energéticas.
Universidades e startups chinesas buscam aceleradores ópticos capazes de assumir partes da inferência de redes neurais. A visão é inserir esses módulos em centros de dados para descarregar tarefas intensivas, como motores de recomendação e classificação de imagens.
Computação analógica em memória (in-memory)
Outra frente se concentra em computação em memória. Em sistemas digitais tradicionais, dados ficam indo e voltando entre memória e processador, desperdiçando tempo e energia. Em arquiteturas analógicas em memória, a própria matriz de memória realiza parte do cálculo.
Projetos chineses usam memória RAM resistiva e memória de mudança de fase para armazenar pesos de redes neurais como valores de condutância. Ao aplicar uma tensão, a corrente resultante carrega, por si só, a multiplicação e a soma necessárias para cada neurônio.
Ao juntar armazenamento e cálculo nos mesmos dispositivos microscópicos, chips analógicos em memória reduzem a movimentação de dados - uma das maiores fontes de gasto energético no hardware de IA.
Um ponto extra que está ganhando peso: padronização e integração industrial
Além de provar desempenho em laboratório, há um desafio prático: integrar aceleradores analógicos em cadeias de produção e em fluxos de projeto existentes. Isso inclui padronizar interfaces, métodos de teste e critérios de confiabilidade para que centros de dados e fabricantes consigam adotar a tecnologia em escala.
Também cresce a importância de ferramentas de projeto (EDA) e bibliotecas de modelos voltadas ao comportamento analógico, para reduzir o custo de desenvolvimento e acelerar a transição do protótipo para o produto.
Os obstáculos: ruído, precisão e software
Sistemas analógicos não são uma solução mágica - e trazem desafios de engenharia significativos:
- Ruído: pequenas variações de temperatura ou de fabricação podem distorcer sinais analógicos
- Precisão limitada: obter mais do que alguns bits de precisão confiável em circuito analógico é difícil
- Calibração: cada chip pode exigir ajustes específicos para atingir metas de desempenho
- Programação: desenvolvedores estão habituados a abstrações digitais, não à física de valores contínuos
Equipes chinesas tentam contornar esses pontos com esquemas de correção de erros, designs híbridos (digital + analógico) e modelos de IA adaptados para operar em hardware ruidoso. A proposta não é eliminar chips digitais, e sim combiná-los com blocos analógicos onde isso fizer sentido.
Onde você provavelmente verá essa tecnologia primeiro
A primeira onda comercial tende a aparecer em ambientes controlados, antes de chegar a dispositivos de consumo.
Centros de dados e redes de telecomunicações
Provedores de nuvem podem instalar aceleradores analógicos como placas especializadas em racks de servidores. Esses módulos mirariam tarefas que aceitam aproximações, como ranqueamento de resultados de busca ou filtragem de spam.
Operadoras de telecomunicações - inclusive fornecedores chineses de redes 5G - também avaliam processamento analógico para reduzir consumo em estações rádio-base. Como esses sistemas já dependem de componentes analógicos para sinais de rádio, adicionar processamento analógico de IA é uma extensão natural.
Dispositivos de borda e sensores
Mais adiante, chips analógicos de ultra baixo consumo podem aparecer em câmeras, drones e sensores industriais. Rodar IA localmente, sem depender o tempo todo da nuvem, aumenta a autonomia de bateria e reduz custo de transmissão de dados.
Pense em câmeras inteligentes que reconhecem objetos ou identificam riscos de segurança diretamente no dispositivo, usando milissegundos e miliwatts - em vez de segundos e watts.
Um cuidado adicional: confiança, auditoria e segurança
Conforme blocos analógicos entrarem em decisões sensíveis (saúde, crédito, indústria), será necessário reforçar auditoria e rastreabilidade. Em sistemas aproximados, deriva e vieses de hardware podem alterar resultados de maneira sutil, exigindo monitoramento contínuo, rotinas de recalibração e testes de robustez ao longo do ciclo de vida.
Por que um conceito de 50 anos combina com um futuro movido a IA
O retorno do analógico faz parte de um movimento maior: usar a física de modo mais direto para computar, em vez de forçar tudo pela lógica digital tradicional. Computação quântica, chips neuromórficos e processadores fotônicos ocupam posições diferentes nesse mesmo espectro.
A iniciativa chinesa indica que a “caixa de ferramentas” analógica ainda pode render muito quando combinada com fabricação moderna e algoritmos de IA. Em vez de lutar contra a imperfeição dos sinais analógicos, pesquisadores aprendem a explorá-la.
Para quem pensa em uns e zeros, uma boa forma de entender é: a computação analógica troca parte da exatidão por ganhos enormes de eficiência. Muitas tarefas de IA não exigem quinze casas decimais; exigem reconhecimento de padrões rápido e econômico, que acerta na maior parte do tempo.
Esse equilíbrio traz riscos e benefícios. De um lado, viés ou deriva de hardware pode afetar decisões, de análise médica a concessão de crédito. De outro, reduzir o consumo em 100× ou mais em cargas comuns diminuiria a pegada de carbono de serviços digitais e liberaria capacidade da rede elétrica para outras necessidades.
À medida que laboratórios chineses avançam nessa fronteira híbrida analógico-digital, a conversa sobre IA verde e geopolítica de chips tende a mudar. O próximo salto de eficiência pode vir menos de transistores menores - e mais de revisitar uma ideia anterior ao próprio boom dos microprocessadores.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário