À medida que os centros de dados ficam mais quentes e as redes elétricas passam a operar no limite, uma mudança discreta começa a ganhar força em laboratórios de pesquisa na China.
Engenheiros estão recuperando uma tecnologia analógica que teve auge nos anos 1970, mas agora repaginada com lasers, novos materiais e circuitos integrados. A promessa é ambiciosa: reduzir de forma drástica a pegada energética da computação - justamente quando a demanda por processamento dispara.
Por que a China aposta em tecnologia analógica de baixo consumo de energia
O apetite chinês por capacidade de computação cresce rapidamente. Treinamento de IA, mineração de criptoativos, vídeo sob demanda e serviços de computação em nuvem exigem enormes fazendas de servidores. Essas instalações já consomem volumes impressionantes de eletricidade e água, sobretudo para refrigeração.
A eletrônica digital - baseada em transistores que alternam entre 0 e 1 - foi otimizada por décadas. A cada ano, os chips ficaram menores e mais rápidos, mas o ritmo de melhoria na eficiência energética vem desacelerando. Ao mesmo tempo, os modelos de IA aumentam de tamanho e o tráfego de dados continua em alta.
Pesquisadores na China estão voltando a olhar para a computação analógica, um caminho mais antigo que, em determinadas tarefas, pode consumir até 200 vezes menos energia do que chips digitais convencionais.
Essa tecnologia “ressuscitada” não é uma curiosidade de museu. Trata-se de processar informação com sinais elétricos ou ópticos contínuos, em vez de bits discretos. A ideia tem mais de meio século: computadores analógicos do passado resolviam equações para engenharia e setor aeroespacial.
Essas máquinas perderam espaço quando microprocessadores digitais baratos dominaram o mercado. Agora, princípios semelhantes retornam, só que com hardware moderno e necessidades moldadas pela IA.
O que é, na prática, essa tecnologia com 50 anos
A computação analógica não funciona como o computador tradicional na sua mesa. Em vez de representar números como longas sequências binárias, ela expressa valores como tensões, correntes ou intensidades de luz. As operações matemáticas “acontecem” pela própria física dos componentes.
Nos anos 1970, isso significava painéis e racks cheios de amplificadores operacionais, capacitores e resistores. Hoje, equipes chinesas testam abordagens como:
- Aceleradores analógicos de IA baseados em matrizes de células de memória
- Chips ópticos/fotônicos, que usam luz em vez de elétrons
- Processadores de sinais mistos, combinando blocos analógicos e digitais no mesmo sistema
A lógica central permanece: em vez de executar bilhões de operações digitais exatas, realizar operações aproximadas em um único passo físico. Para aprendizado de máquina - que costuma tolerar pequenos erros - isso pode trazer ganhos enormes.
Ao permitir cálculos “bons o suficiente” diretamente no hardware, chips analógicos reduzem drasticamente a quantidade de operações e a energia exigida por cada uma.
De amplificadores operacionais a aceleradores de IA
Historicamente, computadores analógicos eram usados para resolver equações diferenciais em tempo real: controle de aeronaves, guiagem de mísseis e simulações nucleares. O método era quase artesanal: engenheiros montavam circuitos que espelhavam fisicamente as equações que queriam resolver.
Versões modernas, na China e em outros países, usam matrizes de células de memória, como memória RAM resistiva (RRAM), nas quais a condutância de cada célula representa um número. Assim, multiplicações de matrizes - o “trabalho pesado” de redes neurais - podem ocorrer por simples fluxos de corrente, guiados pela lei de Ohm.
Em vez de iterar multiplicação por multiplicação no domínio digital, o circuito executa a operação matricial inteira de uma vez. É aí que a ideia de economias de energia na casa de 100 vezes (ou mais) se torna plausível para certas cargas de trabalho de IA.
Por que “200 vezes menos energia” importa neste momento
O desafio energético da IA não é teórico. Treinar um único modelo de ponta pode consumir tanta eletricidade quanto uma cidade pequena usa em um ano. E mesmo tarefas cotidianas - recomendações de vídeo, assistentes de voz, triagem de conteúdo - dependem de enormes clusters de servidores.
Países como China, Estados Unidos e membros da União Europeia já começam a se preocupar com o choque entre a expansão de centros de dados e metas climáticas, além do estresse sobre redes elétricas locais. Chips de IA que exigem muita energia agravam esse atrito.
| Tecnologia | Uso típico de energia por operação de IA | Principal compensação |
|---|---|---|
| GPU digital convencional | Alto | Muito precisa, ecossistema maduro |
| Chip digital de IA com baixa precisão | Médio | Menor precisão, ainda amigável ao software |
| Acelerador analógico/de sinais mistos | Muito baixo (até 200× menos) | Mais ruído, mais difícil de programar e calibrar |
Para a China, com uma base industrial extensa e políticas industriais centralizadas, faz sentido atacar esse gargalo cedo. Computação eficiente em energia também conversa com compromissos climáticos públicos de Pequim e com o objetivo de reduzir dependência de tecnologia estrangeira de semicondutores.
Além disso, a eficiência deixou de ser apenas “reduzir a conta de luz”: em centros de dados, menos watts por tarefa costuma significar também menos calor para remover, o que tende a diminuir a necessidade de refrigeração e a pressão sobre o consumo de água - um ponto sensível em regiões com restrições hídricas.
Como laboratórios chineses estão modernizando a computação analógica na China
Várias linhas de pesquisa se combinam na estratégia chinesa.
Chips ópticos e fotônicos (computação fotônica para IA)
Uma frente de grande visibilidade é a computação fotônica, em que a informação viaja como luz por guias de onda e interferômetros dentro do chip. A luz pode executar operações de álgebra linear com altíssima velocidade e baixa perda de energia.
Universidades e empresas emergentes na China vêm construindo aceleradores ópticos para executar partes da inferência de redes neurais. A ambição é encaixar esses módulos em centros de dados para descarregar tarefas que consomem muita energia, como sistemas de recomendação e classificação de imagens.
Computação analógica na memória (computação “na própria memória”)
Outra vertente prioriza a computação na memória. Em sistemas digitais clássicos, dados vão e voltam entre memória e processador o tempo todo, desperdiçando tempo e energia. Em arquiteturas de computação na memória, a própria matriz de memória participa do cálculo.
Projetos de chips na China usam RRAM e memória de mudança de fase para armazenar pesos de redes neurais como condutâncias. Ao aplicar uma tensão, a corrente resultante realiza, de forma inerente, as etapas de multiplicação e acumulação necessárias para cada neurônio.
Ao unir armazenamento e cálculo nos mesmos dispositivos microscópicos, chips analógicos na memória reduzem o trânsito de dados - uma das maiores fontes de consumo energético em hardware para IA.
Um ponto adicional que ganhou relevância é a integração com cadeias de fabricação modernas: não basta o conceito funcionar em laboratório; é preciso repetibilidade, rendimento industrial e estratégias de testes em escala. Isso tem levado pesquisadores a desenhar arquiteturas já pensando em produção e em métodos de caracterização que detectem variações de sinal e degradação ao longo do tempo.
Os obstáculos: ruído, precisão e software
Sistemas analógicos não são solução mágica. Eles trazem dificuldades de engenharia reais:
- Ruído: pequenas variações de temperatura ou do processo de fabricação podem perturbar sinais analógicos.
- Precisão limitada: extrair mais do que alguns bits de precisão confiável de um circuito analógico é difícil.
- Calibração: cada chip pode exigir ajustes específicos para atingir metas de desempenho.
- Programação: desenvolvedores estão habituados a abstrações digitais, não à física de valores contínuos.
Equipes chinesas tentam contornar isso com esquemas de correção de erro, designs híbridos (digital + analógico) e modelos de IA adaptados para operar em hardware ruidoso. O objetivo não é substituir totalmente chips digitais, e sim combiná-los com blocos analógicos quando fizer sentido.
Também existe um desafio de ferramentas: compiladores, bibliotecas e métodos de validação precisam evoluir para que programar aceleradores analógicos seja menos artesanal. Sem esse “ecossistema de software”, o ganho energético pode ficar preso a demonstrações específicas, em vez de virar plataforma ampla.
Onde essa tecnologia tende a aparecer primeiro
A primeira onda comercial deve surgir em ambientes controlados, antes de chegar a produtos de consumo.
Centros de dados e redes de telecomunicações
Provedores de nuvem podem integrar aceleradores analógicos como placas especializadas em racks de servidores. Essas placas devem focar tarefas que aceitam resultados aproximados, como ordenar relevância de resultados de busca ou filtrar mensagens indesejadas.
Operadoras de telecomunicações - incluindo fornecedores chineses de redes 5G - também enxergam valor no processamento analógico para reduzir consumo em estações rádio-base. Como esses sistemas já dependem de componentes analógicos para sinais de rádio, adicionar processamento analógico para IA é uma extensão natural.
Dispositivos de borda e sensores
Mais adiante, chips analógicos de consumo ultrabaixo podem aparecer em câmeras, drones e sensores industriais. Executar IA localmente, sem depender o tempo todo da nuvem, aumenta a autonomia de bateria e reduz custos de transmissão de dados.
Imagine câmeras inteligentes que reconhecem objetos ou identificam riscos de segurança diretamente no dispositivo, trabalhando com milissegundos e miliwatts, em vez de segundos e watts.
Por que um conceito de 50 anos combina com um futuro dominado por IA
O retorno do analógico faz parte de uma tendência maior: usar a física de forma mais direta para computar, em vez de forçar tudo a passar pela lógica digital padrão. Computadores quânticos, chips neuromórficos e processadores fotônicos se situam em algum ponto desse espectro.
O movimento da China sugere que a “caixa de ferramentas” analógica ainda tem potencial quando combinada com fabricação moderna e algoritmos de IA. Em vez de brigar contra a imperfeição de sinais analógicos, pesquisadores tentam aprender a aproveitá-la.
Para quem está acostumado a pensar em zeros e uns, uma boa forma de entender é esta: computação analógica troca parte da exatidão por ganhos enormes de eficiência. Muitas tarefas de IA não precisam de quinze casas decimais; precisam de reconhecimento de padrões rápido, barato em energia e correto na maior parte do tempo.
Essa troca tem riscos e benefícios. De um lado, vieses de hardware ou deriva ao longo do tempo podem influenciar decisões de forma sutil - de análise de crédito a avaliação médica. De outro, reduzir o consumo energético em 100 vezes (ou mais) em cargas comuns diminuiria a pegada de carbono de serviços digitais e liberaria capacidade da rede elétrica para outros usos.
À medida que laboratórios chineses avançam nessa fronteira híbrida entre analógico e digital, a conversa sobre IA verde e geopolítica de chips tende a mudar. O próximo grande salto de eficiência pode não vir apenas de transistores menores, mas de revisitar uma ideia que nasceu antes mesmo do boom dos microprocessadores.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário