Enquanto foguetes e trajes espaciais dominam as manchetes, o retorno ambicioso da NASA à Lua e a estratégia de longo prazo para chegar a Marte passam, cada vez mais, por um tipo diferente de motor: um supercomputador chamado Athena, criado para testar tudo o que pode dar errado muito antes de qualquer peça de metal encostar na plataforma de lançamento.
Athena, o supercomputador (o novo cérebro digital) da NASA
Inaugurada oficialmente em 27 de janeiro de 2026, a Athena é hoje o supercomputador mais potente e mais eficiente em energia já operado pela NASA. Ela funciona no Ames Research Center, no coração do Vale do Silício, dentro de uma instalação modular, pensada para crescer e se adaptar conforme a demanda por processamento dispara.
No organograma de tecnologia da agência, a Athena ocupa o centro do programa High-End Computing Capability (HECC) - o serviço essencial que entrega computação de alto desempenho para praticamente todas as frentes da NASA: ciência planetária, modelagem climática, dinâmica de voo, aeronáutica e exploração espacial.
A Athena consegue realizar cerca de 20 quatrilhões de cálculos por segundo - algo como 20 milhões de bilhões de operações acontecendo enquanto você lê esta frase.
Esse valor bruto, 20,13 petaflops, importa menos pelo número em si e mais pelo que ele destrava. Ele devolve aos engenheiros a folga que vinha faltando. Em 2024, o inspetor-geral da NASA alertou que as máquinas existentes estavam saturadas: pesquisadores aguardavam na fila por tempo de máquina, e o hardware antigo era empurrado bem além do limite.
O sistema que sustentava a maior parte do trabalho até então, o Pleiades, chegava a 7,09 petaflops e já foi aposentado. A Athena triplica essa capacidade e, ao mesmo tempo, consome menos energia por unidade de trabalho - um ponto decisivo num cenário em que os volumes de dados só aumentam.
Por que Lua e Marte exigem muito mais poder de computação
Levar pessoas de volta à Lua e, depois, seguir rumo a Marte não é apenas questão de construir foguetes maiores. Física, suporte à vida, navegação e checagens de segurança geram redes enormes de equações que precisam ser resolvidas repetidas vezes, em condições que mudam o tempo todo.
Qualquer ajuste de trajetória, cada novo desenho de escudo térmico e cada perfil de pouso pensado para uma missão Artemis coloca milhões de variáveis no tabuleiro. O mesmo vale para conceitos de missão tripulada a Marte, onde erros pequenos podem se acumular durante meses de viagem e ao longo de milhões de quilómetros.
A Athena existe para triturar esses cenários milhares de vezes antes que um único componente seja fabricado - reduzindo risco e custo ao mesmo tempo.
Mais potência também significa modelos mais detalhados. Em vez de representar um estágio de foguete de forma grosseira, as equipas conseguem acompanhar turbulência em alta resolução, pequenas flexões estruturais e vibrações sutis que, antes, passavam despercebidas.
De lançamentos virtuais a foguetes mais seguros
O trabalho mais visível da Athena é a simulação física de alta fidelidade. As equipas da NASA passam a ensaiar, em software, uma pilha completa de lançamento: da ignição à separação de estágios, atravessando o Max-Q (o pico de esforço aerodinâmico) até a inserção em órbita.
Cada etapa é executada e repetida com variações mínimas, testando como o sistema reage a rajadas de vento, componentes levemente desalinhados ou oscilações inesperadas de temperatura. Essas campanhas virtuais substituem parte dos testes destrutivos - ou de alto risco - que antes eram feitos com hardware real.
Quando um ensaio com um foguete real falha, a conta pode chegar a dezenas ou centenas de milhões de dólares, além dos atrasos. Com a Athena, um cenário que dá errado no ecrã custa essencialmente tempo e eletricidade, não motores destruídos.
- Lançamentos de foguetes: modelagem de cargas estruturais, comportamento do combustível e interações da pluma
- Pousos lunares: simulação de nuvens de poeira, desempenho de propulsores e esforço no trem de pouso
- Entrada em Marte: testes de escudos térmicos, ondas de choque e aerodinâmica numa atmosfera rarefeita
- Projeto de espaçonaves: verificação de vibração, ruído e ciclos térmicos
A mesma base de ferramentas também se estende à aeronáutica. Novas gerações de aviões comerciais e aeronaves experimentais podem ser avaliadas na Athena para reduzir consumo de combustível, diminuir ruído e viabilizar geometrias avançadas que seriam arriscadas demais para testar diretamente em voo.
Athena como motor para IA científica
A Athena também foi concebida para cargas de trabalho de inteligência artificial, mas não no sentido de chatbots. O foco da NASA são modelos de IA científica ajustados para imagens, séries temporais e simulações complexas.
Esses modelos vão analisar petabytes de fotografias de satélites, leituras atmosféricas e dados de sensores de missões no espaço profundo. Com isso, conseguem identificar padrões incomuns, acompanhar mudanças discretas ao longo de anos e destacar anomalias que analistas humanos poderiam não perceber - ou simplesmente não conseguiriam processar em tempo útil.
A Athena dá à NASA a capacidade de treinar e executar modelos grandes de IA para clima, meteorologia espacial e dados planetários sem enviar informação sensível para nuvens comerciais.
Uma aplicação urgente é o estudo de tempestades solares. Essas erupções violentas do Sol podem afetar satélites, redes elétricas e comunicações na Terra. Simulações realistas de como partículas solares atingem a alta atmosfera exigem um volume enorme de computação; até aqui, muitas execuções eram simplificadas ou nem chegavam a ser tentadas.
Com a Athena, os pesquisadores conseguem modelar com muito mais detalhe a cadeia que vai do flare solar à perturbação geomagnética, ajudando operadores a proteger satélites e infraestrutura em solo antes que o pior aconteça.
Além disso, a expansão do uso de IA em ciência espacial aumenta a necessidade de rastreabilidade e reprodutibilidade: guardar versões de dados, parâmetros e modelos, e repetir resultados quando novas medições chegam. Com poder de computação local, a NASA reduz dependências externas e melhora o controlo sobre como dados e modelos são governados ao longo do tempo.
Uma arquitetura híbrida: hardware local + nuvem
A NASA não aposta tudo numa única sala de servidores. A Athena foi projetada como parte de uma arquitetura híbrida, que combina supercomputação local com capacidade oferecida por provedores de nuvem.
As simulações mais pesadas - e que precisam de acoplamento forte entre milhares de tarefas - rodam nos processadores da Athena. Já etapas de pré-processamento e pós-processamento podem ir para a nuvem. Assim, dados podem ser preparados, transformados e partilhados sem congestionar a máquina principal.
| Tipo de carga de trabalho | Plataforma mais indicada |
|---|---|
| Simulações completas de foguetes e clima | Supercomputador Athena (local) |
| Armazenamento e arquivamento de dados | Serviços comerciais de nuvem |
| Análise distribuída de grandes conjuntos de dados | Híbrido: Athena + nuvem |
| Ferramentas colaborativas e cargas mais leves | Plataformas de nuvem |
Essa combinação dá flexibilidade real. Uma equipa a avaliar um novo local de pouso em Marte, por exemplo, pode usar a Athena para simulações de terreno e descida em alta resolução, e recorrer à nuvem para mapeamento, partilha e visualização entre várias instituições.
Não é o mais rápido do planeta - mas foi afinado para missões espaciais
Nos rankings globais, a Athena não compete com os gigantes. Sistemas em escala exascale, como o El Capitan (EUA) ou o Jupiter (Alemanha), ultrapassam um exaflop - mais de mil vezes um petaflop - e dominam o topo do Top500.
Com cerca de 20 petaflops, a Athena provavelmente aparece algo entre as posições 100 e 200 no mundo. Ainda assim, no nicho de computação para aeroespacial e missões espaciais, ela assume protagonismo porque a sua arquitetura, a pilha de software e as interligações de rede foram ajustadas aos fluxos de trabalho específicos da NASA.
A agência também opera outros sistemas, como Cabeus e Aitken, e reforçou recentemente o Cabeus com centenas de nós Nvidia GH200, elevando cargas orientadas por GPU em mais 13 petaflops. Nesse conjunto de máquinas especializadas, a Athena entra como a âncora orientada a CPU.
Outro ponto crítico, muitas vezes invisível, é a sustentação do software científico: bibliotecas numéricas, códigos legados e ferramentas de verificação precisam acompanhar a evolução do hardware para que ganhos de performance se convertam em resultados. A Athena, ao padronizar ambientes e acelerar ciclos de teste, ajuda a encurtar o caminho entre “novo modelo” e “decisão de engenharia”.
Um recurso aberto para a comunidade de pesquisa
A Athena está a operar em capacidade total desde 14 de janeiro de 2026. E o acesso não fica limitado a funcionários da NASA: cientistas externos podem solicitar tempo de computação se estiverem envolvidos em projetos apoiados pela agência.
Esse modelo partilhado distribui o custo de uma instalação tão cara e amplia o impacto. Pesquisadores de clima, físicos espaciais e engenheiros em universidades podem usar o sistema, desde que as propostas cumpram critérios científicos e técnicos definidos pelos comités de alocação da NASA.
Ao abrir a Athena para além das próprias paredes, a NASA transforma um ativo crítico de missão numa ferramenta comum para ciência espacial e ciência da Terra.
A estratégia também ajuda a formar a próxima geração: estudantes que aprendem a desenhar algoritmos e experiências num supercomputador real chegam ao mercado mais preparados, seja na academia, seja na indústria.
Por que o nome Athena importa
O nome Athena foi escolhido internamente em 2025. Na mitologia grega, Atena é a deusa da sabedoria e da estratégia na guerra - e, aqui, o nome também faz referência a Artemis, o programa tripulado lunar da NASA.
Enquanto as equipas preparam o voo de teste Artemis II, a Athena já executa milhares de verificações nos bastidores. Ela confronta perfis de voo, margens de esforço e modos de falha, atualizando modelos conforme chegam novos dados de ensaios e simulações.
O objetivo é direto: encontrar problemas no ecrã, não na plataforma.
Como supercomputadores aceleram missões na prática
Para quem não é especialista, termos como petaflop e exaflop parecem abstratos. O princípio por trás do valor da Athena é mais simples: paralelismo. Em vez de depender de um único processador muito forte, supercomputadores conectam milhares de nós (cada um com muitos núcleos) e distribuem o mesmo problema em pedaços minúsculos.
Num modelo físico, por exemplo, o corpo de um foguete pode ser dividido em milhões de células. Cada célula acompanha pressão, temperatura e velocidade ao longo do tempo. A Athena distribui essas células por inúmeros processadores e sincroniza o cálculo repetidamente até que toda a estrutura evolua como um único objeto virtual.
O resultado é que uma simulação que levaria anos num computador de secretária pode terminar em horas ou dias. Assim, engenheiros conseguem alterar parâmetros - trocar um material, ajustar o formato de um bocal, deslocar uma trajetória - e rodar um novo caso, construindo uma biblioteca de resultados em vez de apostar tudo em poucos testes no mundo real.
Riscos, concessões e o que vem a seguir
A dependência de simulação traz riscos: modelos só são tão bons quanto as hipóteses e os dados que recebem. Se um material se comportar no espaço de forma diferente do laboratório, ou se interações sutis tiverem sido ignoradas na construção do modelo, mesmo uma execução perfeita na Athena pode levar a conclusões erradas.
A NASA mitiga isso ao realimentar continuamente os modelos com dados reais de voo e de testes, refinando-os missão após missão. Validação independente, redundância e margens de segurança conservadoras também ajudam a aproximar desempenho virtual e realidade.
Há ainda o desafio de energia e custo. Supercomputadores consomem muita eletricidade e exigem arrefecimento cuidadoso. Os sistemas mais novos da NASA, incluindo a Athena, foram desenhados com eficiência em mente, mas a pressão para reduzir a pegada de carbono de grandes centros de computação tende a crescer.
Mesmo com essas limitações, a computação de alto desempenho está a tornar-se tão central para o voo espacial quanto motores e navegação. Em projetos futuros - como bases lunares sustentadas e missões humanas a Marte - a combinação de hardware potente como a Athena e modelos avançados de IA influenciará quase todas as decisões críticas, de manifestos de carga a procedimentos de emergência.
Por trás das imagens de astronautas a caminhar sobre o regolito empoeirado ou a orbitar um planeta vermelho e oxidado, milhões de núcleos de CPU já terão ensaiado essas cenas, quadro a quadro, muito antes de a primeira bota tocar um solo verdadeiramente alienígena.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário