Pular para o conteúdo

Energia escura sob escrutínio: o que o DESI DR2, as supernovas e a Euclid podem estar a revelar

Homem usando computador com imagem de galáxias e régua digital na tela, junto a telescópio na mesa.

A energia escura é uma das peças mais enigmáticas da cosmologia moderna. Não a observamos de forma direta, mas inferimos a sua presença ao medir o comportamento do Universo em grande escala - sobretudo pelo facto de a expansão do Universo não apenas continuar, como também aparentar estar a acelerar.

Nos últimos tempos, porém, alguns físicos têm colocado em dúvida até mesmo essa narrativa aparentemente bem estabelecida. Certas análises indicam que a expansão pode não estar a ocorrer exatamente ao ritmo que os modelos matemáticos preveem. Se essa discrepância for real, uma hipótese seria que a energia escura muda ao longo do tempo, o que teria consequências profundas para a cosmologia e para a forma como entendemos a dinâmica do cosmos.

O que os dados do DESI DR2 sugerem sobre a energia escura

O debate ganhou força depois que o Instrumento Espectroscópico de Energia Escura (DESI) divulgou o seu segundo grande conjunto de dados, conhecido no jargão astronómico como DR2.

Trabalhos anteriores apontaram uma tensão entre os novos mapas de galáxias do DESI e o Fundo Cósmico de Micro-ondas (FCM) - a radiação remanescente da Grande Explosão. Uma explicação possível para esse desacordo seria a de que a energia escura estaria a “evoluir”, tornando-se mais intensa ou mais fraca ao longo de milhares de milhões de anos.

Turyshev: antes de “evolução”, verifique os erros de medição

É aqui que entra um novo artigo de Dr. Slava Turyshev (conhecido também por defender com destaque a missão da Lente Gravitacional Solar). Em vez de aceitar de imediato uma mudança fundamental na energia escura, ele explora uma possibilidade mais prosaica: os dados podem estar “ruidosos” por causa de imprecisões observacionais - especialmente na forma como medimos certos indicadores cosmológicos, como as supernovas.

A ideia é simples: alegações extraordinárias exigem evidências extraordinárias. E, antes de concluir que a energia escura se transforma com o tempo, vale a pena investigar se uma fonte clara de erro não seria suficiente para produzir a discrepância entre o DESI DR2 e o FCM.

Supernovas: um desvio de 0,02 magnitudes pode ser decisivo

Um ponto sensível está na calibração do brilho das supernovas. Segundo Turyshev, se as medições estiverem enviesadas mesmo que pouco - por exemplo, por 0,02 magnitudes - isso já poderia explicar a diferença observada entre conjuntos de dados.

Isso importa porque supernovas (em especial as usadas como “velas-padrão”) são ferramentas centrais para estimar distâncias cosmológicas. Para converter brilho observado em distância, é preciso determinar com grande precisão quão luminoso o evento realmente foi. E Turyshev, tal como muitos outros astrofísicos, questiona se a geração atual de telescópios e calibrações fotométricas consegue garantir esse nível de exatidão em todas as condições observacionais.

Um aspecto adicional - e muitas vezes subestimado - é que pequenos erros sistemáticos tendem a propagar-se: um desvio na calibração, diferenças de filtros entre levantamentos, poeira interestelar, seleção de amostras e até efeitos de evolução populacional podem contaminar as estimativas de distância e, por consequência, a inferência sobre a energia escura.

O “régua cósmica”: o horizonte sonoro e as Oscilações Acústicas de Bárions

Outra fonte potencial de incerteza está no que os cosmólogos tratam como uma régua padrão do Universo. Ela é baseada no horizonte sonoro, que corresponde a uma escala característica: a distância que uma perturbação de matéria conseguiria “viajar” no Universo primordial a uma velocidade muito específica - a velocidade do som no plasma quente que preenchia o cosmos nos seus primeiros instantes.

Essas ondulações, chamadas de Oscilações Acústicas de Bárions (OAB), persistiram por cerca de 380.000 anos e cessaram quando o Universo arrefeceu o suficiente para permitir a formação dos primeiros átomos. A partir daí, o padrão ficou essencialmente “congelado” e tornou-se uma referência para mapear distâncias ao longo da história cósmica.

Usamos essa escala para medir quão longe estão galáxias e estruturas distribuídas pelo Universo. No entanto, por também depender de medições e calibrações, quaisquer pequenas imprecisões nos instrumentos e métodos utilizados para estimar essa escala podem gerar erros cumulativos nas conclusões posteriores.

O diagnóstico de Alcock–Paczynski como alternativa ao horizonte sonoro

Para lidar com esse problema, Turyshev destaca uma abordagem matemática conhecida como diagnóstico de Alcock–Paczynski (AP). Em vez de ancorar a análise na escala do horizonte sonoro, o método AP explora a geometria aparente do Universo a partir de distorções observacionais, reduzindo a dependência de medições “nebulosas” ligadas a um momento específico da história primordial.

A proposta é usar esse tipo de verificação para testar se a suposta variação da energia escura permanece mesmo quando se minimizam certas dependências instrumentais e calibracionais. Se, após essas checagens, os sinais de flutuação continuarem, então faria mais sentido investigar explicações físicas novas.

Se a energia escura variar, por quê? LTIT e “cruzamento fantasma”

Caso a energia escura ainda pareça oscilar depois de controlados os principais efeitos de medição, Turyshev apresenta caminhos possíveis.

Um deles é um modelo proposto por ele, chamado Late-Transition Interacting Thawer (LTIT) (algo como “degelo interativo de transição tardia”). Nesse cenário, a energia escura poderia permanecer “congelada” por um período após o início do Universo e, mais tarde, começar a “degeler” e a interagir de forma crescente - um comportamento que poderia manifestar-se para nós como a aceleração observada da expansão.

Outra explicação aventada é o cruzamento fantasma, em que a energia escura poderia tornar-se extremamente intensa em algum ponto, transitando para um regime apelidado de energia fantasma.

Turyshev ressalta que, se esse tipo de hipótese for confirmado, seria necessário recorrer a nova física, porque tal comportamento não se encaixa bem no modelo padrão adotado na cosmologia atual.

O que vem a seguir: mais dados, mais testes e melhor calibração

Apesar das incertezas, a situação é promissora: estamos a acumular mais evidências e a testar as hipóteses com levantamentos cada vez mais ricos. A sonda cosmológica Euclid divulgou recentemente o seu primeiro conjunto de dados, e equipas de astrofísica já o estão a analisar com atenção, na expectativa de compreender melhor esta componente “escura” que domina a dinâmica do Universo em grande escala.

Além disso, a melhoria de calibrações e a comparação cruzada entre instrumentos e levantamentos devem tornar-se cada vez mais importantes. Estratégias como padronização fotométrica rigorosa, reavaliação de amostras de supernovas e testes geométricos independentes (como o AP) serão cruciais para separar um possível efeito físico real de um artefacto de medição.

Ainda há muito por descobrir. O DESI continua a recolher dados ativamente para a sua terceira divulgação (o terceiro lançamento), que deverá incluir informação dos primeiros três anos do levantamento principal - com expectativa de disponibilização mais para o fim deste ano.

Este estudo está disponível como pré-publicação no arXiv.

Este artigo foi originalmente publicado pelo portal Universo Hoje.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário