Acessibilidade / Reportar erro

Cem anos de descobertas em cosmologia e novos desafios para o século XXI

100 years of cosmology and new challenges for the 21st century

Resumos

O objetivo deste artigo é contar um pouco da história da cosmologia nesses últimos 100 anos, descrever de forma sucinta seus maiores avanços e apresentar suas principais questões que ainda estão em aberto nesse início de século.

cosmologia; matéria escura; energia escura; expansão do universo; nucleosíntese primordial; radiação cósmica de fundo; modelos inflacionários do universo


Empty The goal of this article is to present a brief history of Cosmology in the past 100 years, reviewing its main progress and highlighting its main open questions in the beginning of this century.

cosmology; dark matter; dark energy; primordial nucleosynthesis; cosmic microwave background; cosmological inflation


ARTIGOS DE REVISÃO SOBRE RELATIVIDADE GERAL E COSMOLOGIA

Cem anos de descobertas em cosmologia e novos desafios para o século XXI

100 years of cosmology and new challenges for the 21st century

Ioav Waga1 1 E-mail: ioav@if.ufrj.br.

Universidade Federal do Rio de Janeiro, Instituto de Física, Rio de Janeiro, RJ, Brasil

RESUMO

O objetivo deste artigo é contar um pouco da história da cosmologia nesses últimos 100 anos, descrever de forma sucinta seus maiores avanços e apresentar suas principais questões que ainda estão em aberto nesse início de século.

Palavras-chave: cosmologia, matéria escura, energia escura, expansão do universo, nucleosíntese primordial, radiação cósmica de fundo, modelos inflacionários do universo.

ABSTRACT

Empty The goal of this article is to present a brief history of Cosmology in the past 100 years, reviewing its main progress and highlighting its main open questions in the beginning of this century.

Keywords: cosmology, dark matter, dark energy, primordial nucleosynthesis, cosmic microwave background, cosmological inflation.

1. Introdução

"The less one knows about the universe, the easier it is to explain."

L. Brunschvicg.

Há cem anos desconhecíamos a existência de galáxias e acreditávamos que o universo era estático. Tampouco conhecíamos o mecanismo pelo qual a energia é gerada nas estrelas, e a idade do universo era estimada em apenas alguns milhões de anos. Hoje sabemos que vivemos em um universo em expansão, com bilhões de galáxias dentro de nosso horizonte, que iniciaram seu processo de formação há mais de 10 bilhões de anos. Os avanços alcançados nesses últimos cem anos são enormes. Dispomos hoje de um quadro consistente, o chamado modelo padrão da cosmologia (MPC) que é, sem dúvida alguma, um grande patrimônio científico e cultural da humanidade. Fundamental para o seu desenvolvimento tem sido avanços em física atômica, quântica, nuclear, de partículas elementares e gravitacional. Esse modelo, baseado na relatividade geral de Einstein, em combinação com física fundamental, nos permite entender a evolução do universo desde as primeiras frações de segundo até hoje, aproximadamente 14 bilhões de anos depois.

Ao mesmo tempo em que celebramos essas conquistas da cosmologia, é importante reconhecer que algumas grandes questões permanecem em aberto. Por exemplo, a natureza da matéria escura fria, uma componente com pressão nula responsável pela formação de estruturas como galáxias e seus aglomerados, permanece um mistério. Não se sabe ainda, com grande precisão, sua densidade. Embora o chamado modelo de matéria escura fria seja muito bem sucedido em escala cosmológica, ele encontra dificuldades em escalas galácticas, prevendo, via simulações numéricas, um número significativamente maior de galáxias satélites do que o observado. Desconhecemos igualmente se a energia escura, uma componente uniformemente distribuída com pressão suficientemente negativa (e, portanto, gravitacionalmente repulsiva) é uma constante cosmológica ou um campo escalar dinâmico (quintessência). Há ainda a possibilidade teórica de que a aceleração cósmica seja conseqüência de uma teoria de gravitação alternativa ou da existência de dimensões extras. Na verdade, não estamos completamente seguros se a matéria e a energia escuras constituem, de fato, duas substâncias distintas: atualmente têm sido sugeridas propostas para sua unificação (quartessência).

Este artigo está organizado da seguinte forma: na seção 2 apresentamos um resumo dos primeiros anos da cosmologia relativista. Nas seções 3, 4 e 5 descrevemos as descobertas que constituem os pilares sobre os quais o MPC está estruturado, que são: a) a expansão do universo; b) a abundância de elementos leves; e c) a existência de uma radiação cósmica de fundo. No final da década de 70, do século passado, ficou claro que o modelo padrão da cosmologia necessitava de condições iniciais muito especiais para explicar o alto grau de isotropia observado na radiação cósmica de fundo. O chamado cenário inflacionário do universo, que é uma modificação do MPC nos instantes primordiais de sua evolução, foi então proposto para resolver esta e outras dificuldades do modelo padrão. Na seção 6 são discutidos os cenários inflacionários. Em 1998, observações de supernovas indicaram, surpreendentemente, que a expansão do universo está acelerando. Na seção 7 são discutidas algumas implicações dessa descoberta, bem como as possíveis explicações para o que pode estar causando a aceleração cósmica.

2. Os primeiros anos da cosmologia relativística

"I shall speak of the theoretical work of Einstein of Germany, de Sitter of Holland, Lemaître of Belgium. For observational data I turn to the Americans Slipher, Hubble, Humason, recalling however that the vitally important datum of distance is found by a method which we owe to Hertzsprung of Denmark. ...

My subject disperses the galaxies, but it unites the earth. May no cosmical repulsion intervene to sunder us"

Arthur Eddington na abertura da palestra pública proferida no encontro da "União Astronômica Internacional", realizada em setembro de 1932, em Cambridge (Massachusetts).

A cosmologia moderna iniciou-se com Einstein, em 1917, pouco tempo após ele haver publicado seu trabalho sobre a teoria do campo gravitacional, a relatividade geral. O primeiro modelo cosmológico relativista proposto por ele, além de espacialmente homogêneo, isotrópico e finito (com curvatura espacial constante e positiva), possui a propriedade de ser estático. Acreditava-se naquela época ser esta uma característica do universo. Sendo a gravitação atrativa, para obter um universo estático, Einstein modificou as suas equações originais do campo gravitacional introduzindo um termo repulsivo, a chamada constante cosmológica (L). Einstein acreditava que seu modelo possuía as seguintes virtudes: 1) podia relacionar a massa do universo com a constante cosmológica, o que estava em acordo com o princípio de Mach; 2) mostrou ser possível construir um modelo cosmológico consistente com a relatividade geral; 3) acreditava ser este o único modelo com essas características.

Nesse mesmo ano, o astrônomo holandes Willem de Sitter publicou três trabalhos nos quais obteve uma nova solução da relatividade geral, com constante cosmológica, estacionária, porém sem matéria. Por estacionária entende-se uma solução cujas propriedades não dependem do tempo. De Sitter mostrou que em seu universo a velocidade de afastamento de objetos (partículas teste) aleatoriamente espalhados aumentaria com a distância. Esta propriedade, que passou a ser conhecida como "efeito de Sitter", podia explicar o desvio no espectro de nebulosas espirais observado pelo astrônomo americano Vesto M. Slipher alguns anos antes. Einstein não apreciava muito a solução de de Sitter, entre outras razões, por ela apresentar um horizonte de evento, isto é, uma distância além da qual raios luminosos não poderiam chegar ao observador. O fato de o universo de de Sitter ser desprovido de matéria é também uma característica não desejável desse modelo. Contudo, isso não impediu que ele fosse investigado, à época, como uma possível descrição do universo real. Como a densidade do universo é baixa, a solução de de Sitter era considerada como uma aproximação de densidade zero.

Essa era a situação em 1917, quando a recém criada teoria da relatividade geral ainda não era muito aceita. A relatividade geral ganhou notoriedade internacional somente após os resultados de medidas do desvio da luz, observadas durante o eclipse solar de 1919 pelas expedições britânicas à ilha de Príncipe (Guiné) e Sobral (Brasil). Nessa época a existência de galáxias ainda não era conhecida. Estas só foram descobertas com Hubble, um pouco mais tarde, em 1923 (veja a próxima seção). Sabia-se que a velocidade típica de estrelas é baixa e este fato sustentava a idéia de um universo estático. É interessante salientar que, não apenas Einstein, como também de Sitter não acreditavam em um universo em expansão. A velocidade de afastamento de objetos (e o consequente desvio espectral para o vermelho) em um universo de de Sitter, acima mencionado, era por ele considerada um efeito espúrio, conseqüência do sistema de coordenadas usado e não decorrente da expansão do espaço.

A possibildade teórica de um universo em expansão só surgiu em 1922 com Friedmann. Filho de artistas (o pai era bailarino e a mãe pianista), Aleksandr Aleksandrovich Friedmann, nasceu em junho de 1888 na cidade de São Petersburgo e desde cedo mostrou um grande talento para a matemática. Em 1906, ele ingressou na Universidade de São Petersburgo para estudar matemática pura e aplicada. Nesse mesmo ano publicou seu primeiro trabalho científico. Após formar-se, iniciou uma pós-graduação em meteorologia em Leipzig (Alemanha). Durante a primeira guerra serviu como piloto e esteve envolvido em missões na frenta austríaca. Após a guerra foi transferido para a Estação Aeronáutica Central de Kiev e um ano depois conseguiu uma posição na Universidade de Perm. Nessa época a Rússia estava mergulhada em uma guerra civil. Em 1920, quando a revolução russa ainda não havia terminado, ele retornou a São Petersburgo para trabalhar em hidrodinâmica no Observatório Geofísico de Main. Foi nesse período que surgiu o seu interesse pela relatividade geral (que devido à guerra e à revolução era pouco conhecida na Russia). Possivelmente a confirmação do valor previsto pela relatividade geral para o desvio da luz provocado pelo campo gravitacional do Sol, obtida após o eclipse de 1919, estimulou esse interesse. Em 1925, Friedman já era considerado um dos principais físicos teóricos de Leningrado (como era então chamada São Petersburgo). Nesse mesmo ano, realizou um vôo de balão para estudar a alta atmosfera que atingiu 7400 m, recorde soviético da época. Poucos meses depois contraiu tifo e faleceu, precocemente, aos 37 anos.

Apesar de haver publicado seu artigo de 1922 na prestigiosa revista "Zeitschrift für Physik", o trabalho de Friedmann não recebeu a devida atenção. Nesse artigo em que considerou espaços com curvatura constante e positiva, Friedmann obteve pela primeira vez soluções expansionistas (com e sem constante cosmológica) das equações de Einstein. É curioso que Eddington, em suas palavras reproduzidas no início desta seção, não tenha se referido a ele. É difícil entender essa omissão a não ser pelo pouco interesse despertado, à época, pelo trabalho de Friedmann na comunidade de físicos e astrônomos. Uma possível explicação talvez seja a abordagem eminentemente matemática por ele empregada nesse artigo e no seguinte, publicado em 1924 na mesma revista, onde ele analisa os espaços com curvatura espacial constante e negativa. De fato, nesses trabalhos ele extraiu poucas conseqüências físicas de suas soluções. Analisou a possibilidade de soluções expansionistas da mesma forma que considerou também soluções com densidade de energia negativa (que possuem apenas interesse matemático). As propriedades físicas de suas soluções foram pouco discutidas. Por exemplo, em nenhum momento ele fez referência à questão do desvio para o vermelho, que é uma propriedade fundamental desses modelos. Assim, tendemos a concordar com os que afirmam que Friedmann descobriu a possibilidade de um universo em expansão, mas não a expansão do universo. É interessante que essa possibilidade tenha sido questionada inicialmente por Einstein, que chegou a publicar uma nota em 1922 onde afirmava que o trabalho de Friedmann estava matematicamente incorreto. Contudo, um ano depois admitiu seu erro e reconheceu a existência de soluções variáveis no tempo, como defendido no trabalho de Friedmann. O universo descrito pelo modelo de Friedmann, além de expansionista, é espacialmente homogêneo, isotrópico em relação a qualquer ponto, e possui uma origem no passado em que a densidade de matéria diverge. Esse modelo tornou-se a base do modelo padrão da cosmologia. É lamentável que a morte prematura de Friedmann nos tenha privado de novas e importantes contribuições que ele provavelmente faria ao desenvolvimento da cosmologia.

Outra contribuição notável para o desenvolvimento da cosmologia nesse período inicial, foi dada pelo físico e astrônomo Georges Édouard Lemaître. Lemaître nasceu em Charleroi, na Bélgica. Em 1914, aos vinte anos, ingressou na Universidade de Louvain para estudar engenharia, mas não chegou a concluir o curso, interrompido devido a eclosão da Primeira Guerra Mundial. Lemaître alistou-se no exército belga quando a Alemanha invadiu a Bélgica e, após a guerra, recebeu diversas condecorações pelos serviços prestados. Em 1919, na mesma Universidade de Louvain, reiniciou seus estudos, mas agora seu interesse voltara-se para a Física e a Matemática. Em 1920 iniciou estudos em teologia e em 1923 foi ordenado padre. Nesse mesmo ano seguiu para Cambridge (Inglaterra) onde permaneceu durante um ano como estudante de Eddington. No ano seguinte foi para os Estados Unidos, onde trabalhou com o astrônomo Shapley e estabeleu contato também com Slipher e Hubble. Nessa época Lemaître já demonstrava um grande interesse pelos modelos expansionistas. Em 1925, após concluir o doutorado no Instituto Tecnológico de Massachusetts (MIT), retornou à Bélgica e iniciou a preparação do trabalho que viria lhe trazer notoriedade internacional. Esse trabalho foi publicado em 1927 nos Anais da Sociedade Científica de Bruxelas, um periódico relativamente obscuro. Lemaître obteve, de forma independente, equações equivalentes às anteriormente obtidas por Friedmann. A relação linear entre velocidade e distância já encontrava-se nesse trabalho, antes mesmo que Hubble a tornasse famosa. É curioso, mas somente em 1927, em uma conversa com Einstein, ele tomou conhecimento do trabalho de Friedmann. Há contudo uma diferença de abordagem entre ele e Friedmann. Lemaître procurou ir além de uma formulação matemática, buscando sempre usar a física e a astronomia conhecidas na época para descrever o universo. Embora Friedmann o tenha precedido na descoberta de soluções expansionistas das equações de Einstein, Lemaître teve o mérito de conseguir despertar a atenção da comunidade de físicos e astrônomos para as conseqüências físicas dessa descoberta, possivelmente por ter desenvolvido também uma formação em astronomia. Podemos considerar Lemaître um dos pais da cosmologia física, tendo ele desempenhado um papel fundamental, principalmente na década de 30, no desenvolvimeto de nossa compreensão do significado físico de um universo em expansão.

3. Hubble e a expansão do universo1a 1a Esta seção baseia-se no artigo "A expansão do universo" de I. Waga, ao qual nos referimos para uma descrição mais detalhada sobre o tema.

"Years and decades have passed since Hubble's classical work. There is no question that he was the greatest observational astronomer since Copernicus. The three enormously important things he did were: he discovered galaxies, he showed that they were characteristic of the large-scale structure of the universe, and then he found the expansion. Any one of this is monumental and would secure his place in history."

Alan Sandage, sobre Edwin Hubble.

Uma questão chave da astronomia no início do século passado era saber a natureza das nebulosas espirais. Alguns astrônomos argumentavam que elas eram um sistema de estrelas que nos circundam, enquanto outros defendiam a tese de que eram, sistemas semelhantes à nossa própria galáxia porém situadas bem mais distantes que as estrelas usuais.

Em abril de 1920 houve um debate entre dois grandes astrônomos da época, Herbert Curtis e Harlow Shapley, que entrou para a história da cosmologia. Uma das questões do debate era a natureza das nebulosas. Curtis defendia o ponto de vista de que as nebulosas espirais são galáxias individuais, comparáveis em dimensão e número de componentes individuais à nossa própria galáxia. Shapley defendia o ponto de vista oposto, de que as nebulosas espirais são simplesmente objetos nebulosos, situados em nossa galáxia. A disputa não foi resolvida naquele momento pois faltavam dados precisos sobre nossa distância às nebulosas.

Em 1923, após uma série de observações de Andrômeda, Edwin P. Hubble, o famoso astrônomo americano, observa nesta nebulosa espiral uma estrela variável bem tênue que ele conclui tratar-se de uma estrela do tipo Cefeida. Em 1912, Henrietta Leavitt, astrônoma do Harvard College Observatory, mostrou existir uma correlação entre a luminosidade absoluta média de estrelas variáveis Cefeidas e o período de oscilação da intensidade da luz vinda delas. A correlação é no sentido de que quanto maior o período entre dois máximos (variando de alguns dias até algumas semanas) maior a luminosidade absoluta. Observando-se o período de variação de uma estrela Cefeida, os resultados de Leavitt permitem inferir sua luminosidade absoluta. Assim, como a intensidade da luz cai com o inverso do quadrado da distância, podemos determinar a distância de uma estrela Cefeida medindo sua luminosidade aparente e estimando sua luminosidade absoluta através da observação do período. Usando a técnica desenvolvida por Leavitt, Hubble pode determinar a distância à Andrômeda e concluir que esta é bem maior que o raio da Via Láctea. Ele pode concluir, portanto, que Andrômeda é uma galáxia espiral semelhante à nossa galáxia e que, como sabemos hoje, encontra-se a uma distância aproximada de 2 milhões de anos luz (o raio da galáxia é de aproximadamente 50.000 anos luz).

Em 1901, Vesto M. Slipher, um jovem astrônomo então com 25 anos, foi contratado para trabalhar no Observatório Lowell no Arizona (EUA). Durante mais de 10 anos Slipher analisou o espectro da luz vinda de estrelas e nebulosas. Em 1912 ele percebeu que as linhas espectrais de Andrômeda estavam no lugar errado, deslocadas para o azul, isto é, para a região do espectro de menores comprimentos de onda. Medindo o deslocamento espectral ele conseguiu determinar a velocidade de Andrômeda em relação à Terra. Isso foi possível devido ao fenômeno denominado efeito Doppler - nome dado em homenagem a Christian Doppler, cientista austríaco que o descobriu.em 1842. O efeito Doppler é aquele que permite um radar parado na estrada determinar a velocidade dos carros que passam. O efeito ocorre não apenas com ondas sonoras mas também com ondas eletromagnéticas (como a luz vinda de uma galáxia). A distância entre duas cristas de uma onda (comprimento de onda) medida por um observador é menor (deslocamento para o azul - som agudo) quando a fonte emissora aproxima-se do observador do que quando a fonte está parada. Quando a fonte afasta-se do observador o comprimento de onda medido por ele é maior (deslocamento para o vermelho - som grave). Para a radiação eletromagnética temos (ve << c):

na qual c é a velocidade da luz, lobservado é o comprimento de onda observado, lemitido é o comprimento de onda no referencial da fonte, ve é a velocidade da fonte (em relação ao observador) e z é o deslocamento para o vermelho ("redshift"). Velocidades positivas indicam afastamento da fonte em relação ao observador e correspondem a z positivo.

A velocidade de Andrômeda estimada por Slipher foi da ordem de 300 km/s. Em 1915 ele já tinha 40 medidas de espectro de nebulosas com 15 velocidades radiais estimadas, número que sobe para 25 em 1917. Contrariamente ao observado para Andrômeda, a grande maioria apresentava velocidades positivas. Por exemplo, das 41 nebulosas com redshift medido em 1923, apenas 5 (incluindo Andrômeda) aproximavam-se da Terra. A velocidade das nebulosas era considerada muito alta, em média mais de 20 vezes as velocidades típicas encontradas para estrelas. Os valores obtidos estavam compreendidos entre 200 e 1.100 km/s.

Em 1929, usando medidas de "redshifts" feitas por Milton Humason, Hubble observou a existência de uma relação linear entre o desvio para o vermelho e a distância, isto é, cz = H0d, onde H0 é a chamada constante de Hubble. A relação acima só é válida para pequenas distâncias ou pequenos desvios para o vermelho. No célebre trabalho de Hubble de 1929 as galáxias mais afastadas distavam aproximadamente quatro milhões de anos luz. Para essas distâncias, ou mesmo para as maiores, a lei acima é perfeitamente válida. Usando então a Eq. (1) que relaciona velocidade e desvio para o vermelho (válida para baixas velocidades), ve = cz, chegamos a relação:

Quando verificamos os dados usados por Hubble em 1929, percebemos que não era claro que a relação entre o desvio para o vermelho (velocidade) e a distância fosse, de fato, uma relação linear. Esses dados não permitiam excluir, por exemplo, a possibilidade de que esta relação fosse quadrática. Contudo, esses mesmos dados permitiam concluir que havia um aumento sistemático da velocidade de afastamento com a distância, o que sugere a expansão do universo. Em um universo estático deveríamos esperar, estatisticamente, que houvesse tanto velocidades de afastamento como de aproximação, isto é, deveria-se medir desvios para o vermelho com valores negativos e positivos. É claro que quando nos referimos a um universo estático estamos pensando em um universo que em média é estático, e não um que é totalmente, ou rigorosamente, estático. Assim, embora a possibilidade teórica de um universo em expansão tivesse sido considerada pela primeira vez por Friedmann, foi Hubble quem nos mostrou ser a expansão uma propriedade do universo real.

A relação entre velocidade e distância, como definida acima, só é válida para baixas velocidades ou pequenas distâncias. A Lei de Hubble, por outro lado, escrita como:

v(t) = H(t) d(t)

é sempre válida. Ela é conseqüência da homogeneidade e isotropia do universo. Homogeneidade significa a equivalência de todos os pontos do espaço e isotropia a igualdade, em um determinado ponto, de todas as direções. Mas se todos os pontos são equivalentes, isso implica na igualdade de todas as direções em qualquer ponto. Assim, não podemos apontar para uma direção e dizer que lá encontra-se o centro do universo. Tampouco estamos no centro do universo. A verdade é que não há centro do universo, ou melhor todos os pontos são centrais. Talvez a idéia de que o universo possua um centro tenha sua origem na imagem que fazemos do big-bang. É comum pensarmos na grande explosão como uma granada que explode no ar e cujos fragmentos espalham-se no espaço. Essa imagem, na verdade, possui alguns aspectos corretos e outros não.

Voltando à questão anterior. Como podem todos os pontos ser centrais? Se recorrermos a imagem de um balão sendo inflado podemos supor que as galáxias sejam pequenas moedas uniformemente distribuídas e coladas na superfície desse balão. Nesse exemplo é preciso desprezar a espessura das moedas e supor que o universo esteja restrito à superfície bidimensional do balão,ou seja, somos seres bidimensionais vivendo na superfície do balão. Ao inflarmos o balão, as moedas (galáxias) se afastam umas das outras, mas como estão uniformemente distribuídas em sua superície, podemos nos situar sobre qualquer uma delas que veremos sempre o mesmo quadro. Isto é, todas as moedas são equivalentes (homogeneidade) e sendo o balão esférico, todas as direções são equivalentes (isotropia) em qualquer ponto. Além disso, qualquer moeda pode ser tomada como centro, pois a distribuição das outras moedas em torno dela é esfericamente simétrica.

Outro aspecto ilustrativo do exemplo acima é que embora as moedas afastem-se umas das outras devido à expansão do balão, como são feitas de metal não aumentam de tamanho. O mesmo ocorre com as galáxias ou, em uma escala menor, com o próprio sistema solar. A Terra ou os planetas não se afastam do Sol por conta da expansão do universo e nem os átomos ou as células do nosso corpo. Em todos esses casos há outras forças envolvidas que tornam o efeito da expansão do universo, nessas escalas, totalmente desprezível. Sob esta ótica é correta a imagem do universo como fragmentos de uma granada afastando-se uns dos outros. Os fragmentos mantêm a forma. No exemplo da granada, há contudo, uma diferença importante com relação ao universo, já que a "expansão" (o aumento da distância entre os fragmentos) acontece dentro de um espaço vazio e estático, ou seja, ao se "expandir" os fragmentos ocupam uma região cada vez maior do espaço tri-dimensional que os contém. Isso não ocorre com o universo. O universo é a totalidade e portanto não está se expandindo dentro de um espaço vazio e estático que o contém. Nesse sentido nos parece inadequada a pergunta: "para onde está o universo se expandindo?". Embora bastante comum ela é inadequada pois pressupõe que exista algo externo ao universo.

A interpretação dos resultados de Hubble de que o universo está em expansão, foi prontamente aceita pela maioria dos cientistas. Contudo, algumas interpretações alternativas, como as baseadas na chamada "hipótese da luz cansada", foram também propostas. Por exemplo, Fritz Zwicky, astrônomo suiço, nascido na Bulgária em 1898, propôs, ainda em 1929, após a publicação do trabalho de Hubble, um novo mecanismo de arrasto gravitacional, pelo qual fótons (partículas de luz), não seriam apenas defletidos mas também, perderiam energia e momentum para o meio material gerador do campo gravitacional. Zwicky sugeriu que o desvio para o vermelho da luz das galáxias não seria causado pela expansão do universo e sim, uma conseqüência desse arrasto, que geraria uma diminuição na frequência (ou aumento do comprimento de onda) dos fótons à medida que eles viajassem das galáxias distantes até nós. Quanto mais distante a galáxia maior a perda de energia, e portanto maior o desvio para o vermelho, de tal forma que, segundo ele, a lei distância vs. desvio para o vermelho poderia ser explicada através desse mecanismo. Uma conseqüência dessa teoria é que a variação da largura das linhas de emissão e absorção com a distância seriam bem distintas, o que não foi comprovado. Assim, essa proposta, bem como outras alternativas surgidas à época, mostraram-se artificiais e foram abandonadas.

Embora incorreto em relação à expansão do universo, Zwicky fez uma descoberta importantíssima no início da década de 30. Em 1933, ele mostrou que a matéria visível como a luz emitida pelas estrelas, constitui uma fração muito pequena de toda a matéria do universo. Ao medir as velocidades radiais (vr) de oito galáxias no aglomerado de Coma e estimar a dispersão de velocidade2 2 Aqui o símbolo á...ñ representa o valor médio da quantidade. , sr = , obteve um valor surpreendentemente elevado. É curioso que o resultado obtido por Zwicky nessa amostra, seja bastante semelhante aos valores modernos, algo em torno de 1.000 km/s. Com este valor para sr ele concluiu que a densidade média de matéria no aglomerado de Coma é 400 vezes maior do que a densidade estimada através da observação de matéria luminosa. Na verdade, Zwicky usou em seus cálculos o valor aceito na época para a constante de Hubble (H0), aproximadamente oito vezes maior que o valor atualmente aceito. De qualquer forma, mesmo que tivesse usado o valor atual de H0, ele teria obtido para a densidade média de matéria um valor 50 vezes (e não 400) maior do que a densidade média de matéria luminosa. Assim, ele pôde concluir que a matéria luminosa por si só não é capaz de manter o aglomerado de Coma como um sistema gravitacionalmente ligado, o que significa que existe nesse aglomerado, uma grande quantidade de matéria não luminosa (que Zwicky chamou de "dunkle materie"). Essa foi a primeira evidência da existência de matéria escura. Alguns anos mais tarde, em 1936, ao estudar o aglomerado de Virgo, Sinclair Smith confirmou os resultados obtidos por Zwicky. Como veremos a seguir, a maior parte dessa matéria escura não pode ser constituida de bárions (prótons e nêutrons) e deve ter uma natureza exótica.

4. A formação dos elementos leves

"Gamow was fantastic in his ideas. He was right, he was wrong. More often wrong than right. Always interesting; ... and when his idea was not wrong it was not only right, it was new."

Edward Teller, sobre George Gamow

Em 1924, quando Friedmann apresentou uma série de palestras intituladas "Fundamentos Matemáticos da Teoria da Relatividade", na Universidade de São Petersburgo, um jovem de vinte anos sentou-se nas primeiras filas e assistiu as palestras com máxima atenção. Era George Antonovich Gamow, que anos mais tarde ofereceria contribuições tão fundamentais à cosmologia que o tornaram, assim como Friedmann e Lemaître, um dos "pais" do modelo padrão da cosmologia3 3 O modelo padrão da cosmologia é também, com freqüência, chamado de modelo do big-bang. Há uma razão histórica para isso. Entre 1940 e 1965, existiu uma grande rivalidade entre duas teorias cosmológicas; a chamada teoria do "Estado Estacionário" e a chamada teoria do big-bang. Segundo a teoria do "Estado Estacionário" não há uma evolução global do universo nem tampouco um instante inicial de criação. Bondi, Hoyle, Narlikar e outros defensores dessa teoria, advogavam a idéia de um universo frio, que sempre foi e sempre será o mesmo. Eles eram partidários do chamado "Princípio Cosmológico Perfeito", segundo o qual o universo não seria homogêneo apenas espacialmente, mas também no tempo. Por outro lado, a teoria do big-bang, da qual Gamow foi um dos principais artífices, defendia que o universo teve uma fase inicial muito densa e quente. Com o tempo, a chamada teoria do big-bang mostrou-se superior, sendo hoje considerada o "Modelo Padrão da Cosmologia". Contudo, preferimos aqui não usar a terminologia "teoria do big-bang" ou "modelo do big-bang", pois sugerem um início explosivo para o universo o que não é, necessariamente, verdadeiro. . Um fato curioso é que Gamow planejara ter Friedmann como seu orientador, o que acabou não ocorrendo devido à inesperada morte de Friedmann em setembro de 1925.

Gamow nasceu em Odessa (Russia) e bem cedo teve seu interesse despertado pela astronomia. Contudo, não foi como astrônomo que deu sua maior contribuição à cosmologia, e sim como físico nuclear. Gamow deixou a União Soviética em 1934, estebelecendo-se nos Estados Unidos, indo para a Universidade George Washington. Gamow e seus colaboradores, especialmente Ralph Asher Alpher e Robert Herman, centraram o foco de sua pesquisa em como descrever os estágios iniciais de evolução do universo. Buscaram estudar o universo primordial usando física nuclear de alta energia. A partir da década de 30, com as descobertas do nêutron (n), do deutério (D) (um isótopo pesado do hidrogênio que consiste de um próton e um nêutron) e do pósitron (a anti-partícula do elétron), a física nuclear obteve um grande desenvolvimento. Progressos importantes foram realizados por Gamow e seu grupo no final da década de 40 e início dos anos 50, na busca de uma solução para um problema que guarda sua origem na década de 20. Nessa época, uma das questões centrais em astrofísica era saber como se formaram os elementos químicos.

O modelo sugerido por Gamow e seus colaboradores para o universo primordial é simples. Após o big-bang, ou seja, após um instante inicial explosivo, o universo seria constituido de uma matéria que eles denominaram "ylem" (derivado de "hylo" que em grego significa substância). Nos primeiros modelos, o "ylem" consistiria de nêutrons e fótons de alta energia (neutrinos foram depois incorporados). Supondo uma alta taxa de interação dos fótons com a matéria (quando comparada com a taxa de expansão do universo), o equilíbrio poderia ser mantido. Assim seria possível fazer inferências sobre a densidade da matéria e a temperatura do universo nessa fase inicial de sua evolução. Os nêutrons inicialmente decaem (decaimento b) em prótons (p), elétrons e anti-neutrinos. Os prótons, em um processo de captura radiativa, então se fundiriam com os nêutrons remanescentes no "ylem", formando deutério. Uma vez tendo deutério, hélio (3He - 2 prótons e 1 nêutron; 4He - 2 prótons e 2 nêutrons) seria formado através de uma sequência de processos. Tipicamente teríamos: D + D ® 3He + n, seguido por 3He + D ® 4He + p. A idéia era que, através de processos sucessivos de fusão e decaimento, semelhantes ao descrito acima, todos os elementos químicos mais pesados poderiam ser formados. Ocorre, contudo, que não há núcleos atômicos estáveis com número de massa4 4 Número total de nucleons, isto é, o número de prótons mais o número de nêutrons. cinco e oito e, apesar das diversas tentativas de Gamow e seu grupo em contornar essa lacuna, o esquema falha. Na verdade, no caso de estrelas, esse tipo de dificuldade para a formação de elementos mais pesados que o hélio já havia sido mencionada por Hans Bethe, em seu famosos trabalho de 1939, sobre a produção de energia em estrelas.

Na década de 50 observações mostraram que a abundância de elementos pesados é significativamente maior em estrelas velhas, o que estimulou novos estudos sobre esse problema. Importantes contribuições foram dadas por Edwin E. Salpeter, Geoffrey e Margaret Burbidge, William Fowler e Fred Hoyle. Hoje sabemos que a formação dos elementos químicos ocorre em dois estágios. No universo primordial formaram-se apenas elementos leves, essencialmente hidrogênio, hélio e um pouco de lítio. Os elementos mais pesados formaram-se no interior das estrelas ou em explosões de supernovas. Os dados observacionais indicam que em torno de 75% da matéria bariônica do universo está na forma de hidrogênio; hélio constitui, aproximadamente, 25% desta matéria e os outros elementos químicos menos do que 1%. Quando somos informados desse fato pela primeira vez, em geral, ficamos muito surpresos, pois não é esta a proporção a que estamos acostumados em nosso cotidiano.

Sabemos hoje que o modelo proposto por Gamow e colaboradores não é correto em detalhes significativos. Por exemplo, o universo não começou em um estado em que só haviam nêutrons. Em altas energias o número de prótons e nêutrons é o mesmo. Além disso, nêutrons convertem-se em prótons (e esses em nêutrons) não apenas via decaimento, mas principalmente através da interação com elétrons, pósitrons, neutrinos e anti-neutrinos. Vários físicos foram responsáveis por progressos importantes desvendando como ocorreu a nucleosíntese primordial. Entre eles destacamos: C. Hayashi (Japão), R.A. Alpher, R. Herman e J.W. Follin (Estados Unidos), Ya B. Zeldovich (Russia), F. Hoyle e R.J. Tayler (Inglaterra) e P.J.E. Peebles (Estados Unidos). A partir do trabalho pioneiro de Gamow esses autores, e outros que os seguiram (D.N. Schramm, G. Steigman e M.S. Turner), mostraram que a nucleosíntese primordial constitui um dos grandes sucessos da cosmologia padrão.

A idéia de que o universo primordial foi dominado pela radiação (fótons, neutrinos e outras espécies relativísticas), só surgiu em 1948 em um trabalho de Gamow e Alpher. Base do modelo padrão da cosmologia essa importante descoberta implica que o universo primordial era quente e que esfriou devido à expansão. A densidade de energia da radiação é proporcioanal a temperatura elevada à quarta potência. Grosso modo, no intervalo de tempo em que uma escala cosmológica dobra de tamanho devido à expansão, a temperatura da radiação diminui para a metade de seu valor. É claro que para extrairmos conclusões confiáveis sobre eventos ocorridos no universo primitivo é necessário ter disponível uma física que seja válida em altas energias (ou temperaturas). Resultados de experimentos em grandes aceleradores de partículas indicam que até energias da ordem de 1 GeV (um giga eletrons-volt ou 109 eV; é a energia que adquire um elétron ao ser acelerado por uma diferença de potencial de um bilhão de volts), que corresponde a uma temperatura aproximada de 1,16×1013 graus Kelvin, a física é bem conhecida. Para energias entre 1 GeV e 100 GeV, podemos dizer que a física é razoavelmente conhecida. Para energias acima de 100 GeV as previsões dependem do modelo de física de partículas adotado e acima de 1015 GeV são muito especulativas. Para energias acima de 1019 GeV a própria gravitação precisa ser quantizada, mas ainda não há teoria para isso.

A seguir apresentaremos, de forma simplificada, um esquema de como ocorreu a nucleosíntese primordial5 5 Para uma descrição detalhada sugerimos, o excelente livro de Steven Weinberg, Os Três Primeiros Minutos. de acordo com o MPC. As energias de ligação dos quatro primeiros núcleos leves, deutério, trítio (3H) (1 próton e 2 nêutrons), 3He e 4He, são, respectivamente, 2,22 MeV (MeV, um milhão de eletrons-volt), 6,92 MeV, 7,72 MeV e 28,3 MeV. Assim, quando a temperatura6 6 A seguir suporemos que a constante de Boltzman ( kB) é igual a unidade, de tal forma que um grau Kelvin é, aproximadamente, igual a 8.62 × 10 –5 eV. Suporemos ainda que a velocidade da luz c é também igual a unidade, de tal forma que tanto massa como temperatura podem ser expressas em unidade de energia. do universo atingiu esses valores deve-se esperar que a formação desses núcleos foi favorecida. Na verdade, devido ao fato de que a razão entre a densidade numérica de bárions (nb) e a densidade numérica de fótons (ng) no universo é muito pequena (h º nb/ng ~ 10–9) a formação desses elementos ocorreu a uma temperatura (TN) um pouco mais baixa (TN ~ 109 graus Kelvin, ou energias médias de 0,1 MeV). Como o número de fótons é muito grande, mesmo que seja energeticamente possível formar núcleos de deutério (que é necessário para formar hélio) para T 2,22×1010 graus Kelvin (energias médias de 2,22 MeV), muitos fótons ainda terão energia suficiente para desassocia-los. Temos ainda que: 1) a temperatura em que ocorreu a nucleosíntese é bem menor que 1 GeV e portanto estamos em uma faixa de energia em que a física é bem conhecida; 2) Os fótons são dominantes nessa época. Embora a massa do próton (mp ~ 1000 MeV), seja um pouco menor do que a massa do nêutron (mn) (Q = mn – mp = 1,293 MeV), como os fótons são muito mais numerosos (h ~ 10–9), eles dominavam, apesar de possuirem uma energia média menor que a massa dos bárions.

Quando a temperatura do universo era da ordem de 5×1011 graus Kelvin (energias médias de ~ 50 MeV), sabemos que estavam presentes as seguintes partículas: nêutrons, prótons, fótons, elétrons, pósitrons, neutrinos do elétron e do múon e suas anti-partículas. Essas partículas mantinham equilíbrio através das interações fraca e eletromagnética. A essa temperatura a razão entre a densidade numérica de nêutrons (nn) e a de prótons (np), nn/np = exp[–Q/T], era da ordem da unidade. Só foi possível manter essas densidades de equilíbrio, através da interação fraca, até uma temperatura da ordem de Tc ~ 1010 graus Kelvin (energias médias de ~ 1 MeV). Após a temperatura do universo chegar a Tc, a razão nn/np, que era então aproximadamente igual a 1/6, foi congelada e só pôde ser alterada devido ao decaimento do nêutron. A nucleosíntese ocorreu muito rapidamente quando o universo atingiu a temperatura TN ~ 109 graus Kelvin e, a esta temperatura, devido ao decaimento do nêutron, a razão entre o número de nêutrons e o número de prótons tinha diminuido para o valor nn/np = 1/7. Nessa temperatura deutério pode ser formado rapidamente, assim como trítio e 3He. Grande parte do deutério e de 3He converteu-se em 4He. Supondo que a grande maioria dos nêutrons terminaram em 4He, e como cada núcleo de 4He possui dois nêutrons, não é difícil concluir que a fração da massa total de 4He é igual a Y = . Assim, com nn/np = 1/7, obtemos que Y = 0,25, que significa que aproximadamente 25% da matéria bariônica no universo está na forma de hélio. A medida que as reações que convertem deutério e trítio em hélio prosseguem a fração da massa total dessas quantidades diminui, o que leva a taxa dessas reações a ficarem pequenas de tal forma que a abundância desse elementos congela em aproximadamante 10–5 (deutério) e 10–4 (trítio). Como vimos acima, a produção de elementos mais pesados que o 4He, envolvendo, por exemplo, dois núcleos de hélio ou hélio e hidrogênio, é suprimida pois não há isótopos estáveis com número de massa 5 ou 8. Além disso, reações do tipo 4He +4He +4He ®12 C são pouco prováveis. Pequenas quantidades (10–10 – 10–9) de lítio 7 (7Li, 3 prótons e 4 nêutrons) são ainda produzidas, por exemplo, através da reação 4He + 3H ®7 Li.

Vimos acima que a abundância de 4He depende crucialmente da razão nn/np quando a temperatura do universo era igual TN ~ 109 graus Kelvin. Esta razão, por sua vez, depende de dois fatores: 1) do valor de nn/np em Tc, temperatura da radiação no instante em que a interação fraca não foi mais capaz de manter o equilíbrio; 2) da meia vida do nêutron. O equilíbrio deixa de existir quando a taxa de reação (G µ T5), responsável pela inter-conversão entre nêutrons e prótons, e que diminui a medida que o universo expande, é igual a taxa de expansão (H µ KT2 - onde K depende do número de partículas relativísticas que contribuem para a densidade de energia da radiação). Havendo, nessa época, um número maior de espécies relativísticas, a temperatura Tc seria mais elevada e, consequentemente, maior o valor da taxa de expansão do universo (e, portanto, da razão nn/np) quando ele se encontrava a esta temperatura. Assim, o universo atinge a temperatura TN mais rapidamente, e, portanto, o nêutron terá menos tempo para decair, implicando em um aumento da razão nn/np em TN e, consequentemente, uma maior abundância de 4He. Este resultado é importante pois a princípio nos permite impor limites ao número de famílias (tipos) de neutrinos (ou de outra espécie relativística). Portanto, vemos que a importância da nucleosíntese primordial não se restringe apenas à cosmologia, pois ela também é capaz de impor restrições à própria física de partículas elementares.

Como argumentamos, além de 4He, a nucleosíntese primordial permite, através de códigos computacionais elaborados, quantificar também as abundâncias de D, 3He e 7Li. Os resultados dependem, essencialmente, de um único parâmetro: a quantidade de bárions no universo ou, de forma equivalente, do parâmetro h, definido acima. Ao compararmos as observações com as previsões teóricas, é preciso considerar que as abundâncias primordiais desses elementos podem ter sido alteradas pela produção (ou destruição) dos mesmos em processos astrofísicos ocorridos após a nucleosíntese primordial (em estrelas, por exemplo). Acredita-se que as abundâncias de elementos leves em regiões no universo de baixa metalicidade (regiões pobres em carbono, nitrogênio, oxigênio etc) são representativas das abundâncias primordiais. Existe uma concordância entre teoria e observações se a razão entre o número de bárions e o número de fótons estiver compreendida entre 3.4×10–10 < h < 6.9×10–10. Isso implica o limite, 0.02 Wb 0.05.7 7 Em cosmologia é comum expressarmos a densidade de energia do universo em unidades de uma densidade crítica, r c = ~ 1,88 × 10 –29 h 2 g/cm 3, onde G é a constante universal da gravitação e h é aqui a constante de Hubble em unidades de 100 km/s Mpc –1. Aqui W b = , é a razão entre a densidade de bárions e a densidade crítica. , para o parâmetro de densidade dos bárions Os bárions no universo encontram-se hoje, principalmente, sob a forma de gás em aglomerados de galáxias e em estrelas. Os resultados da nucleosíntese primordial indicam que os bárions contribuem, no máximo, com 5% da densidade crítica (rc). Como mencionado na seção anterior, desde a década de 30 com Zwicky, há indicações de que existe uma grande quantidade de matéria não luminosa na escala de galáxias e aglomerados. Diferentes tipos de observações convergem para um valor em torno de 30% de rc para a densidade dessa matéria escura. Concordância com a nucleosíntese primordial implica, portanto, que a maior parte da matéria escura não é constituida de bárions e, consequentemente, possui uma natureza exótica. Entender qual é a natureza da matéria escura não bariônica é um das questões em aberto da cosmologia atual.

5. A radiação cósmica de fundo8 8 Parte desta seção basia-se no artigo "A expansão do universo" de I. Waga.

"Arno and I of course were happy to have any sort of answer to our dilemma. Any reasonable explanation would have probably made us happy. In fact, I do not think that either of us took the cosmology very seriously at first. ... So I thought that we should report our result as a simple measurement: the measurement might be true after the cosmology was no longer true"

Robert W. Wilson, "Discovery of the cosmic microwave background"

Como vimos, em 1948 Gamow e Alpher sugeriram a idéia de que o universo primordial foi dominado por radiação. Uma componente remanescente dessa radiação é constituida de fótons, que formam hoje o que chamamos de radiação cósmica de fundo (RCF) de microondas. Esta radiação foi descoberta acidentalmente em 1964 pelos rádio-astrônomos americanos Arno Allan Penzias e Robert Woodrow Wilson, dos Laboratórios Bell. Publicaram no Astrophysical Journal seus resultados e no mesmo volume seus compatriotas R.H. Dicke, P.J.E. Peebles , P.G. Roll e D.T. Wilkison, que estavam montando uma antena para detectar essa radiação, apresentaram a interpretação correta do observado, isto é, a de que Penzias e Wilson haviam detectado uma radiação remanescente do início do universo. A existência da RCF já havia sido prevista no final da década de quarenta por Gamow e seu grupo. Em 1948, Alpher e Herman calcularam pela primeira vez a temperatura que essa radiação teria hoje. O valor obtido, 5 graus Kelvin, é bastante próximo ao valor aceito atualmente (~ 3 graus Kelvin). Até meados da década de 50, tanto Gamow como Alpher e Herman fizeram algumas estimativas da temperatura dessa radiação de fundo obtendo resultados que variaram entre 5 graus Kelvin e 50 graus Kelvin. Entretanto, em nenhum dos trabalhos desse período foi sugerido observar essa radiação e nem fica claro que ela poderia ser observada. Alpher e Herman afirmaram posteriormente que na época eles foram informados por rádio astrônomos que não existiam condições técnicas para detectá-la. Entretanto, segundo alguns autores, essas condições existiam e o intrigante é então entender porque passaram-se quase vinte anos para sua observação.

A característica principal da RCF é que ela é uma radiação de corpo negro9 9 Chama-se radiação de corpo negro aquela produzida em uma cavidade fechada, isolada e que se encontra a uma temperatura uniforme T. As paredes da cavidade e a radiação estão em equilíbrio e ambas estão a essa mesma temperatura. As propriedades da radição dependem apenas da temperatura, e a distribuição de sua intensidade como função do comprimento de onda é chamada de distribuição de Planck. Embora a forma dessa distribuição seja sempre a mesma, o pico depende da temperatura. Quanto maior a temperatura menor o comprimento de onda onde ocorre o pico da distribuição. Uma estrela como o Sol, por exemplo, pode ser modelada por um corpo negro. Sendo a temperatura superficial do Sol aproximadamente igual a 5500 graus Kelvin, o pico de sua radição ocorrerá para um comprimento de onda de ~ 5300 angstrom. Por isso é que vemos o Sol amarelo. , cuja temperatura é 2,725 graus Kelvin. Embora altamente isotrópica, a RCF possui pequenas anisotropias intrínsecas e uma anisotropia dipolar. Essa anisotropia dipolar, da ordem de DT/T ~ 10–3, decorre do movimento da Terra (v ~ 370 km/s) em relação ao referencial no qual a RCF seria isotrópica. Das anisotropias intrínsecas da RCF, que são da ordem de DT/T ~ 10–5, muita informação pode ser extraida.

É claro que, se o universo se expande, no passado as galáxias estavam mais próximas umas das outras do que elas estão hoje. As distâncias no universo diminuem quando voltamos no tempo, a sua densidade aumenta e ele torna-se mais quente. Poderíamos voltar no tempo até uma época em que as partículas que constituem o universo estivessem tão próximas umas das outras que a própria noção de galáxia perderia sentido. Voltemos então até a época em que a matéria no universo estava sob a forma de um plasma de hidrogênio, isto é, havia elétrons, prótons, alguns núcleos leves mas não átomos de hidrogênio. Havia também fótons que interagiam fortemente com os elétrons através do espalhamento Compton. O livre caminho médio dos fótons era muito pequeno, de tal forma que se pudéssemos olhar o universo naquela época, seria como se estivéssemos olhando-o através de uma densa neblina. Os elétrons quando tentavam combinar-se com os prótons para formar átomos de hidrogênio eram sempre impedidos por fótons de energia superior à energia de ligação do átomo de hidrogênio (13,6 eV). Quando a temperatura do universo, que caía devido a expansão, chegou a aproximadamente 3.000 graus Kelvin, isto é, quando a idade do universo era de 300.000 anos, os fótons não possuíam mais energia suficiente para manter o hidrogênio ionizado. Formaram-se então átomos neutros e os fótons seguiram a partir daí livres, sem interagir com a matéria. Essa época é chamada de recombinação, e a região a partir da qual os fótons seguiram livres é chamada de superfície de último espalhamento. Esses fótons, que seguiram praticamente livres após a recombinação, é que constituem a RCF detectada por Penzias e Wilson.

O importante é que os fótons, elétrons e prótons, antes da recombinação, estavam fortemente acoplados formando portanto, efetivamente, um único fluido. Assim, os fótons após desacoplarem carregam com eles a informação de como era o universo àquela época. A existência de inomogeneidades no fluido cósmico naquela época, irá imprimir pequenas anisotropias na RCF, isto é, ela não será perfeitamente uniforme, mas existirão pequenas variações em sua temperatura. De lá para cá a RCF apenas esfria devido à expansão do universo, mas, se nenhum outro efeito as apagou, as anisotropias permanecem10 10 Na realidade algumas anisotropias na RCF são também geradas após o desacoplamento. . A coleta, processamento e análise dessas anisotropias é um trabalho de grande dificuldade e que envolve hoje centenas de pessoas em todo o mundo. Esse trabalho tem nos dado informações preciosas sobre diversos parâmetros cosmológicos. Um dos parâmetros sobre o qual recai grande atenção é a curvatura espacial do universo.

Como a RCF pode nos dar essa informação? Em geral uma flutuação no espaço, como a da temperatura da RCF, pode ser descrita através de uma superposição de modos normais. No espaço plano, podemos decompor a flutuaçao em ondas planas, tendo cada qual um comprimento de onda l. Como as flutuações de temperatura são muito pequenas (DT/T ~ 10–5), mostra-se que os modos evoluem de forma independente uns dos outros e podem ser estudados separadamente. Os modos com grandes l evoluem pouco. Isso se dá porque a microfísica só pode atuar em escalas menores que o horizonte de partícula11 11 Horizonte de partícula é a máxima distância, em um determinado instante, em que é possível existir conexão causal. Em geral a distância de horizonte é da ordem do chamado raio de Hubble c H –1, onde H –1 é da ordem da idade do universo, naquele instante. . Assim, quando se observam anisotropias em grandes escalas angulares, de fato se está observando as anisotropias primordiais, isto é aquelas originadas bem no início do universo e sobre as quais a ação de processos físicos ainda não se fez presente. Já as escalas menores que o horizonte à época da recombinação sofrem a ação de duas forças. Por um lado, a gravidade que tende a aumentar a flutuação, e por outro, a pressão da radiação que se opõe a isso. O resultado é que a flutuação oscila. Cada modo (comprimento de onda) entra no horizonte em instantes distintos, e portanto inicia a oscilação em instantes diferentes. Além disso, a fase e o período de oscilação são distintos também. No instante da recombinação, o modo que atingir o máximo de sua amplitude contribuirá para uma máxima anisotropia. Um outro modo que ainda não chegou ao máximo ou cujo máximo tenha ocorrido um pouco antes, dará uma contribuição menor. Assim, o espectro da perturbação como função da escala angular (q ~ comprimento de onda dividido pela distância à superfície de último espalhamento) apresentará um conjunto de máximos e mínimos. Mostra-se que o valor do comprimento de onda do modo cuja contribuição é máxima é independente de modelo cosmológico. Essencialmente ele só depende da velocidade do som no fluido cósmico na época da recombinação. Contudo, a distância à superfície de último espalhamento depende da curvatura espacial. Por exemplo, essa curvatura nos modelos com curvatura espacial negativa tende a convergir as trajetórias dos fótons que deixam a superfície de último espalhamento em seu caminho até nós. Assim, veremos o máximo das anisotropias em uma escala angular menor do que em um universo sem curvatura espacial. Portanto, a localização do primeiro pico do espectro nos dá informação sobre a curvatura espacial do universo. Medidas recentes de anisotropias da RCF, realizadas com o satélite Wilkinson Microwave Anisotropy Probe (WMAP), confirmaram observações anteriores indicando que o universo é aproximadamente chato (sem curvatura espacial). Esse resultado possui um significado extraordinário pois, entre outras coisas, confirma uma previsão do chamado cenário inflacionário do universo.

6. A inflação e as condições iniciais no universo primitivo

"At this point the focus of my career was very far from cosmology. ... Cosmology is for the most part a subfield of astrophysics, with the added drawback of being less developed than most branches of science. How much can we know, I asked my self, about the first seconds of the existence of the universe? At that time, cosmology seemed to me to be the kind of subject about which you could say anything you like - how could anyone prove you wrong?"

Alan H. Guth, "The Inflationary Universe - The Quest for a New Theory of Cosmic Origins"

A década de 70 para a física de partículas elementares, e a de 80 para a cosmologia foram marcadas por grandes desenvolvimentos. Esses dois campos da física, antes quase desconexos, tornaram-se, a partir da década de 80, cada vez mais interdependentes. Progressos em uma área passaram a influenciar diretamente a outra, trazendo como conseqüência uma profícua interação entre cosmólogos e físicos de partículas. Pelo lado da física de partículas, as experiências parecem confirmar que seu modelo padrão (SU(3)C Ä SU(2)L Ä U(1)Y) descreve adequadamente as interações até energias da ordem de 100 GeV. Segundo o modelo padrão da física de partículas existem três tipos de partículas fundamentais: léptons (elétron, múon, tau e seus neutrinos), quarks e bósons de gauge (fóton, glúons, e as partículas W e Z). Há também a possibilidade de existir um quarto tipo de partícula, de spin zero, denominada Higgs, mas que ainda não foi observada. Os quarks e os glúons interagem através da interação forte enquanto que os léptons, fótons, W e Z (e os quarks também), interagem através de uma combinação das interações fraca e eletromagnética. Apesar de bem sucedido, poucos físicos acreditam que o modelo padrão da física de partículas seja definitivo. Embora correto para as energias hoje acessíveis, ele é bastante complicado e, de certa forma, arbitrário. Por exemplo, em seu modelo mais simples, existem cerca de 20 parâmetros livres!

A insatisfação dos físicos de partículas levou-os a incorporar seu modelo padrão em esquemas mais simples, porém mais amplos. Este é o caso das chamadas teorias de grande unificação (TGU). A mais simples dessas teorias foi proposta em 1974 por H.M. Georgi e S.L. Glashow, ambos da Universidade de Harvard. A idéia básica das TGU é que, acima de uma certa escala de energia, as forças forte, fraca e eletromagnética estariam unificadas em uma única força. Segundo essas teorias, existe um grupo de simetria que, em altíssimas energias, relaciona essas forças, de tal forma que quarks podem transformar-se em léptons e vice-versa. Além disso, há ingredientes nessas teorias que permitem explicar porque no universo temos mais matéria do que anti-matéria. Como no presente as interações forte e eletro-fraca são distintas, essa simetria foi quebrada em algum instante da evolução do universo. Assim, uma das conseqüências das TGU é que o universo, ao esfriar devido à expansão, sofreu uma série de transições de fase. Outro aspecto que deve ser salientado é que as TGU envolvem energias (» 1015 GeV) bem maiores que as obtidas nos modernos aceleradores. Um laboratório natural para testar as predições dessas teorias é o universo primitivo no qual colisões com energias extremamente elevadas ocorriam com frequência. Esta tem sido uma forte motivação para os físicos de partículas voltarem-se para a cosmologia.

Vimos nas seções anteriores que o modelo padrão da cosmologia é muito bem sucedido ao explicar o deslocamento espectral para o vermelho da luz de galáxias distantes, a existência de uma radiação cósmica de fundo e a abundância de elementos leves. Em todos esses casos, os observáveis e/ou processos físicos envolvidos tiveram origem em uma época em que a idade do universo era superior a um segundo e sua temperatura inferior a 1010 graus Kelvin. Embora por si só este sucesso já seja espetacular, os desenvolvimentos em física de partículas acima mencionados permitiram que físicos e cosmólogos procurassem descrever as propriedades do universo para altíssimas escalas de energia ou instantes bem primordiais de sua evolução (t 1s). O cenário inflacionário é um exemplo dessa busca.

Embora simples, o modelo padrão da cosmologia apresenta também alguns "mistérios", ou ainda, como encontramos na literatura, "problemas cosmológicos". Alan Guth, físico americano, atualmente no MIT, ao sugerir em 1979 o mecanismo para uma possível solução para esses "enigmas" deu uma contribuição teórica marcante à cosmologia. O cenário inflacionário, como ficou conhecida a proposta de Guth, de certa forma revolucionou o pensamento na cosmologia. Logo ficou claro que o cenário inflacionário original de Guth, apresentava dificuldades de implementação. Novos modelos foram sugeridos por vários autores, entre eles Andrei D. Linde (então na Instituto Físico Lebedev) e Paul J. Steinhardt (à época na Universidade da Pensilvânia).

De acordo com o MPC, para descrever a fase inicial de evolução do universo algumas hipóteses são consideradas. Por exemplo, admite-se homogeneidade espacial e isotropia, e que a gravitação é bem descrita pela teoria da relatividade geral. Além disso, supõe-se que o universo primordial pode ser descrito como um gás quente em equilíbrio térmico e que toda transformação no estado da matéria e da radiação ocorreu suavemente, não tendo um impacto significativo na história térmica do universo. Em outras palavras, esta última hipótese quer dizer que a expansão do universo é adiabática (isentrópica), isto é, a entropia do universo não é alterada significativamente por nenhum processo durante sua evolução. Como veremos, esta hipótese é drasticamente modificada pelo cenário inflacionário.

O primeiro enigma do MPC é conhecido como o problema da chateza (ou problema da entropia) do universo. Ele foi apresentado pela primeira vez por R.H. Dicke e P.J.E. Peebles, ambos da Universidade de Princeton, em 1979.

Segundo o modelo padrão da cosmologia, o universo possui curvatura espacial constante, que pode ser nula, positiva ou negativa. Como exposto anteriormente, em cosmologia é comum expressarmos a densidade de energia de qualquer componente existente no universo em unidades de uma densidade crítica (rc). A razão entre a densidade de energia de uma componente ("i") qualquer e a densidade crítica é chamada de parâmentro de densidade. Para denotar essa quantidade usamos a letra grega Ômega (Wi = i/c). Denotamos por WTOTAL, a soma do parâmetro de densidade de todas as componentes existentes no universo. Temos um universo espacialmente chato (curvatura nula) se WTOTAL = 1. Em um universo com curvatura espacial positiva temos WTOTAL > 1, e a curvatura espacial é negativa se WTOTAL < 1.

Em geral, a quantidade WTOTAL é uma função do tempo. Por exemplo, se em um instante inicial arbitrário da evolução cósmica temos WTOTAL > 1, mostra-se que, com o passar do tempo, o valor de WTOTAL aumenta, ou seja, a diferença desta quantidade para a unidade é sempre positiva e cada vez maior. No caso em que o universo inicia com WTOTAL < 1, temos a situação inversa, isto é, WTOTAL diminui com o passar do tempo tendendo ao valor zero assintoticamente. Somente no caso em que WTOTAL é exatamente igual a unidade, esta quantidade não varia com o tempo. Assim, WTOTAL = 1 representa um estado de equilíbrio instável, já que a existência de qualquer pequeno desvio do valor unitário tende a aumentar, em valor absoluto, com o tempo.

Mas qual é o valor de WTOTAL hoje? Sendo bastante conservadores, podemos dizer que o valor atual de WTOTAL está compreendido entre 0,01 < WTOTAL < 2. Considerando este intervalo, podemos então perguntar qual era o valor de WTOTAL no início do universo? Um cálculo simples mostra que quando a temperatura do universo era, aproximadamente, igual a 1010 graus Kelvin (idade do universo da ordem de um segundo), WTOTAL era igual a unidade com uma precisão de 15 casas decimais. Se formos mais para o início da evolução cósmica, por exemplo, quando consideramos uma idade para o universo de apenas 10–28 segundos, obtemos que WTOTAL era igual a unidade com uma precisão de 49 casas decimais! Entender porque o universo inciou sua evolução com um valor para WTOTAL tão finamente ajustado à unidade é justamente resolver o problema da chateza do universo. Mostra-se ainda que resolver esse problema é equivalente a resolver o chamado problema da entropia do universo, que consiste em responder a pergunta de porque a entropia (S) do universo, que segundo o MPC é constante, é tão elevada (S > 1087)!

O segundo problema do MPC é conhecido como o problema do horizonte, ou o problema da isotropia. O horizonte (de partícula) pode ser pensado como a máxima distância com a qual um observador, em um determinado instante, pode ter conexão causal. De acordo com a relatividade especial, sabemos que a máxima velocidade com que uma informação pode se propagar é a velocidade da luz. Suponhamos então que a idade do universo seja 14 bilhões de anos e admitamos também, para efeito de raciocínio, que ele seja estático. É claro que um fóton que tenha saído em t = 0, em nossa direção, de uma região do universo que diste da Terra mais do que 14 bilhões de anos luz, não terá tido tempo de chegar até nós. Neste exemplo, a distância de horizonte é igual a 14 bilhões de anos luz e significa que não podemos ter acesso a nenhum tipo de informação vinda de regiões mais distantes. Caso não trabalhássemos com a hipótese de um universo estático e tivéssemos levado em conta a expansão, o horizonte seria maior, pois enquanto o fóton viaja até nós, a distância que ele já percorreu, devido à expansão do espaço, aumenta. Contudo, mesmo considerando a expansão, a distância de horizonte não será muito maior do que o valor estimado no caso estático.

Na seção anterior vimos que a radiação cósmica de fundo sofreu seu último espalhamento quando a idade do universo era de aproximadamente 300.000 anos. Mostra-se que a distância de horizonte, nesta época, era da ordem de 600.000 anos luz. Vimos também, na seção anterior, que a radiação cósmica de fundo é altamente isotrópica, isto é, a menos de pequenas inomogeneidades, sua temperatura é da ordem de 3 graus Kelvin qualquer que seja a direção apontada pela antena que a detecta. Acontece que, dois fótons vindos de direções opostas, saíram de regiões, na superfície de último espalhamento, que estavam separadas por uma distância cem vezes maior que a distância de horizonte na época! Isto significa que, no quadro usual do MPC, essas regiões ainda não tinham tido tempo de se comunicar. O problema da isotropia ou do horizonte, é então entender como regiões sem conexão causal naquela época poderiam gerar o que hoje nos chega com o mesmo tipo de informação. Observe que os fótons foram emitidos a partir dessas regiões e seguiram livres, apenas esfriaram devido à expansão. Para ilustrar esse problema, suponhamos que em uma sala de aula cheia de estudantes um professor pedisse que cada aluno, sem se comunicar com nenhum outro colega, escrevesse um número qualquer em um papel. Após os papéis serem entregues, ele constata que todos os números são iguais. É difícil entender essa coincidência! É mais razoável pensar que os estudantes estabeleceram alguma forma de comunicação antes de entrarem na sala. De forma análoga, no âmbito do MPC não há uma explicação dinâmica para a isotropia da radiação cósmica de fundo.

O terceiro problema do MPC que abordaremos é sutil e envolve alguns aspectos mais técnicos. Uma antiga questão da cosmologia é entender como as galáxias (e outra estruturas, como aglomerados de galáxias) se formaram. Desejamos saber, por exemplo, qual é a origem das perturbações na matéria que posteriormente, por instabilidade gravitacional12 12 A gravitação amplifica as inomogeneidades na distribuição de matéria. Isto significa que se uma determinada região possui um densidade um pouco maior do que a média, o campo gravitacional gerado por ela tende a atrair mais e mais massa para a região, aumentando a inomogeneidade. , cresceram e geraram essas estruturas. No âmbito do modelo padrão não há uma explicação para a origem dessas perturbações na densidade de energia. Esse problema torna-se mais agudo quando observamos que o espectro de flutuações de densidade precisa ter características especiais. Mas o que é exatamente esse espectro de flutuações de densidade? Para entender melhor o significado dessa quantidade, vamos denotar por r + dr a densidade de energia em um ponto arbitrário do espaço. Aqui r é a densidade média de energia (função apenas do tempo) e dr uma pequena perturbação que varia de ponto a ponto. Tanto r como dr, decrescem com o tempo devido à expansão. Contudo, o contraste de densidade, que é a razão dr/r, em geral, cresce com o tempo. Da mesma forma que podemos decompor uma onda sonora (ou luminosa) em uma soma de ondas de forma conhecida, cada qual com um determinado comprimento de onda (l), podemos decompor o contraste de densidade em uma soma de ondas planas, cada onda possuindo um certo valor para l. O que chamamos de espectro de flutuações de densidade é a intensidade com que cada componente, com comprimento de onda definido, contribui na soma que gera a perturbação. Na década de 70, antes do surgimento da idéia de inflação, Edward Harrison da Universidade de Massachusetts e o famoso físico russo Yakov B. Zeldovich, de forma independente, mostraram que o mais simples espectro de perturbações em acordo com as observações cosmológicas possui a característica de ser invariante de escala. Este é um termo técnico que signifca que a contribuição de cada escala é a mesma, ou de forma mais precisa, é a mesma quando a escala (comprimeto de onda) é do tamanho do raio de Hubble13 13 O raio de Hubble é um comprimento que varia com tempo e que é igual a velocidade da luz ( c) dividida pelo parâmetro de Hubble (H). .

Na literatura é comum encontrarmos um outro problema do MPC que pode ser resolvido pelo cenário inflacionário. É o chamado problema da super-abundância de monopolos magnéticos. Esses monopolos são previstos surgir se certos tipos de transição de fase de grande unificação ocorreram no universo primitivo. Argumentos de causalidade impõem um limite inferior para a densidade numérica dessas partículas. Mesmo considerando a diluição desses objetos, devido ao processo de aniquilação monopolo-antimonopolo, o resultado obtido está muito distante do que seria aceitável pelas observações.

A seguir procuraremos descrever, de forma qualitativa, como o cenário inflacionário pode resolver os problemas cosmológicos acima mencionados. Uma abordagem mais quantitativa e detalhada exigiria que entrássemos em aspectos técnicos que estão fora do escopo deste texto.

Alan Guth, no final da década de 70, observou que os problemas cosmológicos poderiam ser resolvidos se a hipótese de adiabaticidade da expansão do universo estivesse incorreta. Ele sugeriu um quadro no qual há uma grande produção de entropia logo após a transição de fase de grande unificação. Semelhante ao que observamos quando fervemos uma panela com água, essa transição de fase ocorreria pela nucleação e crescimento de bolhas da nova fase (fase de simetria quebrada) dentro da velha. Existe uma temperatura crítica (que corresponde a energias da ordem de 1014 GeV) em que essa transição sucederia. Contudo, é preciso que este processo de transição de fase seja lento para que os problemas cosmológicos possam ser resolvidos. Segundo o modelo de Guth, antes da transição de fase, o universo entraria em uma fase de super-esfriamento e de expansão acelerada (inflação), na qual haveria um crescimento exponencial de todas as distâncias. Para resolver os problemas cosmológico é necessário um fator de crescimento das distâncias de pelo menos 28 ordens de magnitude (1028). Nessa fase a temperatura do universo decresceria também exponencialmente, pelo mesmo fator, e toda a matéria existente seria diluida. Finalmente a transição de fase se completaria com uma rápida termalização do calor latente (energia do vácuo acumulada na parede das bolhas), e o universo seria reaquecido a uma temperatura próxima à temperatura crítica. Após a inflação o universo entraria na fase de expansão usual desacelerada. A geração de entropia ocorreria com o reaquecimento do universo e o problema da chateza seria também resolvido. Observamos que, com o crescimento exponencial das distâncias na fase inflacionária, qualquer curvatura existente seria tremendamente suprimida. O problema de horizonte (ou isotropia) seria também resolvido, pois a região que constituiria hoje o universo observável, adviria de uma região bem menor que o horizonte naquela época e, portanto, poderia estar causalmente conectada.

O cenário inflacionário como proposto por Guth depende para o seu sucesso de dois fatos. Em primeiro lugar é preciso que o universo infle por um intervalo de tempo de pelo menos 10–32 segundos. Para isso, a taxa de nucleação de bolhas deve ser inicialmente pequena. Caso contrário, a transição de fase se completaria rapidamente e não daria tempo para que os problemas cosmológicos fossem resolvidos. Em segundo lugar, é necessário que após o universo ter inflado suficientemente, a transição de fase ocorra subitamente com uma rápida termalização da energia. Infelizmente essas duas condições são incompatíveis. Mostra-se que existe um valor assintótico para o raio da bolha da nova fase que depende do instante em que ela é formada. Quanto mais tarde ela se forma menor é esse raio. Assim, o intervalo de tempo necessário para resolver os problemas cosmológicos impede que a transição de fase complete-se adequadamente. Técnicamente diz-se que não há percolação, isto é, ao final do processo, não há uma região finita considerável na fase de simetria quebrada (nova fase), que pudesse constituir o que hoje é o universo observado.

O problema do cenário original descrito acima, de uma volta bem sucedida ao estágio de expansão desacelerada, levou Linde e posteriormente Steinhardt e Andreas Albrecht a sugerirem um novo cenário inflacionário. Esses autores observaram que, sob certas condições especiais, a inflação poderia acontecer após a transição de fase. Nesse novo quadro, o universo teria emergido de uma única bolha ou, mais exatamente, de uma única região de flutuação. Tanto no cenário original como no novo cenário inflacionário, o campo que dirige e gera a inflação é o campo de Higgs, que é também responsável pela transição de fase de grande unificação. Mostra-se, contudo, que para funcionar o novo cenário inflacionário necessita que esse campo tenha interações extremamente fracas, o que não é natural nessas teorias. Assim, a principal crítica a esses modelos, é que estariamos simplesmente transferindo um ajuste fino na cosmologia para um ajuste fino na física de partículas. Sem uma sólida motivação na física de partículas, os cenários inflacionários perdem grande parte de seu apelo. Os atuais modelos inflacionários, em geral, fazem uso de um campo escalar cuja única função é gerar a inflação. Embora não exista um modelo inflacionário que possamos chamar de "modelo inflacionário padrão", a idéia e o mecanismo através do qual os problemas cosmológicos são resolvidos permanecem válidos. Acreditamos que no futuro, com novos desenvolvimentos na física de partículas de altas energia, seja possível encontrar um cenário inflacionário satisfatório e bem motivado.

7. A aceleração cósmica14 14 Parte desta seção basia-se no artigo "A Expansão do universo" de I. Waga, ao qual nos referimos para uma descrição mais detalhada sobre o tema.

"A scientist commonly professes to base his beliefs on observations, not theories. Theories, it is said, are useful in suggesting new ideas and new lines of investigation for the experimenter; but "hard facts" are the only proper ground for conclusions. I have never come across anyone who carries this profession into practice - certainly not the hard-headed experimentalist, who is the more swayed by his theories because he is less accustomed to scrutinise them. Observation is not sufficient. We do not believe our eyes unless we are first convinced that what they appear to tell us is credible."

Arthur Eddington, "The Expanding Universe"

Uma questão relevante que continua recebendo grande atenção dos cosmólogos nesses últimos anos, é a questão da aceleração cósmica. Isto é, saber se a velocidade de recessão das galáxias está aumentando ou diminuindo com o tempo. Observações de supernovas distantes sugerem que a expansão está acelerando. Isso não significa contudo que a expansão do universo foi sempre acelerada. Na verdade o que as observações indicam é que o universo entrou em uma fase de aceleração mais recentemente e que no passado remoto a expansão era desacelerada.

Uma supernova é a explosão de uma estrela em uma fase final de evolução. Existem alguns tipos distintos de supernovas, classificadas de acordo com as características do espectro da luz que emitem. As supernovas do tipo I são aquelas que não apresentam linhas de hidrogênio em seu espectro. Elas são ditas do tipo Ia quando há fortes linhas de silício. As supernovas do tipo Ia (SN Ia) são ferramentas muito úteis em cosmologia: constituem o que costuma-se chamar de "vela padrão".

Em termos de evolução estelar, as SN Ia começam em um tipo de estrela chamada "anã branca". Uma anã branca é uma estrela muito densa. É como se toda a massa do Sol estivesse confinada em uma região do tamanho da Terra. A estabilidade de uma anã branca é resultado de um balanço entre a força gravitacional atrativa e uma força repulsiva de origem quântica, que decorre do princípio de exclusão de Pauli entre elétrons. Por conta disso uma anã branca não pode ter qualquer massa. Existe um limite de massa, denominado "limite de Chandrasekhar" (que é igual a aproximadamente 1,4 massas solares), acima do qual a repulsão quântica não consegue mais contrabalançar a atração gravitacional.

Em geral uma anã branca vai lentamente esfriando-se e apagando. No entanto se ela fizer parte de um sistema binário, pode começar a acretar massa proveniente de sua companheira tornando-se mais e mais densa. Esse acúmulo de massa não se mantém indefinidamente: quando a estrela atinge o limite de Chandrasekhar, ela começa a colapsar violentamente. Com o colapso o centro da estrela atinge temperaturas extremamente elevadas o que provoca o gatilho da cadeia de reações termonucleares. Uma explosão termonuclear tem então início e o material da estrela é violentamente lançado no espaço, chegando a atingir velocidades da ordem de 10.000 km/s. Temos então uma SN Ia, que em seu referencial pode levar algumas semanas para atingir o máximo e alguns meses para terminar.

A principal característica das SN Ia que as torna de grande importância em cosmologia é a sua homogeneidade. Como elas sempre surgem devido a acreção de massa de anãs brancas em sistemas binários, essa homogeneidade é esperada. Outra característica importante das SN Ia é sua alta luminosidade. No pico ela atinge cerca de dez bilhões de vezes a luminosidade do Sol. Uma galáxia como a nossa possui 100 bilhões de estrelas, e portanto, o brilho de uma SN Ia é comparável ao de uma galáxia. Essa propriedade, de ser muito luminosa, permite que possamos observar SN Ia a grandes distâncias. As SN Ia apresentam também algumas dificuldades. Por exemplo, as supernovas do tipo Ia são muito raras. Elas ocorrem a uma taxa de aproximadamente uma a cada 400 anos por galáxia. Assim, para observá-las com uma certa frequência, foi desenvolvida uma estratégia onde há o monitoramento de aproximadamente 100 campos de galáxias, cada qual com mil galáxias. Além disso, supernovas não são propriamente objetos e sim eventos que ocorrem muito rapidamente. É como um fogo de artifício (como um sinal de localização) que sobe ao céu, brilha e que aos poucos apaga. Uma SN Ia com desvio para o vermelho z ~ 0.5, vista aqui na Terra, atinge o máximo em poucos dias e após algumas semanas já não é mais possível detectá-la nem com o mais potente telescópio.

Mas como é que as SN Ia podem nos indicar que o universo está em expansão acelerada? A razão é simples. As distâncias em um universo em expansão acelerada são maiores do que em um universo que desacelera ou expande-se com velocidade constante. Assim, se o universo estiver em expansão acelerada, supernovas distantes parecerão menos luminosas do que pareceriam se a expansão do universo estivesse desacelerando-se.

Resumindo: o que medimos de uma supernova é o seu desvio para o vermelho e a sua luminosidade aparente. A luminosidade intrínseca é estimada observando-se supernovas próximas cujas distâncias sejam conhecidas, por exemplo, através da observação de Cefeidas nas galáxias onde essas supernovas apareceram. Observe que aqui a hipótese de que as SN Ia formam um conjunto homogêneo é crucial; caso contrário não poderíamos inferir a luminosidade intrínseca das supernovas distantes usando supernovas próximas. Nos últimos anos, dois grupos envolvidos na observação e análise de SN Ia, após análise cuidadosa de amostras com mais de duas centenas de supernovas observadas, chegaram a uma mesma conclusão. Estatisticamente as supernovas distantes são menos brilhosas do que se esperaria em um universo expandindo-se, por exemplo, com velocidade constante. Esse resultado é extremamente importante, é a primeira evidência direta de que o universo está em expansão acelerada. No próximo parágrafo, descreveremos de forma sucinta uma confirmação, totalmente independente, desse resultado e que constitui a segunda evidência direta da aceleração cósmica.

Alguns anos após Hubble descobrir que as nebulosas espirais eram de fato galáxias, ficou claro que elas não se distribuem aleatoriamente no espaço, mas apresentam uma tendência à aglomeração. Existem atualmente mais de quatro mil aglomerados de galáxias catalogados. Esses aglomerados podem ser bem pequenos, como o nosso grupo local de galáxias (que possui ~ 30 galáxias), ou grandes, como os chamados aglomerados ricos, que podem conter milhares de galáxias. Nos últimos anos, um esforço considerável tem sido feito no sentido de determinar, de forma precisa, o conteúdo material dos grandes aglomerados de galáxias. Esses aglomerados, são as estruturas em grande escala que se formaram mais recentemente e os maiores sistemas gravitacionalmente ligados. A determinação do conteúdo material desses aglomerados é muito importante, pois suas propriedades devem se assemelhar às do universo como um todo. Tipicamente a massa total de um aglomerado rico é da ordem de 1014 – 1015 massas solares e, grosso modo, 80% dessa massa está na forma de matéria escura não bariônica. O gás quente que existe no meio intra-aglomerado, detectado através da emissão em raios X, domina o conteúdo bariônico da massa do aglomerado. Ele possui seis a sete vezes mais massa bariônica do que a encontrada nas galáxias. Recentemente, pesquisadores da Universidade de Cambridge na Inglaterra, obtiveram medidas precisas da fração de gás (fgas = ) em vinte e seis aglomerados em equilíbrio, usando o satélite Chandra. Combinando as medidas de fgas com estimativas do parâmetro de densidade dos bárions, advindas da nucleosíntese primordial, é possível determinar o parâmetro de densidade total da matéria. Na prática, ao medir-se fgas adota-se um modelo cosmológico como referência. Tanto a teoria como as simulações numéricas, indicam que fgas não deve depender do desvio para o vermelho do aglomerado considerado. Como fgas depende da distância e, como a distância depende dos parâmetros cosmológicos, se o modelo cosmológico de referência for incorreto, o resultado das medidas indicará uma dependência (variação aparente) de fgas com o desvio para o vermelho. Steve Allen e colaboradores, do Instituto de Astronomia de Cambridge, usaram essa propriedade e confirmaram, de forma independente, os resultados obtidos com supernovas. O universo está em expansão acelerada.

Mas o que pode estar causando a aceleração da expansão do universo? Essa é uma questão crucial para a qual ainda não temos resposta. Na verdade temos algumas respostas possíveis, mas as observações atuais ainda não permitem definir qual delas (ou quem sabe alguma outra) é a adequada. Podemos dividir as diversas possibilidades consideradas até agora em dois grandes grupos. A alternativa mais radical é admitir que a teoria de gravitação que usamos para analisar as observações cosmológicas está incorreta ou incompleta. Nesse grupo há ainda duas possibilidades. A primeira modifica a teoria da gravitação de Einstein, acrescentando um novo termo que só seria relevante quando a curvatura do espaço-tempo é suficientemente pequena, isto é, mais recentemente na evolução cósmica. A segunda possibilidade admite também uma modificação da gravitação, mas de uma forma mais extrema. Segundo essa teoria a aceleração cósmica é a manifestação da existência de uma dimensão espacial extra. Ambas possibilidades tem sido investigadas intensamente e embora existam dificuldades nessas teorias, elas claramente não podem ser descartadas.

A alternativa mais conservadora é manter válida a relatividade geral de Einstein, mas admitir que exista uma componente exótica no universo que causa a aceleração cósmica. A gravidade decorrente da matéria ordinária (prótons, elétrons, fótons etc) é atrativa e portanto ela desacelera a expansão. Assim, é preciso uma outra força ou alguma matéria com propriedades bem distintas da matéria usual para explicar esse fenômeno. A constante cosmológica (L), introduzida por Einstein em seu primeiro modelo cosmológico, é o candidato mais popular capaz de gerar essa repulsão cósmica. Como vimos, ela foi introduzida nas equações de campo da relatividade geral para compatibilizá-las com a idéia de um universo estático. Mas como L pode gerar uma expansão acelerada? Segundo a teoria Newtoniana da gravitação a massa é a fonte de gravidade, e como esta é positiva, a força gravitaçional é sempre atrativa. Para um fluido, por exemplo, o limite Newtoniano deixa de valer quando a pressão é relativamente alta. Isso ocorre para fluidos cuja pressão é da ordem da densidade de energia. Nesses casos é preciso usar a teoria da relatividade. Para a relatividade geral toda energia é fonte de gravitação. De uma forma mais precisa, a "massa efetiva" que gera gravitação é proporcional a densidade de energia mais três vezes a pressão. Assim, existindo uma matéria exótica com uma pressão suficientemente negativa, a "massa efetiva", que gera gravitação será negativa e teremos repulsão gravitacional. A constante cosmológica possui essa propriedade.

Várias vezes na história da cosmologia moderna L foi introduzida quando havia uma discrepância entre teoria e observações. Posteriormente, com a obtenção de melhores dados observacionais ou quando novas interpretações surgiam essa constante era descartada por uma questão de simplicidade. Não é impossível que isso ocorra novamente. Contudo há agora algo novo, que precisa ser explicado, e que torna a questão da constante cosmológica um dos problemas mais importantes (e complicados) da física de partículas e campos. Trata-se da questão da energia do vácuo.

Quando pensamos em vácuo, a maioria de nós associa essa idéia ao espaço vazio, isto é, a de um espaço desprovido de qualquer matéria. Contudo, para o físico de partículas a palavra "vácuo" possui um significado distinto. Para ele vácuo significa o estado de mínima energia de um sistema. Mas como pode o espaço vazio ter energia? Segundo a mecânica quântica, todas as quantidades físicas tendem a flutuar, particularmente isso ocorre também com o estado de vácuo. A teoria indica que, no estado de vácuo, partículas e antipartículas virtuais aparecem e desaparecem no espaço, contribuindo assim para a sua energia.

Em geral, fora da relatividade geral a energia do vácuo não é importante, pois podemos redefini-la através de uma constante aditiva. Contudo, isso não é possível quando lidamos com a gravitação. Segundo a relatividade geral a gravitação é sensível a toda forma de energia, inclusive a do vácuo. É apenas no contexto da gravitação descrita pela relatividade geral que podemos atribuir um valor ou significado absoluto à energia do vácuo. Pode-se mostrar que a condição de que o estado de vácuo seja independente do observador inercial, implica que a sua contribuição à gravidade tenha a mesma forma que a de uma constante cosmológica. Assim, a constante cosmológica efetiva, isto é o L que pode ser observado pelos testes cosmológicos, é a soma de dois termos. O primeiro termo é a chamada constante cosmológica nua, ou seja, um termo nas equações, como o introduzido por Einstein A segunda contribuição é a advinda da densidade de energia do vácuo. O problema é que essa contribuição é muito, mas muito maior que o limite observacional. Há uma discrepância entre as estimativas teóricas e as observações de um fator da ordem de 10120, ou na melhor das hipóteses de 1050! Sem dúvida, essa é a maior divergência conhecida entre teoria e observação. Isso pode significar que: 1) Existe uma espécie de cancelamento (ou quase cancelamento) milagroso entre a constante cosmológica nua e a densidade de energia do vácuo. Esse extremo ajuste fino é inaceitável e precisaria ser explicado. 2)Existe alguma simetria ou mecanismo, que ainda não conhecemos, e que leva a um cancelamento da densidade de energia do vácuo. Nesse caso, como as observações indicam uma expansão acelerada, alguma outra componente desempenharia o papel de L. Essa componente é chamada, genericamente, de energia escura (ou quintessência) e sua característica principal é apresentar uma pressão efetiva negativa.

Quando admitimos a existência de uma componente exótica responsável pela aceleração cósmica (e que pode ou não depender do tempo), nos deparamos com mais duas questões que precisam ser explicadas. A primeira é conhecida como o problema da coincidência cósmica e consiste em entender porque o universo começou a se expandir de forma acelerada só mais recentemente. Dito de outra forma; porque a densidade de energia da matéria escura e a densidade de energia da energia escura são da mesma ordem de magnitude? Caso o valor de L fosse dez vezes maior que a sua estimativa atual, o universo já teria iniciado a aceleração há muito mais tempo atrás. Mostra-se, que nesse caso, não haveria tempo para formar estruturas como galáxias e seus aglomerados. Caso L fosse dez vezes menor, nós não observaríamos a aceleração cósmica e esta só poderia ser detectada em um futuro bem distante. No caso em que a componente exótica é uma constante cosmológica, o problema da coincidência cósmica confunde-se com o chamado problema das condições iniciais. Isto é, foram necessárias condições iniciais muito especiais no início do universo para que L começasse a dominar a dinâmica da expansão só mais recentemente. Mostra-se que em certos modelos em que a energia escura é dinâmica, há soluções atratoras (chamadas de "tracking") em que o problema das condições iniciais é reduzido. Contudo, isto só ocorre às custas de ajustes de parâmetros do modelo, o que não é o ideal. O problema da coincidência cósmica também pode ser aliviado admitindo-se uma interação entre a energia escura e a matéria escura ou, de uma forma mais radical, supondo que a matéria escura e energia escura são manifestações distintas de uma mesma componente (chamada de quartessência). Contudo para funcionar adequadamente, aqui também é necessário introduzir-se no modelo uma escala de massa (ou energia). O desejável é que tivéssemos uma teoria fundamental a partir da qual essa escala surgisse naturalmente.

Nesse início de século, a idéia dominante entre os cosmólogos é que vivemos em um universo com curvatura espacial aproximadamente nula e com baixa densidade de matéria (Wm ~ 0,3). Apenas ~ 15% dessa matéria é bariônica. Há evidências também, de que o universo possui uma componente com pressão negativa, uniformemente distribuída e que contribui com ~ 70% para a densidade total de energia. Pouco sabemos sobre a natureza dessa componente. Na verdade, alguns cosmólogos questionam sua própria existência e exploram a possibilidade de que a aceleração cósmica é fruto de uma nova teoria de gravitação. Há entre os cosmólogos um consenso de que futuros avanços dependem de novas observações bem como de uma compreensão mais profunda de física fundamental. Na fase atual da cosmologia é importante continuar buscando alternativas teóricas capazes de explicar a aceleração cósmica, por mais estranhas ou exóticas que elas possam parecer. No aspecto observacional é importante combinar diferentes testes e métodos. Diferentes testes cosmológicos estão sujeitos a diferentes erros sistemáticos e podem vincular distintas regiões do espaço de parâmetros, combina-los é fundamental! As perspectivas são boas de que, ainda nessa década, grandes avanços serão alcançados no entendimento da natureza da energia escura ou, de uma forma mais ampla, do que gera a aceleração cósmica.

Agradecimentos

Gostaria de agradecer ao Vicente Pleitez pelo convite feito para que eu escrevesse essas notas. Agradeço-o também pela leitura crítica do manuscrito, pelas várias sugestões feitas e pela infinita paciência com os inúmeros adiamentos na entrega final do texto. Gostaria de agradecer ao Maurício O. Calvão pelas sugestões e correções feitas. Agradeço o CNPq pelo apoio financeiro.

[3] S.V.D. Bergh, astro-ph/9904251.

[6] T.F. Jordan, astro-ph/0309756.

[21] S. Dodelson, astro-ph/9912470.

  • [1] E.R. Harrisson, Cosmology: The Science of the Universe, second edition (Cambridge University Press, Cambridge, 2000).
  • [2] H. Kragh, Cosmology and Controversy: The Historical Development of Two Theories of the Universe (Princeton University Press, Princeton, 1996).
  • [4] J. Berenstein, Introduction to Cosmology (Prentice Hall, Englewood Cliffs, 1985).
  • [5] B. Ryden, Introduction to Cosmology (Addison Wesley, San Francisco, 2003).
  • [7] S. Weinberg, The First Three Minutes (Perseus Books, New York, 1993).
  • [8] C.J. Hogan, The Little Book of the Big Bang: A Cosmic Primer (Springer Verlag, New York, 1998).
  • [9] Cosmological Constants: Papers in Modern Cosmology, edited by Jeremy Bernstein and Gerald Feinberg (Columbia University Press, New York, 1986).
  • [10] A.S. Sharov and I.D. Novikov, Edwin Hubble the Discoverer of the Big Bang (Cambridge University Press, Cambridge, 2003).
  • [11] J. Silk, A Short History of the Universe (Scientific American Library, New York, 1994).
  • [12] I. Waga, Revista Brasileira de Ensino de Física 22, 163 (2000).
  • [13] L. Abbot, The Mystery of the Cosmological Constant, Scientific American, maio de 1988.
  • [14] A. Guth, O Universo Inflacionário (Editora Campus, Rio de Janeiro, 1997).
  • [15] C.J. Hogan, R.P. Kirshner e N.B. Suntzeff, Surveying Space-Time with Supernovae, Scientific American, janeiro de 1999.
  • [16] L.M. Krauss, Cosmological Antigravity, Scientific American, janeiro de 1999.
  • [17] Ann K. Finkbeiner, Cosmic Yardsticks Sky and Telescope, setembro de 1998.
  • [18] N.A. Bahcall, J.P. Ostriker, S. Perlmutter and P.J. Steinhardt, Science 284, 1481 (1999).
  • [19] Ya B. Zel'dovich, Sov. Phys. Usp. 24, 216 (1981).
  • [20] R.J. Adler, B. Casey and O.C. Jacob, Am. J. Phys. 63, 620 (1995).
  • [22] E. Chaisson and S. McMillan, Astronomy Today, 3rd edition (Prentice Hall, Upper Saddle River, 1999).
  • 1
    E-mail:
  • 1a
    Esta seção baseia-se no artigo "A expansão do universo" de I. Waga, ao qual nos referimos para uma descrição mais detalhada sobre o tema.
  • 2
    Aqui o símbolo á...ñ representa o valor médio da quantidade.
  • 3
    O modelo padrão da cosmologia é também, com freqüência, chamado de modelo do
    big-bang. Há uma razão histórica para isso. Entre 1940 e 1965, existiu uma grande rivalidade entre duas teorias cosmológicas; a chamada teoria do "Estado Estacionário" e a chamada teoria do
    big-bang. Segundo a teoria do "Estado Estacionário" não há uma evolução global do universo nem tampouco um instante inicial de criação. Bondi, Hoyle, Narlikar e outros defensores dessa teoria, advogavam a idéia de um universo frio, que sempre foi e sempre será o mesmo. Eles eram partidários do chamado "Princípio Cosmológico Perfeito", segundo o qual o universo não seria homogêneo apenas espacialmente, mas também no tempo. Por outro lado, a teoria do
    big-bang, da qual Gamow foi um dos principais artífices, defendia que o universo teve uma fase inicial muito densa e quente. Com o tempo, a chamada teoria do
    big-bang mostrou-se superior, sendo hoje considerada o "Modelo Padrão da Cosmologia". Contudo, preferimos aqui não usar a terminologia "teoria do
    big-bang" ou "modelo do
    big-bang", pois sugerem um início explosivo para o universo o que não é, necessariamente, verdadeiro.
  • 4
    Número total de nucleons, isto é, o número de prótons mais o número de nêutrons.
  • 5
    Para uma descrição detalhada sugerimos, o excelente livro de Steven Weinberg, Os
    Três Primeiros Minutos.
  • 6
    A seguir suporemos que a constante de Boltzman (
    kB) é igual a unidade, de tal forma que um grau Kelvin é, aproximadamente, igual a 8.62 × 10
    –5
    eV. Suporemos ainda que a velocidade da luz
    c é também igual a unidade, de tal forma que tanto massa como temperatura podem ser expressas em unidade de energia.
  • 7
    Em cosmologia é comum expressarmos a densidade de energia do universo em unidades de uma densidade crítica, r
    c =
    ~ 1,88 × 10
    –29
    h
    2
    g/cm
    3, onde
    G é a constante universal da gravitação e
    h é aqui a constante de Hubble em unidades de 100 km/s Mpc
    –1. Aqui W
    b =
    , é a razão entre a densidade de bárions e a densidade crítica.
  • 8
    Parte desta seção basia-se no artigo "A expansão do universo" de I. Waga.
  • 9
    Chama-se radiação de corpo negro aquela produzida em uma cavidade fechada, isolada e que se encontra a uma temperatura uniforme T. As paredes da cavidade e a radiação estão em equilíbrio e ambas estão a essa mesma temperatura. As propriedades da radição dependem apenas da temperatura, e a distribuição de sua intensidade como função do comprimento de onda é chamada de distribuição de Planck. Embora a forma dessa distribuição seja sempre a mesma, o pico depende da temperatura. Quanto maior a temperatura menor o comprimento de onda onde ocorre o pico da distribuição. Uma estrela como o Sol, por exemplo, pode ser modelada por um corpo negro. Sendo a temperatura superficial do Sol aproximadamente igual a 5500 graus Kelvin, o pico de sua radição ocorrerá para um comprimento de onda de ~ 5300 angstrom. Por isso é que vemos o Sol amarelo.
  • 10
    Na realidade algumas anisotropias na RCF são também geradas após o desacoplamento.
  • 11
    Horizonte de partícula é a máxima distância, em um determinado instante, em que é possível existir conexão causal. Em geral a distância de horizonte é da ordem do chamado raio de Hubble
    c H
    –1, onde
    H
    –1 é da ordem da idade do universo, naquele instante.
  • 12
    A gravitação amplifica as inomogeneidades na distribuição de matéria. Isto significa que se uma determinada região possui um densidade um pouco maior do que a média, o campo gravitacional gerado por ela tende a atrair mais e mais massa para a região, aumentando a inomogeneidade.
  • 13
    O raio de Hubble é um comprimento que varia com tempo e que é igual a velocidade da luz (
    c) dividida pelo parâmetro de Hubble (H).
  • 14
    Parte desta seção basia-se no artigo "A Expansão do universo" de I. Waga, ao qual nos referimos para uma descrição mais detalhada sobre o tema.
  • Datas de Publicação

    • Publicação nesta coleção
      27 Jul 2005
    • Data do Fascículo
      Mar 2005
    Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
    E-mail: marcio@sbfisica.org.br