Cosmologia moderna do ponto de vista histórico
ARTIGO /
Jayant Narlikar* //
Enquanto escolhia um tópico para este artigo, senti que não poderia fazer algo melhor do que escolher a cosmologia, que acontece de ser meu principal campo de estudo. Hoje, ela ocupa um papel central na astronomia, e rever sua história dá um relato bastante interessante. Como estou escrevendo um artigo, começarei com uma ampla introdução ao assunto.
A cosmologia é um ramo da astronomia que lida com a estrutura em grande escala do universo e as questões de sua origem e evolução. A capacidade do homem ver o cosmos cresceu e, paralelamente, sua capacidade de raciocinar com base em evidências científicas também cresceu; o assunto passou por uma transformação. Ela deixou de ser um exercício particularmente especulativo e filosófico para se transformar num importante esforço científico no qual fatos e teorias andam de mãos dadas.
Decerto, quando se olha para a maravilhosa gama de telescópios e detectores que a tecnologia moderna propiciou, é possível enxergar a razão para a audácia demonstrada pelos teóricos de hoje. Mas a audácia na formulação de teorias deve fundamentar-se numa sólida base factual. Até que ponto a cosmologia de hoje se baseia em fatos concretos? Até que ponto é especulativa? Será que atende ao requisito científico da testabilidade? Vou tentar responder essas perguntas tendo como pano de fundo o evolução histórica do assunto.
– – – – –
Fatos versus especulações na ciência
Fatos e especulações são ambos essenciais para um crescimento saudável da ciência. Os fatos nos contam tudo o que sabemos ser verdade sobre o universo e compõem nossa experiência atual. As especulações permitem que a mente humana se liberte do confinamento da experiência atual e pense em hipóteses que podem parecer bastante estranhas. Entretanto, todas essas especulações devem ser, em última instância, verificadas com base em fatos, para que façam parte da ciência.
Como a cosmologia vem se saindo mediante esses critérios? Depois dessa breve revisão de como o homem atingiu o atual nível de compreensão do cosmos, chegarei a um exame crítico do status atual do assunto e tentarei responder a seguinte pergunta: Conforme é praticada hoje, a cosmologia é uma ciência?
Para muitos leitores, essa pergunta parece estranha, particularmente quando feita por mim, apesar de ter trabalhado nesse campo por mais de quatro décadas.
Cosmologias antigas
A maior parte das sociedades desenvolvidas em culturas antigas se preocupava com a questão da origem e natureza do cosmos. A antiga cosmologia indiana tinha o conceito de Brahmanda: o Ovo Cósmico que continha o universo inteiro. Todos os aspectos da matéria viva e não-viva estavam contidos no ovo cósmico. As culturas nórdicas tinham o conceito de uma Árvore Mundonorueguesa: a árvore que carregava o universo em suas raízes e galhos. Conceitos como esses são tratados hoje em dia como especulações altamente imaginativas e nada mais: porque não se fundamentavam em fatos.
A susceptibilidade aos fatos começou a surgir em teorias há mais de dois milênios atrás, especialmente entre os gregos. A postura científica exigia que as teorias pudessem ser propostas e que suas previsões pudessem ser testadas. Se as previsões de uma teoria não concordassem com os fatos, a teoria precisaria ser abandonada ou modificada. Os sintomas de que uma teoria estava no caminho errado eram, portanto, as frequentes modificações que se faziam necessárias.
Uma ideia que fracassava quando fatos não a respaldavam era o conceito pitagórico do Fogo Central. Esses seguidores de Pitágoras acreditavam que a Terra girava em torno de um Fogo Central, com o Sol parado fora da sua órbita. Os críticos dessa teoria perguntavam: por que não vemos esse Fogo Central? Para explicar a falta de visibilidade do Fogo Central, os pitagóricos propunham que existia uma ‘contra-terra’que ficava entre o fogo e a Terra, bloqueando assim a visão daquele. A ‘contra-terra’ se movia exatamente de maneira a bloquear a vista da Terra para o Fogo Central. Essa explicação funcionou durante algum tempo até que algumas pessoas perguntaram: por que não vemos a ‘contra-terra’? Para essa pergunta, a resposta dada foi que a Grécia ficava no lado oposto ao da ‘contra-terra’! Entretanto, alguns viajantes foram para o ‘lado oposto’ e ainda assim não a encontraram. Não é preciso dizer que a teoria morreu de morte natural. Vou relembrar esse episódio mais adiante neste artigo, quando estiver discutindo a cosmologia moderna.
A teoria epicíclica dos gregos
Uma teoria que exigia cada vez mais premissas para sustentá-la e precisou afinal ser abandonada foi, é claro, a teoria epicíclica dos gregos. Essa teoria se baseava na visão aristotélica de que todos os movimentos naturais ocorrem em círculos. Aristóteles preferia círculos porque eles têm uma simetria, ou seja, qualquer arco pode ser colocado congruentemente em qualquer outra parte dele. Isso nada mais é do que a simetria translacional de quando percorremos o círculo. Por razões semelhantes, Aristóteles também preferia a esfera, dentre todas as outras superfícies. O cosmólogo moderno também recorre a argumentos de simetria parecidos (de homogeneidade e isotropia) quando elabora modelos do universo.
Entretanto, as órbitas planetárias se recusam a caber nesse padrão. Então, para adequá-las, os gregos inventaram os epiciclos, que são uma sequência de círculos nos quais o centro do n-ésimo círculo se move no limite do (n-1)-ésimo, todos estes atraídos em torno de uma Terra fixa. Por uma escolha cabível de parâmetros, essa construção poderia encaixar o movimento de um planeta durante um período limitado. Ela precisaria ser refeita para outro período depois que o primeiro sessasse. Era um exercício bastante elaborado, ainda que desajeitado, mas sustentou-se durante 16-17 séculos, porque a intelligentsia acreditava num arcabouço geocêntrico controlado pelas ideias aristotélicas do universo. Em última instância, a solução foi dada por Kepler em termos de órbitas elípticas dos planetas. (Um matemático dirá que é possível aproximar o movimento elíptico por uma série de epiciclos durante períodos limitados.) Assim, a insistência aristotélica nos círculos ia de encontro aos fatos.
A visão da maioria não é necessariamente correta
O destino da teoria epicíclica nos diz que não existe garantia de que uma especulação esteja correta simplesmente porque a maioria acredita nela. Essa avaliação já foi demonstrada na ciência diversas vezes. Um exemplo marcante disso na cosmologia cerca de um século atrás se dá na maneira como os astrônomos entendiam as nebulosas de brilhantes.
Uma nebulosa é um objeto em forma de nuvem que é visível em diferentes cores e pode ser contrastado com a aparência pontual das estrelas. Nossa galáxia, a Via Láctea, tem várias nebulosas assim. Entretanto, a questão era: será que todos os objetos em forma de nuvem fazem parte de nossa Via Láctea? Uma pequena minoria de astrônomos acreditava que um bom bocado delas eram galáxias mesmo, e que pareciam pequenas por estarem muito distante. A noção da maioria, entretanto, era bem o inverso e pode ser resumida na seguinte passagem tirada de um livro popular de astronomia escrito cerca de um século atrás:
“A questão das nebulosas serem galáxias externas praticamente não precisa mais ser discutida. Nenhum pensador competente, com todas as evidências ao seu alcance, agora pode, é seguro dizer, sustentar que qualquer nebulosa seja um sistema estelar da mesma categoria que a Via Láctea…” (Agnes Clerke, O Sistema das Estrelas, 1905)
A firmeza do tom da autora apenas reflete a firmeza de raciocínio sentida pela maioria dos astrônomos que trabalhavam com estrelas e a Via Láctea. Entretanto, com o advento de melhores telescópios e da espectroscopia, esse raciocínio foi dado por falso ao cabo de duas décadas. Acabaram mostrando que a maioria das nebulosas ficava fora de nossa galáxia e que elas mesmas eram galáxias. Edwin Hubble, que fez a descoberta de que o universo está se expandindo, foi o principal responsável por essa mudança de percepção. De fato, em 1925, os astrônomos chegaram a aceitar que há milhões de galáxias no universo observável e que nossa Via Láctea é apenas uma dentre muitas.
Onde as especulações tinham o respaldo dos fatos
Agora vou descrever brevemente um caso onde a especulação foi respaldada por fatos. A lei da gravitação de Newton pode ser considerada uma especulação como essas, se usarmos o episódio da queda da maçã para indicar a especulação de Newton de que existe uma força universal no universo que atrai a Lua para a Terra assim como atrai a maçã na direção da Terra. Entretanto, Newton não parou nessa especulação. A partir das leis de Kepler, ele concluiu que uma força atrai os planetas para o Sol de forma que eles se movem em torno daquele em órbitas elípticas keplerianas. Para resolver esse problema com base em suas próprias leis de movimento, Newton usou um novo ramo da matemática, que hoje é conhecido como ‘cálculo’. Ele deduziu que a força precisaria ser regida pela lei do inverso do quadrado da distância. Usando o cálculo, então, ele resolveu também o problema oposto: que órbitas teriam os planetas se fossem atraídos por uma força com lei do inverso do quadrado da distância? Novamente, achou que as órbitas vinculadas fossem elipses.
Como essa hipótese se saiu com as novas observações? Pois, uma boa teoria científica não só explica o que foi encontrado como também explica novas observações. Dois eventos separados verificaram a lei de Newton: primeiro, a chegada do cometa Halley, e, segundo, a descoberta de Netuno. Vamos fazer aqui um breve estudo desses eventos.
Cometas chegam perto da Terra todo ano. Alguns deles são bastante brilhantes e podem ser vistos a olho nu. Foi Edmund Halley, amigo de Newton, quem primeiro observou que cometas tinham sido avistados nos anos de 1066, 1456, 1531, 1607 e 1682. Pegando as quatro últimas vezes, ficava claro que havia um período de 75-76 anos entre uma aparição e outra. Aproveitando a indicação dos períodos planetários, Halley conjecturou que essas visitas eram feitas pelo mesmo cometa circulando em torno do Sol, em órbitas altamente elípticas, com um período dessa ordem, dentro da lei da gravitação de Newton. E previu a próxima chegada do cometa para 1758. Embora ele não estivesse mais vivo para ver sua previsão se realizar, outros ficaram impressionados com a chegada do cometa conforme o previsto e deram-lhe o nome em homenagem a Halley.
O segundo exemplo está relacionado com as discrepâncias observadas no movimento do planeta Urano, descoberto por William Herschel em 1781. Como planeta, ele deveria seguir uma órbita kepleriana, agora bem explicada pela lei newtoniana da gravitação. Entretanto, na década de 1830, um afastamento da trajetória prevista estava causando preocupação. Na década de 1840, J.C. Adams, em Cambridge, Inglaterra, e U.J.J. Leverrier, em Paris, tinham concluído, independentemente, que a discrepância não se devia a qualquer rompimento com a lei de Newton, mas sim por causa da existência de um planeta ainda não descoberto nas redondezas de Urano, cuja influência gravitacional estava causando as perturbações observadas. Essa previsão, ignorada a princípio, foi subsequentemente verificada por Galle, no Observatório de Berlim, que conseguiu localizar o planeta. Ele foi chamado de Netuno.
Talvez valha contrastar o exemplo acima com a hipótese da ‘contra-terra’. Tanto Netuno quanto a ‘contra-terra’ não eram conhecidos antes de terem sido previstos. A existência de Netuno foi confirmada por observações enquanto a da ‘contra-terra’ não foi, sendo necessário que se elaborassem hipóteses adicionais para explicar por que ela não era vista. Esse contraste ilustra as diferenças entre uma especulação que se consagra bem sucedida e outra que não se consagra igual.
Repetibilidade de um experimento científico
Um experimento científico deve poder ser repetido: ele não pode ser algo que aconteça apenas uma vez. Até na astronomia, a evolução estelar fornece exemplos de ‘experimentos repetidos’, vide as estrelas no Diagrama H-R. (Esta é a abreviatura de Hertzsprung-Russell, os dois astrônomos que pensaram independentemente em gerar esse diagrama colocando num eixo a luminosidade de uma estrela e no outro sua temperatura de superfície.) Uma estrela típica é um experimento em estrutura estelar. A teoria da estrutura estelar nos diz como computar a luminosidade (L), o raio (R) e a temperatura da superfície (T) de uma estrela, dada sua massa (M). Assim, o teórico é capaz de prever os valores de L, R e T para o sol, dada sua massa. A teoria está correta quando esses valores dão certo.
Entretanto, o assunto não se encerra aqui. É possível perguntar como mudariam esses valores físicos se a massa fosse diferente. A teoria, é claro, prevê a resposta. Os observadores precisam encontrar estrelas de diferentes massas e aplicar a teoria a elas. Esse exercício dá certo para várias estrelas.
É isso que se quer dizer quando se fala em poder repetir o experimento. Observe que o observador no laboratório pode variar os parâmetros do experimento conforme necessário, mas o astrofísico não desfruta desse luxo. Pelo contrário, ele precisa ver o sistema à distância sem a facilidade de controlá-lo. Não obstante, conforme acaba de ser mencionado, ele ainda pode verificar sua teoria estudando várias estrelas. É por poder fazer isso e por já ter feito isso que ele dá credibilidade à sua teoria da estrutura estelar. Não poderia alegar tal credibilidade se só pudesse testar sua teoria para apenas uma estrela, o Sol.
Tendo feito esses comentários, volto-me agora para a cosmologia moderna.
Cosmologia padrão
Segue-se em breves termos a história do início da cosmologia moderna. Em 1915, Albert Einstein formulou o que ele considerou a versão finalda relatividade geral. Esperava tratar-se de uma teoria abrangente que viesse a substituir a lei ‘universal’ de Newton para a gravitação. Em 1916, Karl Schwarzschild usou as equações de Einstein para resolver a influência gravitacional de uma massa esférica M, num universo que, fora ela, estaria vazio. No outro extremo, Einstein tentou fazer em 1917 o modelo de um universo estático homogêneo e isotrópico. Mas suas tentativas de obter tal modelo a partir de suas equações de 1915 fracassaram e ele precisou modificá-las ainda mais acrescentando um termo extra de particular relevância para a cosmologia.
Foi o chamado ‘termo lambda’ que, na linguagem newtoniana, implicava uma força universal extra de repulsão entre quaisquer duas partículas que aumentasse em proporção à distância entre elas. Assim, a força era pequena e irrelevante no nível do Sistema Solar, mas tornava-se significativa em distâncias cosmológicas. Com essa força, Einstein foi capaz de obter um modelo estático no qual a gravitação atrativa era equilibrada pela repulsão lambda. O modelo estático se manteve em voga durante cerca de uma década, já que os astrônomos não encontraram evidência alguma de movimentos em grande escala no universo.
Durante os anos de 1922 a 1924, entretanto, Alexander Friedmann produziu modelos matemáticos do universo nos quais havia um movimento sistemático em grande escala. De fato, o modelo típico descrevia um universo em expansão, ou seja, quaisquer dois pontos no universo estariam se afastando um do outro. Como a crença geral naqueles dias era a de um universo estático, esses modelos foram vistos pela maioria dos cosmólogos, inclusive Einstein, como curiosidades matemáticas. Em 1927, Abbe Lemaitre, por exemplo, redescobriu os modelos de Friedmann e seu trabalho continuou sem ser reconhecido. (Mas Lemaitre tinha feito uma previsão clara da relação entre velocidade e distância, com base nas observações disponíveis na época. Essa previsão, dois anos à frente das de Hubble, não é muito conhecida.)
Essas ‘curiosidades matemáticas’ em breve se tornaram realidade quando, após uma série de observações de galáxias e seus espectros, que demoraram uma década inteira para serem feitas, Edwin Hubble anunciou em 1929 a relação velocidade-distância que levou à aceitação do universo em expansão. Essa relação, agora conhecida como lei de Hubble, nos diz que qualquer galáxia vista por nós a uma distância R está se afastando radialmente de nós a uma velocidade V = H X R, onde H é uma constante chamada de constante de Hubble.
Os teóricos não precisaram de muito tempo para perceber que essa era exatamente a relação que se deveria esperar dos modelos Friedmann-Lemaitre. Ao associarmos o fato de escala S(t) com o universo em expansão, de forma que a distância entre quaisquer dois pontos na época t aumenta em proporção a fator de escala, esses modelos então nos dizem que H = [dS/dt] / S. Assim podemos dizer que esses modelos teóricos anteviram a expansão universal. Tratava-se, portanto, da confirmação de uma especulação por fatos, uma especulação na qual inicialmente ninguém acreditava, nem mesmo Einstein.
O universo está desacelerando?
Einstein mudou de lado quando se descobriu que o universo não é estático: ele achou que o termo lambda era uma peso extra que a relatividade geral não precisava carregar. Num artigo escrito com de Sitter em 1932, ele optou pelo mais simples dos modelos de Friedmann, aquele em que tanto o termo lambda quanto a curvatura das seções espaciais (t = constante) eram zero, e a matéria é poeira, sem pressão. Esse modelo veio a ser conhecido como o modelo ‘Einstein de Sitter’. Seguindo Einstein, a maioria dos cosmólogos tomou lambda igual a zero e preferiu trabalhar com essencialmente três tipos de modelos nos quais as seções espaciais são (1) planas; ou (2) com curvatura positiva; ou (3) com curvatura negativa.
Se o termo lambda não estiver presente, os modelos de Friedmann preveem uma expansão desacelerada. De fato, o fator de escala S(t) pode ser relacionado com a constante de Hubble (H) e um parâmetro de desaceleração (q) por
qH 2 = – [d 2S /dt2] / S.
Para o modelo Einstein de Sitter, temos q = 1/2.Os modelos favoráveis aobig bang durante o período de 1960-1980 tinham q > 0, e tentativas foram feitas de medir seu valor estendendo a relação velocidade-distância de Hubble para distâncias cada vez maiores. O astrônomo mede a velocidade espectroscopicamente aferindo a variação espectral (o aumento proporcional do comprimento de onda de uma linha) normalmente denotada pelo símbolo z. Da mesma forma, a distância é estimada medindo-se o brilho aparente na escala de magnitude, denotada por m. A maioria das observações da relação m-z alegavam inequivocamente que esse resultado estava estabelecido. O que não se encaixava naqueles dias era o modelo do estado estacionário, que tinha S = exp Ht, e portanto, q = – 1. Entretanto, foi considerado inconsistente com as observações porque descrevia um universo em aceleração. Voltarei a esse teste mais adiante.
O universo inicialmente quente
Enquanto os observadores tentavam determinar qual modelo de Friedmann melhor se encaixava com as observações das galáxias, os teóricos examinavam as propriedades físicas dos modelos de Friedmann. Todos eles pareciam levar à conclusão de que o fator de escala era zero na mesma época do passado. Nessa época, a constante de Hubble se tornou infinita. Conhecida como a época do big bang, representa a criação do universo num único evento explosivo, quando a densidade e a temperatura da matéria assim como a radiação eram infinitas. Matematicamente falando, esse instante desafiava qualquer tentativa da física quantitativa, que é a razão pela qual se usa o adjetivo ‘singular’. As condições logo após o big bang eram tão diferentes do atual universo que a extrapolação das atuais leis da física para aquela época era considerada altamente especulativa.
Não obstante, na década de 1940 George Gamow fez uma extrapolação ousada da física conhecida para os primeiros períodos quando o universo tinha de 1 a 200 segundos de existência! (Para efeitos de comparação, acredita-se que a época atual esteja com algo entre 10 e 15 bilhões de anos de idade a partir do big bang.) Ele usou a termodinâmica e a física nuclear para estudar o comportamento físico do universo, assumindo que aquele estágio contivesse principalmente nêutrons e prótons, partículas leves como elétrons, pósitrons, neutrinos etc., e, é claro, fótons. Usando essa mistura, esperava demonstrar que todos os elementos químicos tinham sido feitos naqueles primórdios.
As especulações de Gamow sobre a nucleossíntese primordial obtiveram êxito parcial: funcionavam para núcleos leves mas falhavam para núcleos como o carbono, oxigênio ou outros mais pesados. Refeitos com dados nucleares melhorados, os cálculos de Gamow mostram que, dos mais de 200 isótopos conhecidos, as abundâncias calculadas de núcleos leves como D, He, Li, Be, B são geralmente da ordem correta se comparadas com as abundâncias observadas. Para a produção de núcleos mais pesados, é preciso procurar ambientes estelares.
Entretanto, o trabalho de Gamow teve outros resquícios positivos. A previsão foi feita por dois dos colegas mais jovens dele, Ralph Alpher e Robert Herman, de que o universo hoje deveria ter um fundo residual de radiação térmica com temperatura de 5K. Essa previsão foi verificada e confirmada quando, em 1965, Arno Penzias e Robert Wilson detectaram uma radiação cósmica isotrópica de fundo em micro-ondas (RCF) a 3K.
A cosmologia do big bang pode, portanto, receber o crédito por fazer três previsões bem sucedidas, a saber, a expansão do universo, a criação de núcleos leves e a presença de um fundo residual. Entretanto, há algumas questões técnicas que precisam ser mencionadas no contexto da RCF.
-
Será que podemos chamar isso de previsão? Uma previsão precede as verificações observacionais. Costuma-se assumir que a descoberta da RCF foi feita em 1965. Isso não é historicamente verdade. O fundo já tinha sido detectado por McKellar em 1941, mas sua significância não tinha sido percebida. McKellar tinha descoberto que, no espectro de algumas estrelas galácticas, níveis superiores de certas moléculas tinham sido habitados, o que poderia ter acontecido se houvesse um banho de radiação por perto. Usando as densidades populacionais relativas, McKellar conseguiu estimar a temperatura do banho de radiação em 2,3K. Esse número não estava muito distante do valor atual de 2,73K.
-
A temperatura da radiação cósmica de fundo não pode ser determinada pelos primeiros cálculos do universo. A estimativa de 5K feita por Alpher e Hermann foi uma suposição, muito mais que um cálculo teórico. De fato, em ocasiões posteriores o próprio Gamow estimou a temperatura variando dentro da faixa dos 7K aos 50K.
-
O conceito de um fundo de radiação no universo não se originou com Alpher e Hermann. Houve previsões anteriores de um fundo de radiação com temperatura de ~3K feitas por Eddington e outros. Essas previsões tinham usado a luz estelar como base. Recentemente, Jean-Claude Pecker, Chandra Wickramasinghe e eu, repetimos o cálculo de Eddington para mostrar que, com base em dados estelares recentes, a radiação de todas as estrelas na Galáxia, se termalizada, produz uma temperatura de mais ou menos 4 graus absolutos.
Não obstante, a base física dessa conjectura de Gamow está arraigada em física conhecida. Especulações sobre os primórdios do universo podem surgir até o nível de uma teoria física sensata porque a física usada nos cálculos de nucleossíntese se baseou em aplicações conhecidas da termodinâmica, na mecânica estatística e na física nuclear. A validade da teoria geral da relatividade foi, sem dúvida, demasiadamente esticada. Os testes do sistema solar confirmam a validade da relatividade no parâmetro de Schwarzschild (2GM/c2R) de aproximadamente 4.10-6, enquanto na cosmologia estamos esticando a credibilidade da teoria até um parâmetro da curvatura aproximadamente 1. Esse salto teórico de partir de um campo fraco para um forte, entretanto, foi justificado pelo princípio da equivalência. Ou seja, usa-se uma região localmente inercial para aplicar a física plana do espaço-tempo e depois estende-se a mesma para o espaço-tempo curvo usando a covariância das equações físicas. Voltarei a este ponto mais adiante.
A base astronômica, entretanto, não está tão firme pela razão que se segue. Observações astronômicas diretas de galáxias e quasares distantes vão até z aproximadamente entre 6 a 10, digamos. Isso vai até o estado onde o fator de escala se encontrava em torno de 10% do seu valor presente. Os modelos de big bang mostram que, mesmo que tenhamos telescópios muito melhores, ainda não poderemos observar o universo de forma coerente além de um deslocamento para o vermelho (redshift) de 1000, pois o universo é opaco além de z aproximadamente 1000. Entretanto, os cálculos do universo quente remontam a redshifts tão altos quanto z maior que 109. Em suma, os cosmólogos falam de uma fase na história do universo que não é observável.
Então, as observações de hoje das abundâncias de núcleo leve e da origem da RCF no máximo propiciam verificações de consistência nos cálculos do universo primordial. Elas não garantem que o cenário seja único. A única ferramenta da ciência, chamada experimentar as consequências diretas de uma teoria, não se encontra disponível aqui.
Além disso, sendo o universo um sistema ‘único e exclusivo’, a sequência supracitada da nucleossíntese primordial seguida de uma radiação de fundo não é um experimento que se possa ‘repetir’. Isso só aconteceu uma vez. Por outro lado, a nucleossíntese estelar é um experimento que se pode repetir, já que conseguimos encontrar várias estrelas nas quais o processo está acontecendo em diferentes estágios.
Física de astropartículas
Não obstante, a descoberta da RCF e alguns êxitos da nucleossíntese primordial convenceram vários cosmólogos a serem mais ousados no sentido de levarem suas investigações do universo primordial até mais perto da época do big bang. Esses esforços às vezes se identificam com os estudos do universo nos seus ‘primórdios mais antigos’ enquanto o trabalho de Gamow-Alpher-Herman estava limitado ao ‘universo primordial’. Quão mais antigo foi aquele?
Foi aqui que os cosmólogos se viram tentados a formar uma parceria com físicos de partículas para gerar um novo ramo chamado ‘física de astropartículas’. A ideia aqui é os físicos de partículas fornecerem a física a ser usada nas discussões das primeiras épocas, enquanto os cosmólogos forneceriam o cenário de fundo no qual os físicos de partículas testariam suas teorias. Por exemplo, considere as teorias e os experimentos na física de partículas que têm mostrado que a unificação do eletromagnético com a interação fraca nas energias de partículas ocorrerá com energia em torno dos 100 GeV. O modelo de Salam-Weinberg funciona muito bem nesse nível de energia. Usando as extrapolações dessas ideias, os teóricos de partículas estão buscando uma unificação ainda maior da supracitada teoria ‘eletro-fraca’ com a interação forte. Os cálculos sugerem que essa ‘grande unificação’ seja atingida em partículas com energias próximas a 10 16GeV. Essas energias estão além da faixa de detectores de partículas por algumas ordens de grandeza, de forma que testá-las em laboratório, como qualquer outra teoria física, parece estar fora de cogitação. Como é, então, que se pode confirmar um trabalho desses? Pois, sem verificação experimental, uma teoria física continua sendo uma especulação. Para conseguir contornar esse impasse, os físicos de partículas usam os modelos de big bang, nos quais, chegando-se suficientemente perto da época do big bang, consegue-se uma temperatura alta o suficiente onde as partículas têm energias da ordem de 10 16GeV. Então, o universo quente lhes propicia um acelerador de partículas de alta energia. Do lado dos cosmólogos, a necessidade de uma teoria física contar como era o universo nos épocas primordiais os forçou a ir ao encontro dos físicos de partículas.
Então, as expectativas de ambos os lados podem ser resumidas da seguinte forma:
Físico de partículas: Como o big bang é um paradigma bem estabelecido e seguro enquanto teoria cosmológica, vou experimentar minhas especulações de física de partículas de muito alta energia sobre este cenário.
Cosmólogo: Como os físicos de partículas sabem do que estão falando, vou aplicar suas bem trabalhadas teorias para testar minhas especulações acerca do universo nos seus primórdios.
O fato é que ambos os lados estão usando apenas especulações!
O recente acelerador de partículas CERN comumente conhecido como LHC (Large Hadron Collider), costuma ser divulgado como gerador de um tipo de ambiente pós-big bang. A energia que ele produz, entretanto, não passa de 10.000 GeV, enquanto a época da unificação precisa de energia na ordem de dez milhões de bilhões de GeV. Assim, uma lacuna energética de mil bilhões separa a realidade tangível da expectativa teórica exigida.
Por exemplo, a temperatura da grande unificação é atingida num modelo de big bang quando a idade do universo atinge aproximadamente 10 -36 segundos. Podemos atribuir um significado a relação tempo/temperatura contanto que tenhamos confiança na aplicabilidade de nossa termodinâmica básica. A termodinâmica e sua mecânica estatística subjacente está bem estabelecida no espaço-tempo plano. Para aplicar o espaço-tempo curvo, é preciso lançar mão do princípio da equivalência, que permite que a física do espaço-tempo plano seja aplicada num sistema inercial de coordenadas local. (Isso é como aplicar a geometria euclidiana numa região suficientemente pequena da superfície da Terra para garantir que uma aproximação ‘Terra-plana’ se sustente!) Essa foi a justificativa nos cálculos usados por Gamow e seus colegas para a nucleossíntese primordial. Naquela era, o volume plano (ou inercial) local continha uma quantidade grande o suficiente de partículas para legitimar o uso da mecânica estatística. Entretanto, quando consideramos o universo no início de sua existência na grande era da unificação, descobrimos que uma região localmente inercial mal contém uma partícula! Portanto, fica ridículo aplicar os conceitos da termodinâmica como extrapolações diretas da física do espaço-tempo plano. Este aspecto foi apontado pela primeira vez por Padmanabhan e Vasanthi em 1982.
A noção da inflação
Entretanto, nada consegue demonstrar melhor a virada altamente especulativa que a cosmologia deu do que a popularidade obtida pela ideia da inflação. Esse conceito se apoia na ideia de uma transição de fase durante o colapso da grande unificação das três forças fundamentais. Como a transição de fase significa uma mudança de estado da matéria partindo de uma teoria unificada para outra onde a teoria eletro-fraca se separa da interação forte, a mudança física se reflete na maneira como o universo se expande. A transição de fase não ocorre instantaneamente mas sim ao longo de um curto intervalo e, durante esse intervalo, o universo se expande muito rapidamente (com S(t) = exp at, a~ 10 36 s-1). Essa fase é conhecida como ‘inflacionária’. Alega-se que o universo deva ter passado por uma fase assim, para que se resolvam alguns dos problemas conceituais associados aos modelos de big bang. Não vou entrar nesses problemas, exceto para mencionar que, embora se saiba que existiram durante muito tempo, eles foram ignorados até que a ideia da inflação entrou em cena para resolvê-los!
Como teoria física, vamos perguntar se ela segue as diretrizes comuns às quais uma teoria científica precisa se sujeitar. Primeiro, a física por trás da ‘inflação’ está bem testada, e de forma independente? Segundo, a inflação foi observada diretamente ou é observável em princípio? Por fim, ela descreve um evento repetível que pode ser observado noutros contextos? A resposta a todas essas perguntas é um sonoro NÃO. Já vimos que a natureza da física de partículas/alta energia na energia 10 16GeV ainda não foi determinada pelos físicos. Além disso, conforme foi mencionado anteriormente, acredita-se que a inflação tenha ocorrido muito antes da época de redshift 1000, antes da qual não se podia observar o universo através de observações astronômicas. Que não se trata de um fenômeno repetível está claro a partir das condições que lhe devem dar origem… elas não ocorrem no universo outra vez. Em suma, pediram-nos para aceitar um paradigma que se funda em física insegura, que não é observável e também não é repetível.
Entretanto, o exemplo anterior da ‘contra-terra’ pitagórica vem à mente quando vemos como essa ideia é apresentada. Primeiro argumentou-se que havia a teoria de uma grande unificação; depois, que ela levaria necessariamente à existência de imensos monopólos magnéticos. Em seguida estimou-se que sua densidade residual hoje seria anormalmente alta, em torno de umas quinze ordens de grandeza. Resumindo, se confiarmos nos resultados padrão seguidos das teorias da grande unificação, desmoronamos sobre uma quantidade residual embaraçosamente alta de monopólos magnéticos. A única maneira de evitar essa conclusão catastrófica seria através da inflação, pois assim esses monopólos teriam se diluído. Assim, a partir de uma observação nula (nenhum monopólo visto hoje), parecemos capazes de alegar confirmação de duas especulações, a saber:
-
Uma teoria da grande unificação ocorrida nas primeiríssimas épocas;
-
A inflação aconteceu nas primeiríssimas épocas.
Será que duas especulações somadas tornam-se um fato? Aparentemente sim, se você for um físico de astropartículas!
Matéria escura: a roupa nova do imperador?
Desde 1975 os astrônomos vêm recebendo evidências que indicam a presença de matéria escura consideravelmente maior que de matéria visível no universo. Essa evidência está na forma de curvas de rotação plana de nuvens de hidrogênio neutro girando em torno de galáxias espirais e da dinâmica dos aglomerados de galáxias. Se seguirmos as leis newtonianas da gravitação e da dinâmica, as observações nos forçarão a acrescentar matéria escura à matéria visível. Entretanto, se estivermos dispostos a modificar essas leis, a presença de matéria escura não é necessária. Seguindo a navalha de Occam, os cosmólogos optam pela matéria escura.
De que é feita a matéria escura? À primeira vista, há várias possibilidades, por exemplo, buracos negros, anãs brancas muito velhas, anãs marrons e planetas do tamanho de Júpiter etc. Entretanto, essas alternativas são todas de objetos feitos de matéria bariônica normal. Mas se a matéria fosse toda bariônica, isso apresentaria problemas para o big bang. Primeiro, se assumirmos que toda a matéria observável é bariônica, a quantidade de deutério produzido numa nucleossíntese primordial seria extremamente baixa, demasiadamente pouca para explicar a abundância observada. Segundo, o processo de se fazer uma estrutura de grande escala criaria flutuações na radiação de fundo, muito maiores do que se observa hoje.
Agora, o processo normal para se testar uma teoria científica é fazer previsões e verificá-las através de observações. Segundo essa norma, a presença de matéria escura deveria ter afastado as duas maiores previsões da cosmologia do big bang, a saber, a produção de núcleos leves e a existência de uma radiação de fundo em microondas. Entretanto, em lugar de seguirem esse paradigma, os cosmólogos vêm buscando modificar a premissa normal de que a matéria no universo é bariônica. Argumentam que ela pode ser feita de partículas esotéricas geradas pela grande unificação, supersimétrica e outras teorias de partículas especulativas: por exemplo, WIMPs, neutrinos massivos, partículas supersimétricas etc. Em suma, a premissa de que a maioria da matéria que constitui o universo se baseia em teorias de partículas altamente especulativas e não na opção bariônica que não requer uma premissa especulativa. Isso se faz para que o paradigma do big bang seja respaldado.
Por ora, ainda não existe evidência astronômica direta ou laboratorial para a matéria escura não-bariônica. Contudo, a confiança com que se assegura que essa matéria exista numa quantidade muito maior do que a matéria bariônica normal me faz lembrar da estória da “Roupa nova do imperador”, de Hans Christian Anderson.
Alegações em favor da energia escura
Depois de 1999 houve uma retomada de afirmativas feitas com confiança pelos cosmólogos sobre a presença da energia escura, quintessência, branas etc. Tratam-se de extensões da ideia da constante cosmológica introduzida por Einstein na relatividade geral (posteriormente retirada por ser desnecessária). Qual é a evidência para essa ideia?
O ímpeto dessas especulações começou com a alegação feita em 1999 por vários cosmólogos observacionais de que as supernovas com altos redshifts são significativamente mais tênues do que as outras nas proximidades. Essas observações podem ser explicadas ao assumirmos que o universo está acelerando, o que por sua vez leva os relativistas ao termo lambda. Entretanto, essa alegação deveria ser moderada por pelo menos três fatores incertos. Sabemos que as supernovas distantes têm o mesmo brilho das vizinhas? Esse aspecto ainda não foi adequadamente resolvido. Sabemos ao certo que a poeira intergaláctica não está tornando mais tênues as supernovas mais distantes? Novamente, foram oferecidos exemplos contrários sugerindo que a poeira esteja desempenhando um papel importante. Finalmente, temos a certeza de que as lentes gravitacionais não estão desempenhando um papel na amplificação das supernovas distantes, assim sujeitando todos os cálculos a mudanças?
Além disso, alega-se também que a existência de uma constante cosmológica não-nula ajuda a encaixar os dados no espectro de potência angular das inomogeneidades de fundo de microondas. As ideias mais aceitas sobre a formação de estrutura de grande escala também se apoiam cada vez mais em lambda, além da matéria escura esotérica (não bariônica). De fato, argumenta-se que a RCF, a formação de estrutura e as medições das supernovas permitem que se determinem os parâmetros cosmológicos de forma tão precisa que agora pode-se falar em ‘cosmologia de precisão’.
Antes de nos deixarmos levar por essa nova euforia, vamos aferir de maneira desapaixonada o papel da constante cosmológica. Um balancete para lambda pode ser preparado da seguinte maneira.
Estudos anteriores (1960-80) usando a relação m-z revelaram algumas ciladas práticas nas alegações de medida da desaceleração ou aceleração do universo. Lembremos que naqueles dias a alegação de que o universo está desacelerando era feita com tanta firmeza que a teoria do estado estacionário, a única a prever um universo em aceleração, foi descartada. Essas persistências, e outras mais, continuam a existir no teste m-z da supernova conforme acaba de ser mencionado. Mas foram amplamente ignoradas, pois as especulações teóricas correntes na cosmologia acham bonito ter um lambda positivo não-nulo.
É história antiga o termo lambda ser ressuscitado pelos cosmólogos sempre que sentem a necessidade de fazê-lo para explicar todas as observações. Se as observações mudam ou passam a ser desacreditadas, ele volta ao ostracismo! Portanto, resta saber quanto tempo ele se mantém com o atual nível de popularidade.
As presentes compulsão pelo termo lambda são que (a) Ele resolve o problema da idade [do universo]. As idades dos modelos do universo com um lambda diferente de zero são grandes o suficiente (cerca de 13-14 bilhões de anos) para acomodar os objetos mais velhos conhecidos no universo. (b) Ele explica algumas das observações das flutuações da radiação de fundo bem como a atenuação das supernovas distantes. (c) Sua origem pode ser ligada à inflação. Há esperança de se relacionar o valor presente dessa constante à fase inflacionária.
Entretanto, esse termo vem com uma bagagem de problemas também, alguns dos quais são: (a) Por que e como lambda diminui 108 ordens de grandeza da inflação para a época atual? Pois é isso o que deve acontecer se a origem do termo se encontrar na inflação. (b) Como a ‘energia escura’ caracterizada por lambda se relacionacom as outras forças da natureza? Isso ainda não é compreendido.
Comentários gerais
Permitam-me resumir a discussão da cosmologia moderna em termos de quatro comentários:
-
Os estudos dos primórdios do universo são altamente especulativos, tanto em termos de astronomia quanto de física das partículas;
-
Eles descrevem um cenário que provavelmente não se repetirá. Embora a mecânica quântica também tenha começado com ideias aparentemente esotéricas, elas foram ganhando credibilidade através da repetição de experimentos. Tomemos como exemplo a estatística de Bose. Ela busca aplicar um conceito matemático abstrato às partículas microscopicamente indistinguíveis. Podemos não ser capazes de enxergar essas partículas, mas as previsões sobre seu comportamento coletivo estão muito claramente verificadas em laboratório;
-
A física normal, por exemplo, a mecânica estatística conforme extrapolada a partir do espaço-tempo plano não é utilizável nos espaços-tempos iniciais de curvatura muito acentuada;
-
Observações diretas do universo se estendem para densidades da matéria aproximadamente 200 vezes o valor atual, enquanto que as extrapolações para o universo mais primordial se estendem até 1087 vezes o valor presente. Em nenhum lugar da física as teorias são extrapoladas de uma forma dessas, muito menos sem alguma verificação.
Portanto, volto à pergunta que levantei no início deste artigo e a respondo com a seguinte frase comprida: Embora tenham sido dados passos notáveis na física tanto teórica quanto experimental, e os telescópios de vários tipos tenham aumentado a capacidade do homem observar o universo, conforme os critérios normais de interação próxima entre teoria e observação, a cosmologia, como é praticada hoje, tem um elemento demasiadamente especulativo para ser qualificada com o título de disciplina científica.
– – – – –
*Jayant Narlikar, cosmólogo do Inter-University Centre for Astronomy and Astrophysics.