INTRODUÇÃO À TEORIA GERATIVA
Parte I
Conhecimento, Cosmologia e Emergência a partir da obra de David Deutsch
Gerativismo
A teoria gerativa ou gerativismo é uma nova área do conhecimento que tenho desenvolvido. Um dos conceitos nucleares do gerativismo é o conceito de emergência. A teoria gerativa consiste em um aprofundamento das cosmologias contemporâneas emergentistas baseadas no conceito de multiverso. Para tanto, tomo como ponto de partida a obra de David Deutsch, um dos pioneiros da computação quântica, das cosmologias emergentistas e da complexidade computacional. Semelhante às concepções de Deutsch, a cosmologia gerativa articula quatro grandes áreas: a epistemologia, a evolução, a quântica e a computação. Concentra-se também em conceitos adjacentes, tais como infinito, multiverso e virtualidade. Em suas diversas vertentes, as cosmologias contemporâneas definem o multiverso a partir da axiomatização da pluralidade e da compossibilidade de universos existentes, mas mantêm a centralidade de um universo-matriz em relação aos universos-espelhos. A cosmologia gerativa parte do pressuposto da inexistência de um universo-matriz capaz de comensurar os universos-espelhos. A consistência do universo que acessamos seria apenas a possibilidade de descrição das conexões transversais de universos cujas consistências dependem da excentricidade que estabeleçam com outros universos. Para realizar essa tarefa, vamos analisar algumas das principais impasses de algumas linhas da epistemologia. E como as teorias emergentistas e o gerativismo se distinguem delas. Comecemos situando a obra de Deutsch e a sua proposta emergentista, conhecida como uma teoria de tudo.
Teorias de Tudo
A obra de David Deutsch é uma das mais singulares do pensamento contemporâneo. Nascido na cidade de Haifa, em Israel, em 1953, é professor visitante no Centre for Quantum Computation (CQC) do Claredon Laboratory da Universidade de Oxford. Desenvolveu seu doutorado sob orientação do eminente físico Dennis Sciama, que foi também orientou as teses de Stephen Hawking, Martin Rees e John Barrow, dentre outros nomes influentes da cosmologia. Conhecido como um dos pioneiros mundiais da computação quântica, recebeu distinções como o Prêmio Paul Dirac (1998) e a medalha Paul Dirac (2017), dentre outras. Um dos algoritmos mais importantes da computação quântica é o algoritmo de Deutsch-Jozsa (1992), criado em parceria com o matemático Richard Jozsa. Como o algoritmo descoberto por Peter Shor (1994), ambos são nucleares para o desenvolvimento da computação quântica. A obra de Deutsch se estrutura a partir de uma cosmologia construtivista batizada pelo autor de teoria do construtor (Deutsch: 2012). Essa cosmologia tem um epicentro: o conceito de emergência (Deutsch: 1997, 2011). Adjacentes a essas teorias, conceitos e áreas do conhecimento, Deutsch desenvolve a teoria da complexidade computacional (Deutsch: 1985), a teoria do multiverso (Deutsch: 1997, 2002, 2005, 2011), a teoria do infinito (Deutsch: 1997, 2011) e a teoria dos geradores de realidade virtual (Deutsch: 1997, 2005).
A despeito da complexidade dessa obra, Deutsch se tornou conhecido como formulador de uma teoria de tudo. Essa teoria de tudo se baseia em quatro elementos ou matrizes. A primeira é a teoria quântica, concebida a partir das descobertas do quantum de energia formulado por Max Planck e que assumiu o epicentro da física ao longo do século XX. Deutsch se concentra contudo nas consequência da teoria quântica desdobradas por Hugh Everett para a formulação do conceito de multiverso. Se segunda é a teoria da evolução, definida a partir da seleção natural de Darwin e fundamentada hoje em dia por Richard Dawkins. A terceira é a teoria do conhecimento, empregada sobretudo a partir dos conceitos de conjecturas e refutações, de Karl Popper. E a quarta é a teoria da computação, tomada em seus fundamentos clássicos, lançados pela obra de Alain Turing e definida a partir da computabilidade de todas as informações do universo. Nesse percurso, não haveria uma anterioridade lógica ou ontológica entre essas matrizes. O desafio seria justamente construir uma nova compreensão do universo, da vida e do pensamento por meio da articulação de todas elas. E, diferente do que se espera, não haveria nenhuma transgressão significativa nesse empreendimento intelectual, no sentido de ruptura de um paradigma, à maneira de Thomas Kuhn. Essas quatro matrizes se encontram consolidadas no horizonte epistêmico da ciência praticada ao longo do século XX e neste começo do século XXI. Para Deutsch, estes autores e suas teses têm sido muitas vezes rejeitados sem terem sido de fato refutados em suas bases. Esse fenômeno gera um problema concernente aos avanços da ciência e do conhecimento. Somos induzidos a crer que nos desvencilhamos das questões postas por eles e pela articulação dos quatro elementos, mas muitas vezes ainda não conseguimos criar teorias alternativas mais consistentes. Essas lacunas se manifestam sobretudo na teoria do multiverso, que acabou se tornando uma das teorias mais polêmicas da cosmologia e da teoria quântica contemporâneas. Um estudo mais detido de algumas de suas condições fundamentais pode revelar que a polêmica não diz respeito à sua efetividade ou não. Diz respeito a alguns ideias cristalizadas que precisam ser revistas. Esta revisão é um dos objetivos da teoria de tudo, bem como a formulação de uma teoria emergentista.
Esta teoria de tudo de Deutsch se diferencia das demais teorias de tudo por alguns motivos. As teorias de tudo geralmente se baseiam em duas premissas conceituais: o reducionismo e o holismo. As teorias de tudo reducionistas são propostas contemporâneas cujo objetivo seria unificar os quatro grandes domínios da física: a força nuclear forte, a força nuclear fraca, a gravitação e o eletromagnetismo. Em outras palavras, pretendem unir o micro e o macro, a Teoria da Relatividade Geral (TRG) e a teoria quântica, por meio do estabelecimento da chamada gravidade quântica ou de outras soluções ou modelos cosmológicos (Smolin: 2002). Essa teoria de tudo reducionista é mais difundida no senso comum e se situa nas esferas estritas da física. Por mais que lidem com sistemas de alta complexidade, como os seres vivos e outros fenômenos naturais, partem da premissa de que esses sistemas sempre podem ser reduzidos às propriedades fundamentais da física. As teorias de tudo holistas seriam representadas por pensadores que buscam construir grandes sistemas integrados, mas minimizando o papel das mediações e das descontinuidades. O gerativismo é uma teoria de tudo que nega o holismo e que extrapola os limites estritos do reducionismo. Nesse sentido, procura alterativas para os limites tanto do holismo e do reducionismo quanto de algumas abordagens da epistemologia moderna, tais como o empirismo, o indutivismo, o instrumentalismo e o positivismo. Diante disso, analisemos em primeiro lugar os impasses do reducionismo e do holismo.
- Reducionismo e Holismo
A teoria de tudo gerativista e a teoria de tudo de Deutsch não renunciam aos protocolos do reducionismo, base de toda ciência moderna e da racionalidade da ciência. Entretanto, testam alguns de seus limites. À medida que o reducionismo é o método por excelência de todas as ciências modernas, humanas e naturais, as alternativas a ele são as mais trabalhosas. Evitar produzir uma redução nos torna reféns do reducionismo produzido pela não-redução. Se nos recuamos a reduzir o universo a critérios que demarquem o que é o orgânico e o inorgânico, não conseguimos definir nem o inorgânico nem o orgânico, pois não existiram demarcações heterogêneas em relação à vida e à não-vida (Monod: 1971). Mantemos presos às contradições de se conceber uma totalidade holista, como veremos adiante (Morton: 2023). Sem recusar as contribuições do reducionismo, Deutsch mantém em suspenso os seus resultados e declarações. A alternativa ao reducionismo não pode nos conduzir ao obscurantismo anticientífico. A Navalha de Ockham não deve ser oposta à complexidade. A ciência do simples não deve se opor à ciência do complexo, como a definem Isabelle Stengers (1991), Ilya Prigogine (1991) e Edgar Morin (2015), dentre tantos outros. Não podemos partir do complexo para analisar o simples. Quando tomamos fenômenos complexos como pontos de partida sem antes termos compreendido fenômenos simples, corremos o risco de não conseguir explicar nem um nem outro, restando tanto a simplicidade quanto a complexidade sem explicação. Entretanto, por mais que tenha se constituído como o motor de toda ciência moderna desde Galileu e Newton, o reducionismo stricto sensu não consegue mais oferecer respostas satisfatórias para problemas com os quais a ciência contemporânea tem lidado em seu dia a dia, em graus cada vez mais profundos.
Por isso, tanto a ciência clássica (Aristóteles a Galileu) quanto a ciência moderna (Galileu a Einstein) conseguiram se estruturam a partir da espinha dorsal da simplicidade. E a simplicidade pode ser definida a partir dos seguintes conceitos e valores: o determinismo, a reversibilidade, a linearidade, os sistemas em equilíbrio, os sistemas estacionários, a certeza e a determinação. A ciência que se constitui a partir de Einstein até os dias de hoje é marcada pela complexidade (Stengers-Prigogine: 1991). E a complexidade pode ser definida a partir dos seguintes conceitos e valores: indeterminação, a irreversibilidade, a não-linearidade, os sistemas fora de equilíbrio, a entropia, a incerteza e a indeterminação (Stengers-Prigogine: 1991). Contudo, nessa acepção, a complexidade não representa uma supressão, uma oposição ou sequer uma superação aos métodos da simplicidade (Morin: 2015). Representa uma suprassunção (Aufhebung), no sentido de Hegel: superar-preservando (Menezes: 1985). A solução seria uma superação interna de seus limites.
Quais as limitações do reducionismo? Uma delas diz respeito à causalidade. Ao reduzir um fenômeno a seus aspectos mais simples, não o fazemos apenas em termos espaciais e sincrônicos. Fazemo-lo de um ponto de vista temporal e diacrônico. A redução de um evento X do presente precisa se apoiar em infinitas reduções de n-eventos passados para produzir uma explicação causal baseada em eventos anteriores e posteriores. Ora, desde David Hume sabemos dos limites desse movimento (Hume: 2004). Para determinar globalmente quaisquer eventos presentes a partir de eventos passados, precisaríamos determinar as condições iniciais de todos os eventos passados, desde a origem do universo até agora. Esse é o problema nuclear do indutivismo, cuja crítica é um dos eixos da argumentação de Deutsch e que pretendo abordar mais adiante. A eliminação do estatuto condicional do presente, a ponto de depurarmos sua condição contingente, elevando-o à condição de lei, depende necessariamente da eliminação do estatuto condicional de todos os n-eventos que constituem uma linha causal desde a origem do universo até o ponto X presente. Esse imperativo da determinação das condições iniciais de um sistema fora criticado por Kant. Não precisaríamos deter todas as variáveis implicadas em um fenômeno para compreendê-lo. Essa teria sido uma compreensão equivocada da contingência. Colocar o problema nesses termos é supor que, se não compreendermos tudo, não somos capazes de compreender nada.
Entretanto, esse problema reaparece sob roupagens diferentes, nas mais distintas situações da ciência. E muitas vezes o problema não consiste em determinar as condições iniciais de um sistema, mas sim no oposto: em determiná-la e passar a definir leis e propriedades fundamentais da natureza sem percebermos que essas condições iniciais determinadas podem ser propriedades emergentes de outras condições não-iniciais e não-fundamentais. Por exemplo, a hipótese mesma do big bang, cada vez mais refutada dentre os cosmologistas contemporâneos (Novello: 2006, 2010, 2023). Parte significativa da física atual, tanto dedicada ao micro quanto ao macrocosmo, patilha dessa crença de que quanto mais recuado for o fenômeno determinado, melhor e mais fundamental seria o modelo explicativo derivado dele. Deduzir leis a partir de estados iniciais, por mais primitivos e antigos que sejam, implica um problema de causação. Se a granularidade espacial e a descontinuidade temporal, pressupostas pela teoria quântica, forem aplicadas ao estudo das condições iniciais do universo, seriam imanentes a esse origem ou seriam propriedades das condições emergentes dos observadores atuais do universo? E se imaginarmos que essa condição atual que propiciou as condições de possibilidade de conhecimento desse estado inicial chamado big bang foi aferida a partir da evolução da vida e não necessariamente do estado atual e inercial do universo, entendido nos termos da mecânica clássica? Isso significa que o big bang, um dos pilares da cosmologia contemporânea, não pode ser sustentado apenas por meio das propriedades fundamentais da física. Enquanto conceito, teria emergido das propriedades da vida presentes nas explicações do universo não-vivo. E, mais do que isso, a aferição desse ponto de infinita densidade cujo colapso produziu o universo também demonstra o problema da passagem da heterogeneidade à unidade, promovida pelo reducionismo. As condições de estabilidade que definimos como a condição inicial de um dado sistema poderiam ser apenas uma homogeneização e uma estabilização de um processo de heterogênese e de metaestabilidade (Simondon: 2020)? A metaestabilidade poderia constituir o estado mais fundamental da natureza e, por alguma razão, não a contemplamos em nossa descrição (Simondon: 2020)? Quando a transpomos para a descrição do universo, a suplementação de dados para a determinação a posição e a velocidade da trajetória de um corpo não pode ser entendida como uma mera operação neutra e sem maiores consequências. Não podemos nos apoiar nos recursos ardilosos de demônios, sejam eles de Maxwell ou de Laplace. A crença em demônios é aqui tão ineficaz quanto a crença em Deus. A saída para esses impasses do reducionismo, bem como da necessidade de escolha entre Deus e os demônios, tampouco se encontra na totalidade holista.
A teoria de tudo de Deutsch e a teoria de tudo gerativista não são teorias holistas. As teorias de tudo holistas se baseiam em dois pressupostos. O primeiro é uma possibilidade de unificação global de todos os fenômenos. O segundo é a explicação dos fenômenos simples a partir dos fenômenos complexos, instaurando-se assim a complexidade como ponto de partida para toda nossa compreensão da natureza. Em primeiro lugar, complexidade e totalidade são conceitos distintos (Morin: 2015). Como nos lembra Adorno, a verdade é o não-todo. Como os cantos da unidade do holismo são tão sedutores quanto as sereias de Ulisses, é preciso renunciar à ideia mesma de totalização, como Kant o fez para fundar a razão moderna. Para tanto, algumas demarcação são imperativas. As demandas de racionalidade da filosofia implicam unidade e não necessariamente totalidade. As relações entre unidade (henologia) e diferença (diaforologia) não podem se sobrepor às relações entre o todo (holologia) e as partes (mereologia).
Descrever processos quânticos discretos de diferenciação do espaço e do tempo em unidades provisórias não significa pressupor que esses processos possam ser remetidos a uma totalidade final, seja ela transcendental ou imanente ao universo. Como o todo é atravessado pelo infinito, e como nunca tivemos e nunca teremos acesso a nenhum modelo final do universo, deduzir a racionalidade dos fenômenos a partir de uma eventual totalidade pode gerar explicações equivocadas sobre a percepção das partes e sobre as diferenciações por meio das quais uma unidade é constituída, em um movimento que nos induz a uma ilusão de percepção de um todo. Ademais, devido à sua natureza e entendida em seus aspectos cibernéticos, sistêmicos, comunicacionais, informacionais e físicos, a replicabilidade gerativista, apoiada na complexidade computacional, opera a partir de regimes de discrição e descontinuidade. Por esses e outros motivos, a complexidade precisa se distinguir drasticamente da busca de um todo holista. O empirismo e o sensorialismo não pode nos auxiliar nessa distinção.
- Empirismo e Indutivismo
Embora tenha dado uma contribuição imensa para o avanço da ciência, o sucesso do empirismo paradoxalmente ocultou suas limitações. Mesmo valorizando o método observacional e experimental como uma alternativa aos saberes dedutivos da filosofia e da filomitia, o empirismo e o indutivismo se fundam em uma base movediça: o sensorialismo. O recurso ao sensorialismo foi demolido por Hume em sua crítica global dos princípios da inferência indutiva (Hume: 2004). Entretanto, de modo paradoxal, a crítica de Hume acabou tendo efeito mais sobre a capacidade de universalização dos dados contingentes da experiência do que sobre os procedimentos experimentais inerentes à dinâmica da ciência. Desse modo, curiosamente, o empirismo não apenas sobreviveu a Hume, mas tornou-o um de seus principais aliados. Uma das explicações para esse paradoxo reside no solipsismo presente na teoria humeana do conhecimento. Ao propor a inseparabilidade entre ideias e sensações, Hume acaba por definir que as ideias não podem ser depuradas da empiria a ponto de se tornarem universais. Contudo, se todas as ideias são sensações e não é possível produzir estruturas abstratas a partir de ideias-sensações, por que deveríamos chamar as sensações de ideias e não apenas de sensações? Para instaurar algo chamado pensamento é preciso algum grau de heterogeneidade entre pensamento e sensação. Se essa heterogeneidade não existe, como podemos demarcar as sensações como sensações sem comprometer as bases do pensamento? Retornamos aos dilemas espinhosos do reducionismo. Entretanto, devido a suas potencialidades preditivas, esse sensorialismo impassível de ser universalizado acaba sendo incorporado, otimizado e normatizado pela ciência. Como a partir do século XVII uma das bases da ciência moderna passa a ser a capacidade de realizar previsões, racionalidade e previsibilidade acabaram se entrelaçando. E o sensorialismo empirista acabou assumindo o coração da ciência experimental.
O empirismo parte da suposição de que podemos tomar a percepção e os sentidos como bases da abstração. E que por meio de processos inferenciais, podemos estabilizar uma sucessão de ocorrências sensoriais, utilizando-a como modelo para prever outras sucessões de ocorrências sensoriais, em outros contextos, de outras magnitudes e de outra natureza. Essa ideia implica uma ideia correlata de que as ideias mais abstratas surgiriam de processos abstrativos de depuração dos sentidos, mais simples. Surge aqui uma hipótese: ainda que as sensações e os agregados empíricos não sejam universalizáveis, eles podem ser generalizados e extrapolados. Ou seja: podem estar a serviço de uma operação racional vinculada à compreensão da estrutura e do funcionamento da natureza. Nesse sentido, o empirismo supõe que por meio de observações, generalizações e extrapolações de dados descritos a partir de situações contingentes pode-se universalizar padrões de comportamento da natureza, chegando às condições de leis. Essa suposição é um problema. E não o é por causa de uma divisão entre realidade e forma, entre essência e aparência, entre mundo das ideias e mundo fenomênico, nos termos platônicos que se perpetuaram ao longo de dois milênios de filosofia. O empirismo é um problema porque, por estranho que isso possa parecer, eles supõem a possibilidade de passarmos de formas mais complexas a formas mais simples. Em outras palavras, supõe a possibilidade de redução dos emaranhados e das multiplicidades das preensões e dos sentires (Whitehead: 2010), a estruturas formais mais generalizadas e mais abstratas, que seriam as leis. Ora, as teorias emergentistas não admitem a redução do complexo ao simples. E tampouco admitem a redução do simples ao complexo, pois essa seria uma das variações do holismo, mencionado acima. Diante desse impasse entre o simples e o complexo, uma defesa dos sentidos que esteja à altura de uma teoria emergentista deve conceber a percepção e os sentidos não como uma multiplicidade avessa às estruturas abstratas ou como uma mera derivação de segundo grau de estruturas eidéticas. Deve sim conceber as estruturas abstratas como uma das condições emergentes das multiplicidades fenomênicas dos sentidos, prenhes de outras possibilidades e de outras variações formais. Essas variações diferentes do empirismo dão origem ao empirismo radical e ao pragmatismo de William James (James: 1967, 2022), ao pragmaticismo de Charles Sanders Peirce (Peirce: 1972, 2000, Santaella: 2000, 2012) e à filosofia organicista-processual de Whitehead (1993, 1985, 2010). O outro aspecto fundamental do empirismo possui também suas armadilhas: o indutivismo. Como a crítica ao indutivismo é uma das características principais de Deutsch e de Popper, vamos compreendê-la.
O problema central da indução consiste na impossibilidade de fundar verdades objetivas a partir de seus dois recursos primaciais: a observação e a extrapolação. Como a observação não é suficiente para a construção de uma teoria, o indutivismo se ocupa do preenchimento de lacunas observacionais ao longo do tempo. Os limites da observação são imensos. A seleção mesma dos fatos e dos recortes da realidade a serem observados traz em si os limites da natureza que estamos produzindo a partir de cada recorte. Por isso, Bachelard e Husserl tinham razão ao defender a pertinência da fenomenologia para a ciência. Enquanto não aprendermos a esgotar todas as possibilidades e virtualidades de um dado campo fenomênico e experimental, não podemos edificar nenhum conceito operacional de valor. A despeito de ser menosprezada, a descrição é um dos elementos centrais de toda ciência (Bateson: 2002). A descrição é o primeiro recorte da natureza e, nesse sentido, computacional e ciberneticamente é o primeiro input informacional que pode definir todas as etapas ulteriores do sistema. A primeira seleção dos dados que serão posteriormente analisados, organizados, cruzados, permutados e finalmente universalizados sob a forma de leis ou por meio de um computador universal. A partir desse primeiro recorte de informações, constrói-se todo castelo conceito da razão.
Devido a esta instabilidade contingente das modelizações a partir de elementos circunstanciais, Popper desenvolve dois conceitos para fazerem frente à observação e à indução: a conjectura e a refutação. O sucesso ou o insucesso das teorias ao longo do tempo não dizem respeito à adequação de seus postulados a descrições observacionais. Tampouco dizem respeito a soluções preditivas mais ou menos eficazes. Dizem respeito às suas capacidades de elaborar novas conjecturas acerca do mundo e às suas possibilidades de refutar as teorias congêneres. As teorias se assemelhariam mais à capacidade de copiar e refutar teorias anteriores, tornando-as mais adaptativas a novos cenários mentais e materiais, do que às suas propriedades de mimetizar o mundo exterior e produzir generalizações. Estamos distantes aqui das visões representacionais da linguagem. E tampouco se defende uma ontologia. As teorias estariam mais próximas da replicabilidade e da autorreplicabilidade dos genes do que de enunciações e justificativas que edificam leis por meio de preenchimento de lacunas e de extrapolações de situações contingentes, apoiadas na empiria e na recorrência. Muitos sistemas pretenderam considerar algumas asserções como sendo pretensamente universais-substanciais, ao passo que outras seriam relegadas à condição de acidentes-inessenciais. Surge aqui um problema nuclear de todo conhecimento: as noções de identidade e de diferença e de diferença e repetição (Deleuze: 1998).
A base do indutivismo é a observação. E, a partir da observação, procede-se a generalizações e a extrapolações. Nesse sentido, as deficiências do indutivismo são mais nebulosos de serem demarcadas. Ele de fato consegue promover essas generalizações e a extrapolações a partir das recorrências e dos padrões de fenômenos localizados. Se fizermos um exercício mental, poderemos compreender um pouco melhor quais seriam esses limites. A escolha da observação dos corpos celestes gerou a astronomia e a cosmologia, duas ciências protagonistas da civilização. A meteorologia e o clima nunca tiveram essa importância. Apenas agora, à medida que as ciências têm se baseado cada vez mais em regimes de probabilidade e em sistemas causais não-lineares fora de equilíbrio, a meteorologia começa a se tornar uma ciência-modelo para as demais ciências (Sloterdijk: 2006). Em que medida a compreensão do que chamamos de universo seria diferente se tivéssemos criado modelos de universo baseado nas nuvens e no clima e não baseados nos astros e nas constelações? Isso significa que a extrapolação não se baseia em um todo observável, pois não existe um todo observável. À medida mesma que é observado, não é uma totalidade.
A observação é sempre seletiva e localizada, até mesmo para poder trabalhar a partir de critérios e variáveis mensuráveis e compatíveis entre si. Isso não significa que essa extrapolação não consiga produzir padrões consistentes. Significa que as extrapolações representam apenas o resultado de processos seletivos de n-situações observáveis e de n-consistências passíveis de serem construídas a partir da experiência. por fim, o indutivismo postula uma relação entre causalidade, probabilidade, racionalidade e possibilidade. A soma de recorrências de fenômenos pode gerar probabilidades. Ainda que estas recorrências se repitam e comprovem a probabilidade, de maneira nenhuma podemos dizer que essas recorrências são estruturas causais necessárias. Para demonstrá-lo, basta que imaginemos outros conjuntos de possibilidades que por acaso se configurem. E que, nesse novo arranjo, um ou mais dos componentes desse horizonte experimental altere determinadas recorrências e, por conseguinte, altere as predições. Devemos nesse caso reconhecer que as estruturas causais foram alteradas? Se novos arranjos de possibilidades e partes de um conjunto são capazes de alterar as estruturas causais que governam um conjunto, podemos dizer que as leis que inferimos indutivamente a partir das probabilidades que regem esse conjunto sejam realmente leis? De modo bem resumido, essas limitações do indutivismo nos conduzem a outras duas matrizes do conhecimento. Embora sejam bastante usuais e consensuais em ciência, precisam ser revistas: o instrumentalismo e o positivismo.
- Instrumentalismo e Positivismo
O instrumentalismo ressalta apenas um aspecto das teorias: a capacidade de produzir previsões e gerar sistemas preditivos. Contudo, as previsões não são por si mesmas capazes de produzir modelizações amplas do universo. E, por isso, o instrumentalismo conta com a mesma contraparte complementar dos processos indutivos: a extrapolação. Parte-se de descrições de fatos locais e, a partir das recorrências e das repetições, extrapola-se os resultados por meio da construção de leis gerais. Os limites do instrumentalismo estão em sua insuficiência em fornecer teorias explicativas sobre a realidade que não sejam produzidas a partir desses movimentos de instrumentalização das predições e da extrapolação de seus resultados. O extremo do instrumentalismo seriam o logicismo formal e o positivismo, segundo os quais todo percurso de sentido precisa ser fruto dos efeitos previstos pela lógica imanente à linguagem e às proposições. Quando saímos do positivismo do século XIX e adentramos o linguistic turn promovido pelo Círculo de Viena, com Moritz Schlick e Rudolf Carnap, o debate se torna extremamente delicado. Os desdobramentos dessa alteração profunda da epistemologia passa por Wittgenstein, por Bertrand Russell e por toda tradição da ciência e da filosofia analíticas, passando por Willard Van Orman Quine e chegando às diversas tendências da filosofia da linguagem do século XXI.
Vamos por enquanto apenas determinar que o instrumentalismo é uma maneira de tratar a observação a partir de uma positividade dada na imanência da linguagem, entendida como meio de acesso lógico e seguro aos fatos, independente de considerarmos esses fenômenos reais ou meramente formais. Tendo isso em vista, o sucesso do positivismo e do instrumentalismo decorre de sua eficácia em descrever o sucesso ou o fracasso de teorias e conceitos tendo em vista a previsão. A previsibilidade continua sendo o critério norteador do positivismo-instrumentalismo na verificabilidade e na validação dos enunciados que descrevem estados de coisa imanentes à linguagem. E, se levarmos em conta o acúmulo de resultados factuais positivos em relação a outros resultados que são descartados por não cumprirem os mesmos desempenhos de sucesso descritivo, isso explica o sucesso dessas teorias na ciência e na filosofia da ciência. Contudo, estamos aqui sempre dentro dos limites da descrição e da previsão, não das explicações. A finalidade da ciência deveria ser a explicação, não a previsão. Os fatos são previstos e descritos, mas não explicados, em uma inversão entre meios e fins. O que seria a explicação? Seria um modo pelo qual conseguimos reunir e entender a maior quantidade de fatos sem a necessidade de conhecer as especificidade de cada fato em si. Para tanto, é preciso trabalhar com limites mais expandidos do conceito de conhecimento.
- Conhecimento
Um dos quatro elementos-matrizes de Deutsch é a epistemologia ou, mais especificamente, em uma teoria do conhecimento. Desse modo, dialoga de modo subterrâneo com diversos autores: Douglas Hofstadter, John Barrow, Charles Bennett, Gilles Brassard, Artur Ekert, Julian Brown, Paul Davies, Julian Brown, Daniel Dennett, Neill Graham, Ludovico Geymonat, Imre Lakatos, Alan Musgrave, Seth Lloyd, David Miller, Ernst Nagel, James Newman, Steven Weinberg, Benjamin Woolley, Lewis Wolpert, Geoffrey Leech, Sidney Greenbaum, Randolph Quirk, Anthony O’Hear, Chandra Wickramasinghe, dentre outros. A despeito dessa rede de referências, a escrita de Deutsch é didática e cristalina, mesmo quando envereda para questões de alta complexidade. Diferente do que se esperaria de um dos pais da complexidade quântica computacional, não há uma nota de rodapé sequer em seus livros. E a articulação dos conceitos é sempre submetida a uma compreensão em primeira pessoal, com grandes índices de autoria e de reflexividade pessoal acerca dos temas, conceitos, problemas, ciências, obras e autores tratados. Há até mesmo capítulos bem-humorados, com uma estruturada dialogada, à maneira de Platão. Essa postura generosa para com o leitor é especialmente eficaz. E se movimenta na contramão de muitos cientistas que primam por tornar ainda mais intricados e complicados domínios de conhecimento que, por si mesmos, são complexos. E demonstra uma ética do conhecimento científico, à medida que uma crescente tecnocracia envolve os campos da teoria quântica e da computação, com autores cada vez menos interessados em compartilhar seu conhecimento com os não-cientistas. Deutsch se situa então em uma posição curiosa. Ao mesmo tempo em que formula uma teoria da complexidade e da emergência de matriz antirreducionista, recorre diversas vezes à Navalha de Ockham como um modo de salvaguardar a efetividade dos conceitos formulados e a solidez do encadeamento lógico das proposições e enunciados. Esse oxímoro gera um efeito muito instigante. Somos conduzidos a camadas cada vez mais complexas de explicação da realidade por meio de seccionamentos discursivos cada vez mais claros e simples.
Para compreender essas camadas, a visão de Thomas Kuhn (2003) sobre a estrutura das revoluções científicas não explica as mudanças da ciência de modo satisfatória. As definições de paradigma são de difícil mensuração. Muitos métodos são utilizados em uma mesma época. E os padrões da ciência normal não são apenas padrões conservadores. Haja vista o papel das teorias mais disruptivas do século XX, hoje consensuais e integrantes do mainstream da atividade de pesquisa em todo mundo. O sucesso e o insucesso individuais tampouco podem ser atribuídos a valores estritamente individuais ou a um filtro seletivo da comunidade científica. Por fim, a noção de contexto pode ser fraca nesse sentido, como o propôs Popper (2016). O conceito de contexto pode ser uma tautologia. Estabelece os valores vigentes da ciência praticada em uma determina época e explica o funcionamento dessa mesma ciência à luz desses valores. Como devemos então abordar o processo de conhecimento? Quais as melhores maneiras de o acessarmos em seu cerne? As melhores maneiras são concebendo a ciência como o epicentro de processos explicativos. E, seguindo Popper, adotarmos as conjecturas e a refutabilidade como princípios norteadores, mais do que recursos indutivos, dedutivos ou intuitivos. Para compreender a centralidade da explicação e das conjecturas-refutações, precisamos percorrer os limites do empirismo, do instrumentalismo, do positivismo e do indutivismo. E devemos analisar o falibilismo, surgido no século XVIII e que representa o começo do da ascensão do infinito (beginning of infinity) no processo cognitivo humano (Deutsch: 2011). A passagem do mundo fechado ao universo infinito (Koyré: 1979). O começo do processo de infinitização do universo do qual hoje somos protagonistas (Deutsch: 2011).
E, por fim, há um motivo para falarmos em pensamento, em conhecimento e mesmo em teoria do conhecimento e não em epistemologia. A epistemologia tem como objeto estruturas de pensamento e de linguagem altamente formalizadas, como nos casos da filosofia, das ciências, da matemática. Objetiva elucidar as condições metaempíricas por meio das quais o conhecimento ocorre. Por isso, a explicação possui um estatuto diferencial dentro dos processos de conhecimento. Não podemos nos contentar com formulações, enunciados, declarações. Os fatos precisam ser explicados. Tampouco podemos esgotar o conhecimento com a criação de melhores maneiras de prever fenômenos a partir da observação. A teoria precisa investigar os princípios que estruturam a realidade. E a ciência não se esgota em explicar fenômenos experimentados diretamente, apenas de modo empírico. Deve levantar suposições e construir teorias que descrevam a estrutura metaempírica da realidade. holismo, reducionismo, empirismo, sensorialismo, indutivismo, instrumentalismo, positivismo. Como chegar a uma nova compreensão gerativa da realidade, situada para além desses dos domínios dessas abordagens? Por meio do conceito de emergência.
- Emergência
As teorias da emergência pressupõem que fenômenos de alto grau de complexidade não podem ser reduzidos aos fenômenos mais simples. Embora possamos lidar com graus cada vez mais profundos e cada vez mais abstratos de unidade, essa unificação nunca se completa em um todo. Esse é um dos motivos de convergência entre o emergentismo e a teoria dos multiversos. O universo seria apenas a unificação parcial das infinitas condições compossíveis e das infinitas superposições quânticas da natureza em apenas um estado e em uma possibilidade. Em outras palavras, a totalidade é uma delimitação das infinitas virtualidades e potencialidades emergentes que se realizaram em outros universos-espelho inscritos no multiverso, coextensos e tão reais quanto o nosso universo observado e descrito. As teorias emergentistas procuram enfatizar as relações subjacentes aos diversos domínios fundamentais da natureza, demonstrando como é impossível compreendermos estes domínios locais em profundidade e em extensão sem investigar as articulações profundas que cada um deles estabelece com os demais domínios. Não se trata de criar uma ontologia geral que reúna as ontologias regionais. O primeiro motivo é porque, a partir da teoria quântica, as condições fundamentais da emergência podem pressupor o vazio, e não uma hiperestrutura ou um hiper-ser unificador de tudo, à maneira de Platão e de diversas linhas da metafísica substancialista. Diversas linhas da teoria quântica têm nos apresentado um modelo que pode ser definido como naturalismo sem substância (Rovelli: 2021) ou como uma malha sem natureza (Morton: 2023). O segundo motivo é que, embora exista uma compatibilização entre infinitos universos virtuais, do ponto de vista dos multiversos não existe uma ontologia geral capaz de unificar de modo homogêneo todos esses universos possíveis em um único universo. Isso seria apenas uma forma de reduzir as condições formais infinitas de atualização dos multiversos, pressupondo-se que haveria um universo mais verdadeiro do que outros na propagação dos universos-espelhos que constitui o multiverso. Essa pressuposição possui um primeiro problema: a definição das condições iniciais e finais do multiverso e a definição dessas condições como sendo as condições fundamentais do universo. Esse problema das condições fundamentais gera outro problema derivado: a determinação das propriedades fundamentais da natureza.
Quando pensamos em propriedades fundamentais da natureza, por mais vasta que seja nossa abordagem, procedemos a modelagens e a seleções a partir de certas criteriologias e filtragens. Ou seja: estamos computando. Em termos computacionais, alimentamos um programa para obter determinadas informações. Ainda que nosso objeto seja o cosmos e suas leis fundamentais, estaremos operando por meio de reduções. E, devido a uma necessidade racional, não podemos supor que um domínio do conhecimento e da natureza possa esgotar todos os domínios da natureza e do conhecimento existentes. As teorias mais elementares e universais são propriedades emergentes de outras teorias. As leis da biologia emergem das leis da física. Mas as leis físicas que depreendemos do universo não-vivo emergem das propriedades da vida. Não podemos compreender o universo apenas a partir da física, pois para compreendê-lo foi preciso ter havido a emergência da vida. Não podemos compreender a vida sem compreender o humano, pois para compreendê-la foi preciso ter havido o humano. Não podemos compreender o humano sem compreender o cérebro, pois o que chamamos de universo, de vida e de humano é parte da atividade desse catalisador universal (Deleuze-Guattari: 1997). Não podemos compreender a atividade cerebral sem compreender a mente, pois as atividades cerebral e mental são coevolutivas. Não podemos compreender a mente sem compreender a civilização, a linguagem e a simbolização humanas, pois o universo, a vida, o humano, o cérebro e a mente são propriedades emergentes da civilização, da linguagem e da simbolização. E assim sucessivamente.
Esse processo nunca se conclui e possui algumas variações e desenvolvimentos similares em teorias diferentes. A hermenêutica o traduz como paradoxo compreensivo (Stein: 2010). Algumas vertentes da teoria da complexidade o nomeiam como recursividade (Morin: 2015). E na teoria dos sistemas podemos defini-lo como autopoiesis (Luhmann: 2009, Maturana-Varela: 1987, Sloterdijk: 2003, 2004, 2006). Chamo esse processo emergentista de gerativismo. O gerativismo não seria uma recusa do reducionismo. Seria uma teoria que o leva às últimas consequências. As últimas consequências do reducionismo não seria a finitude, mas o infinito. O infinito e a concepção de uma natureza infinitesimal preveem o Vazio. Essa flutuação quântica sobre a qual o universo se fundamental seria o fundamento primeiro e final da natureza: a ausência de fundamento. Por isso, as origens da filosofia gerativa devem ser buscadas no taoísmo e em Nāgārjuna. E, não por acaso, os paralelos entre o pensamento de Nāgārjuna e a teoria quântica são assombrosos (Rovelli: 2021). Se partimos do Vazio como axioma fundamental, quando chegamos aos limiares de redução de cada processo, acabamos por conceber a natureza como um processo de irredutibilidade infinita. O importante do gerativismo é que esta estrutura de bonecas russas, de propriedades emergentes dentro de propriedades emergentes, dispostas em espirais concêntricas, não chega a um núcleo. E, se esse núcleo existisse, ele seria Vazio. Como a imagem das cebolas de algodão (Flusser: 2019, Petronio: 2019), quando chegamos a uma última imagem e supomos tocar a usina da realidade, percebemos que ainda estamos envolvidos em um tecido intranscendível de imagens, pois não existe observador externo ao universo (Novello: 2023). Contra a noção de totalidade, o gerativismo se baseia nessa irredutibilidade infinita. Essa intangibilidade do real não consiste em uma dimensão misteriosa ou mística, oculta e intocada, uma espécie de ponto alfa do cosmos. Decorre apenas da inacessibilidade (provavelmente da inexistência) de um coração comum a todas essas realidades emergentes. Essa concepção abre espaço para três conceitos nucleares do gerativismo: o multiverso, o infinito e a virtualidade.
Nessa nova cena do cosmos gerativo, fundado sobre o Vazio, os papeis desempenhados pelo entendimento e pela razão são centrais. Enquanto o entendimento aumenta os limites e a profundidade do campo conhecido do universo, a razão possibilita que as infinitas camadas explicitadas pelo processo explicativo não se reduzam umas às outras. Articulados, entendimento e razão, explicação e emergência preservam assim tanto as estruturas fundamentais da simplicidade, imanente aos seres e aos conceitos, quanto a complexa sobreposição de camadas do universo, autônomas em sua infinita irredutibilidade. O avanço do conhecimento nesse sentido não consiste em uma acumulação indefinida e amorfa de informação e de novos fatos. Por mais que estejamos tendo acesso a uma quantidade cada vez maior de fatos sobre o universo, isso não significa que o universo seja mais complexo do que o era para Aristóteles, para Newton ou para Einstein. A exponencialidade das informação e a expansão da ciência experimental produzem uma saturação de evidências. Isso não significa um aprofundamento das explicações. Ao contrário, essa exponencialidade pode mesmo obstruir a construção de uma teoria explicativa que satisfaça todos os aspectos singulares dos fatos e forneça um mapa de orientação para o universo. Significa que precisamos de teorias explicativas cada vez mais abrangentes e profundas, capazes de articular essas informações cada vez mais especializadas e setorizadas, descritas pelos meios da empiria. O acúmulo de dados da experiência não assegura necessariamente uma expansão da ciência. Para o êxito da ciência é preciso haver teorias explicativas cada vez mais profundas e abrangentes. Uma teoria gerativa, baseada na quadratura circular dos elementos-matrizes descritos acima e apoiada em uma perspectiva emergentista, pode contribuir para a solução desses impasses. E pode vir a ser um dos principais meios de explicação do pensamento, da vida e do universo.
Rodrigo Petronio é escritor e filósofo. Professor titular da FAAP, é autor de 17 livros e de centenas de ensaios e artigos. Atua na fronteira entre comunicação, literatura e filosofia. Formado pela USP, tem dois mestrados: em Filosofia da Religião (PUC-SP) e em Literatura Comparada (UERJ) Realizou o Doutorado na UERJ/Stanford University. Desenvolveu um pós-doutorado sobre a cosmologia de Alfred North Whitehead (2018-2020) no Programa de Pós-Graduação em Tecnologias da Inteligência e Design Digital (TIDD|PUC-SP), onde atualmente é pesquisador. Site: www.rodrigopetronio.com Contato: rodrigopetronio@gmail.com
Referências
BATESON, Gregory. Mind and Nature: A necessity unity. Advances in Systems Theory, Complexity, and the Human Sciences. Foreword: Alfonso Montuori. Hampton Press: New York, 2002.
DELEUZE, Gilles. Diferença e repetição. Tradução: Luiz Orlandi, Roberto Machado. Rio de Janeiro: Graal, 1988.
DELEUZE, Gilles e GUATTARI, Félix. Mil Platôs: Capitalismo e Esquizofrenia. Cinco Volumes. São Paulo, 34 Letras, 1997.
DEUTSCH, David. Quantum theory, the Church-Turing principle and the universal quantum computer. Communicated by Roger Penrose, F.R.S. — Received 13 July 1984. Appeared in Proceedings of the Royal Society of London A400, 1985, p. 97-117.
DEUTSCH, David. The Fabric of Reality: The Science of Parallel Universes — and Its Implications. London: Penguin Books, 1997.
DEUTSCH, D. & HAYDEN, P. Information flow in entangled quantum systems. Proc. R. Soc. A456, 2000, p. 1759-74.
DEUTSCH, David. The structure of the multiverse. Proc. R. Soc. A458, 2002, 2911-23.
DEUTSCH, David. “The Architecture of the Multiverse”. FLACHBART, Georg and WEIBEL, Peter (Editors). Disappearing Architecture: From Real to Virtual to Quantum. Basel: Birkhauser – Publishers for Architecture, 2005, p. 24-31.
DEUTSCH, David. The Beginning of Infinity: Explanations that Transform the World. London: The Penguin Press, 2011.
DEUTSCH, David. Constructor Theory. Centre for Quantum Computation, The Clarendon Laboratory, University of Oxford and Future of Humanity Institute, University of Oxford, September 2012 (Revised December 2012).
DEUTSCH, David. Vindication of quantum locality. Proc. R. Soc. 2012A468, p. 531-44.
DEUTSCH, D., & JOZSA, R. “Rapid Solution of Problems by Quantum Computation”. Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences, 1992, 439(1907), 553–558.doi:10.1098/rspa.1992.0167
HARMAN, Graham. O objeto quádruplo: uma metafísica das coisas depois de Heidegger. Tradução: Thiago Pinho. Rio de Janeiro: Eduerj, 2023.
HUME, David. Investigações sobre o entendimento humano e sobre os princípios da moral. 1. ed. Tradução de José Oscar de Almeida Marques. São Paulo: Unesp, 2004.
JAMES, William. Pragmatismo e Outros Ensaios. Tradução Jorge Caetano da Silva. Introdução Joseph Blau. Rio de Janeiro: Lidador, 1967.
JAMES, William. Ensaios de empirismo radical. Rio de Janeiro: Machado, 2022.
KUHN, Thomas. A estrutura das revoluções científicas. São Paulo: Perspectiva, 2003.
KOYRÉ, Alexandre. Do mundo fechado ao universo infinito. Tradução: Donaldson Garschagen. Rio de Janeiro: Forense Universitária, 1979.
LUHMANN, Niklas. Introdução à teoria dos sistemas. Petrópolis: Vozes, 2009.
MATURANA, Humberto; VARELA, Francisco. The tree of knowledge: the biological roots of human undertanding. Foreword by J. Z. Young. New Science Library. Boston & London: Shambhala, 1987.
MENESES, Paulo. Para ler a Fenomenologia do Espírito. São Paulo: Loyola, 1985.
MORIN, Edgar. Introdução ao pensamento complexo. Tradução: Eliane Lisboa. 5.ed. Porto Alegre: Sulina, 2015.
MONOD, Jacques. Acaso e necessidade: ensaio sobre a filosofia natural da biologia moderna. Tradução Bruno Palma e Pedro Paulo de Sena Madureira. Petrópolis: Vozes, 1971.
MORTON, Timothy. O pensamento ecológico. Tradução: Renato Prerolentzou. Posfácio: Rodrigo Petronio. Orelha: Ana Rüsche. São Paulo: Quina, 2023.
NOVELLO, Mário. Do big bang ao universo eterno. Rio de Janeiro: Zahar, 2010.
NOVELLO, Mário. O que é cosmologia? A revolução do pensamento cosmológico. Rio de Janeiro: Zahar, 2006.
NOVELLO, Mário. Os construtores do cosmos. Organização da Série Mario Novello: Rodrigo Petronio. Posfácio: Rodrigo Petronio. São Paulo: Global, 2023.
PEIRCE, Charles Sanders. Semiótica e Filosofia: Textos Escolhidos de Charles Sanders Peirce. Introdução, Seleção e Tradução Octanny Silveira da Mota e Leônidas Hegenberg. São Paulo: Cultrix, 1972.
PEIRCE, Charles Sander Semiótica. Tradução José Teixeira Coelho Neto. São Paulo: Perspectiva, 2000.
PETRONIO, Rodrigo. “As cebolas de algodão: As imagens na ontologia e na cosmologia paraconsistentes de Vilém Flusser”. In: FLUSSER, Vilém. Elogio da superficialidade: O universo das imagens técnicas. Organização das Obras Completos de Vilém Flusser: Rodrigo Petronio e Rodrigo Maltez Novaes. Posfácios: Rodrigo Petronio, Norval Baitello Junior, Lucia Santaella, Lucrécia D`Alessio Ferrara, Marcos Beccari. São Paulo: Editora É, 2019.
PETRONIO, Rodrigo. Abismos da leveza: Por uma filosofia pluralista. Prefácio Lucia Santaella (PUC-SP). Orelha: Hilan Bensusan (Universidade de Brasília). Quarta-Capa: Jean-Pierre Dupuy (Stanford University). Posfácio: Mario Dirienzo. São Paulo: Editora É, 2022, 400 páginas.
PETRONIO, Rodrigo. Mesons: Ontologia. Tese de Doutorado apresentada no Departamento de Literatura Comparada do Instituto de Letras da Universidade do Estado do Rio de Janeiro para a obtenção do título de Doutor. Orientador: Prof. Dr. João Cezar de Castro Rocha. Rio de Janeiro, 2015, 495 p.
PETRONIO, Rodrigo. Oceanos: Ensaios sobre pensamento luso-brasileiro. São Paulo: Global, 2023 (prelo).
POPPER, Karl. O mito do contexto: Em defesa da ciência e da racionalidade. Lisboa: Edições 70, 2016.
PRIGOGINE, Ilya & STENGERS, Isabelle. A nova aliança: metamorfose da ciência. Tradução Miguel Faria e Maria Joaquina Machado. Brasília: Universidade de Brasília, 1991.
ROVELLI, Carlo. O abismo vertiginoso: Um mergulho nas ideias e nos efeitos da física quântica. Tradução: Silvana Cobucci. Rio de Janeiro: Objetiva, 2021.
SANTAELLA, Lucia. Percepção: Fenomenologia, Ecologia e Semiótica. São Paulo: Cengage Learning, 2012.
SANTAELLA, Lucia. A Teoria Geral dos Signos: Como as Linguagens Significam as Coisas. São Paulo: Pioneira, 2000.
SHOR, P. W. “Algorithms for quantum computation: discrete logarithms and factoring”. Proceedings 35th Annual Symposium on Foundations of Computer Science, Santa Fe, NM, USA, 1994, pp. 124-134, doi: 10.1109/SFCS.1994.365700.
SIMONDON, Gilbert. A individuação à luz das noções de forma e de informação. Tradução: Luís Eduardo Ponciano Aragon e Guilherme Ivo. São Paulo: Editora 34, 2020.
SLOTERDIJK, Peter. Esferas I: Burbujas. Microsferología. Traducción Isidoro Reguera, Prologo Rüdiger Safranski. Barcelona: Siruela, 2003.
SLOTERDIJK, Peter. Esferas II: Globos. Macrosferología. Traducción Isidoro Reguera. Prólogo Rüdiger Safranski. Barcelona: Siruela, 2004.
SLOTERDIJK, Peter. Esferas III: Espumas. Esferología Plural. Traducción Isidoro Reguera. Prologo Rüdiger Safranski. Barcelona: Siruela, 2006.
SMOLIN, Lee. Três caminhos para a gravidade quântica. Tradução: Walter J. Maciel. Rio de Janeiro: Rocco, 2002.
STEIN, Ernildo. Antropologia filosófica: questões epistemológicas. Ijuí: Unijuí, 2010.
WHITEHEAD, A. N. O Conceito de Natureza. Tradução de Júlio B. Fischer. São Paulo: Martins Fontes, 1993.
WHITEHEAD, Alfred North. Process and reality: an essay in cosmology. Corrected ediction. Gifford Lectures Delivered in the University of Edinburgh during the session 1927-28. Edited by David Ray Griffin and Donald W. Sherburbe. New York: Free Press, 1985.
WHITEHEAD, Alfred North. Processo e Realidade. Ensaio de Cosmologia. Lisboa: CFUL, 2010.