Acessibilidade / Reportar erro

Complexidade, auto-organização e informação em sistemas dinâmicos* * A Michel Debrun in memoriam

(Complexity, self-organization, and information in dynamical systems)

Resumos

Neste artigo consideramos os aspectos gerais dos temas emergentes na segunda metade do século passado, de complexidade, auto-organização e informação. Os três estão ligados pelo fato de estarem envolvidos na “teoria de sistemas dinâmicos”, e sobre esse ponto enfocamos a descrição aqui apresentada. Descreve-se o surgimento de comportamento complexo em tais sistemas dinâmicos em geral quando governados por uma teoria cinética não linear, a emergência de estruturas dissipativas sinergéticas à la Prigogine-Haken, e a teoria de informação via o enfoque de inferência científica proposto por Jeffreys-Jaynes.

complexidade; auto-organização; teoria da informação; sistemas dinâmicos


We describe certain general aspects of the topics complexity, self-organization and information, which emerged during the second half of the last century. They are entailed to the “theory of dynamical systems”, and it is from such point that we focus the description here presented. We describe how complex behavior arises in dynamical systems in general when they are governed by a non-linear kinetic theory as well as the emergence of self-organized structures (in the sense of the synergetic self-organized dissipative structures ”à la Prigogine-Haken”), and the theory of information through the point of view of the scientific inference of Jeffreys-Jaynes.

complexity; self-organization; information theory; dynamical systems


1. Prólogo

O que temos que aprender, aprendemo-lo pela ação.

Aristóteles (ca. 384-322 a.C.) Ethica Nichomachea II

Tem transcorrido alguns anos desde que tivemos que lamentar o falecimento do filósofo político e Professor Emérito da Unicamp, Michel Debrun. No Centro de Lógica e Epistemologia de sua universidade, Michel idealizou e coordenou um relevante grupo de trabalhos de caráter altamente interdisciplinar, com participação de pesquisadores de diversas áreas, não somente da Unicamp mas de outras instituições irmãs (USP, UNESP, UFG, UFMG). Os estudos nesse fórum centraram-se especialmente na questão de auto-organização em sistemas dinâmicos e teoria da informação, e sua conexão com o emergente paradigma da complexidade, e aqui apresentamos uma contribuição ao tema dedicado à sua memória.

O texto deste artigo organiza-se em termos de seções sobre complexidade, auto-organização, e informação. Todos os três são aspectos fundamentais ligados à “teoria de sistemas dinâmicos” a qual considera-se ter como pioneiro Ludwig von Bertalanffy. Bertalanffy escreveu que “se alguém for analisar noções correntes e frases de moda (fashionable catchwords), encontraria ’sistemas’ no topo da lista”. O conceito tem impregnado todos os campos da ciência e penetrado no jargão popular e nas mídias de massa, isto dito na Introdução do seu livro de 1968 [1[1] L. von Bertalanffy, General System Theory Foundations, Development, Applications (G. Braziller Inc., New York, 1968).], o qual é uma espécie de compilação, atualização e extensão dos seus trabalhos no assunto, os primeiros aparentemente datando de meados da década de 1930.

Estas questões estão hoje em dia fortemente ligadas ao uso, extremamente relevante, de modelagens matemáticas. Particularmente, há mais de quarenta anos Montroll e Shlesinger escreveram que no mundo da pesquisa sobre os fenômenos complexos vários estilos competitivos tem surgido, cada um com seus próprios “campeões” [2[2] E.W. Montroll, M.F. Shlesinger, J. Stat. Phys. 32(2), 209 (1983).]. O que está em jogo consiste em que no estudo de certos sistemas enfrentamos dificuldades quando temos que manejar situações que envolvem estruturas do tipo fractral, movimento turbulento ou caótico, sistemas de pequeno tamanho (escala nanométrica), e assim por diante. Nestas situações temos que lidar com a existência dos chamados vínculos escondidos (hidden constraints) aos quais não temos acesso.

O interesse no estudo destes sistemas físicos complexos tem sido recentemente reforçado como consequência de que eles formam parte de dispositivos eletrônicos e opto-eletrônicos na tecnologia avançada de hoje em dia, e também na área tecnológico-industrial envolvendo o uso de sistemas desordenados, soluções e materiais poliméricos, vidros iônico condutores, o caso de micro-baterias e outros. Também é altamente relevante na questão da emergente e em grande expansão de Sistemas em Biologia (Systems Biology – também conhecida como Systeomics), envolvendo complexidade, auto-organização e teoria da informação. Passamos a considerar estas três questões.

2. Complexidade

Complexidade, auto-organização, e informação aparecem como ligadas, pelo menos parcialmente, tanto em aspectos conceituais como teórico-práticos. Comecemos ordenadamente tratando primeiro, nesta seção, a questão do surgimento de um aparente novo paradigma consistente na assim chamada teoria da complexidade. É considerado que um dos primeiros “Manifestos” sobre o tema é devido ao Prêmio Nobel Philip W. Anderson [3[3] P.W. Anderson, Science 177, 393 (1972).]. Tal artigo data de 1972, e numa forma ou outra a ideia teve precursores. Não é fácil fazer uma retrospectiva, simplesmente mencionaremos o do Prêmio Nobel Ilya Prigogine com seus trabalhos desde a década de 1950. Podemos consultar o texto de 1989 na Ref. [4[4] G. Nicolis, I. Prigogine, Exploring Complexity(Freeman, New York, 1989).], em cujo Prefácio se lê:

Nosso mundo físico não mais é simbolizado pelos movimentos estáveis e periódicos que estão no coração da mecânica clássica. O nosso mundo é um mundo de instabilidades e flutuações, que em última instância são responsáveis pela incrível variedade e riqueza das formas e das estruturas que vemos na natureza que nos rodeia. Novos conceitos e idéias são necessárias para descrever a natureza, e nos quais evolução e pluralismo sejam os aspectos chaves. [Com isto poderemos] explorar complexidade, seja ao nível de moléculas, de sistemas biológicos, ou ainda de sistemas sociais. Enfatizamos o papel de duas disciplinas que tem modificado dramaticamente nossa visão da complexidade. Uma é a física de não-equilíbrio: nesta disciplina o resultado mais inesperado é a descoberta de novas propriedades da matéria quando em condições de fortemente afastada do equilíbrio. A outra disciplina é a moderna teoria de sistemas dinâmicos. Nela a descoberta central é a predominância da instabilidade. Resumindo, significa que pequeníssimas mudanças nas condições iniciais podem levar a enormes amplificações nos efeitos resultantes das mudanças. Os novos métodos que vêm sendo desenvolvidos neste contexto, levam para uma melhor compreensão do mundo em que vivemos.

Chamamos também a atenção para outra obra de Ilya Prigogine, esta com Isabelle Stengers, indicada na Ref. [5[5] I. Prigogine, I. Stengers, Order out of Chaos: Man's new Dialogue with Nature (Bantam, New York, 1984).]. A pretendida teoria da complexidade tem seu “Templo” no Instituto de Santa Fé (New México, USA), onde se reúnem seus “Sumo Sacerdotes” assim como algum associado do “alto e baixo clero”, para procurar criar seus fundamentos (se houver) e disseminá-los entre os ainda “não convertidos” da comunidade. A questão tem atingido certo nível de divulgação popular, como por exemplo em artigo da revista Time de 22 de fevereiro de 1993.

Não é fácil uma descrição sucinta das diversas definições de complexidade, e podemos aqui citar o título do artigo de Anderson [6[6] P.W. Anderson, Phys. Today 44(7), 9 (1991).]: “É a complexidade física? É ciência? O que é?”

Por um lado podemos mencionar os artigos de dois Nobelistas que estão entre os fundadores do Instituto de Santa Fé, um o já mencionado Anderson em [6[6] P.W. Anderson, Phys. Today 44(7), 9 (1991).] e Murray-Gellmann em [7[7] M. Gell-Mann, Complexity 1(1), 16 (1996).] (aliás este último artigo foi publicado no primeiro número da revista Complexity, editada pela Academic Press e com o corpo editorial basicamente proveniente do Instituto de Santa Fé).

Desnecessário dizer que a questão é altamente controvertida e motivo, às vezes, de azedas discussões. Um adversário era Rolf Landauer, aliás um constante crítico acerbo sobre diversas questões (seu papel de correspondência personalizado tem o mote: “I am entitled to be grumpy!”), e também podemos mencionar comentários do conhecido, e altamente competente, jornalista científico John Horgan, autor do best seller (na sua época) The End of Science[8[8] J. Horgan, The End of Science (Addison-Wesley, Reading, 1996).]: no capítulo 8, intitulado The End of Chaoplexity abarca os temas aqui apresentados. Também, e referente especialmente a este capítulo, podemos mencionar seu Da Complexidade à Perplexidade [9[9] J. Horgan, Sci. Am. 272(6), 74 (1995).].

Voltando ao tema central, parece-nos que, pelo menos para tentar dar certa perspectiva sobre este paradigma emergente, o melhor é apresentar trechos do pensamento de Edgar Morin tomados do capítulo 1, O Desafio da Complexidade no livro da Ref. [10[10] E. Morin, Ciência em consciência (Bertrand Brasil, São Paulo, 1986).]. Seguindo Morin:

A problemática da complexidade ainda é marginal no pensamento científico, no pensamento epistemológico e no pensamento filosófico. Quando se examinam os grandes debates da epistemologia anglo-saxônica entre Popper, Kuhn, Lakatos, Feyerabend, Hanson, Holton etc., vê-se que eles tratam da racionalidade, da cientificidade, da não-cientificidade e não tratam da complexidade; e os bons discípulos franceses desses filósofos, vendo que a complexidade não está nos tratados de seus mestres, concluem que a complexidade não existe. O problema da complexidade não é o da completeza, mas o da completeza do conhecimento. Em um sentido, o pensamento complexo tenta dar conta daquilo em que os tipos de pensamento mutilante se desfazem, excluindo o que chamamos de simplificadores [...]. Por exemplo, se tentamos pensar no fato de que somos seres ao mesmo tempo físicos, biológicos, sociais, culturais, psíquicos e espirituais, é evidente que a complexidade é aquilo que tenta conceber a articulação, a identidade e a diferença de todos esses aspectos, enquanto o pensamento simplificante separa esses diferentes aspectos, ou unifica-os por uma redução mutilante. Portanto, nesse sentido, é evidente que a ambição da complexidade é prestar contas das articulações despedaçadas pelos cortes entre disciplinas, entre categorias cognitivas e entre tipos de conhecimento.

[...] Os trabalhos de Prigogine mostraram que estruturas turbilhonárias coerentes podiam nascer de perturbações que aparentemente deveriam ser resolvidas com turbulência. Entendemos que é nesse sentido que emerge o problema de uma relação misteriosa entre a ordem, a desordem e a organização. [...]

Nestas considerações do Edgar Morin podemos destacar alguns pontos específicos de interesse: um peculiar é que precisamente estabelece a conexão entre os três tópicos a que aqui – e no Fórum organizado por Michel Debrun – nos estamos referindo. Outro ponto é o do papel da ciência, que obviamente aqui tem que estar presente. Lembremos que das diversas disciplinas intelectuais geradas pela mente humana, científicas são aquelas que se sustentam no método científico. Este método científico teve origem no século XVII, e se considera que seus “profetas iniciadores” foram Francis Bacon na Inglaterra, Galileo Galilei na Itália, e Rene Descartes na França. Em relação a isto talvez podemos dizer que do ponto de vista histórico a chamada Idade Moderna não tem ponto de partida como dito nos textos escolares, com a queda de Constantinopla para os turcos otomanos, porém iniciou-se a 28 de abril de 1686, quando Isaac Newton apresentou sua grandiosa Philosophia Naturalis Principia Mathematica em sessão da Royal Society.

O desenvolvimento da ciência, e com ela essa origem da Idade Moderna, é que deu a Europa Ocidental sua subsequente preeminência mundial. E o método científico, que a define, implica na frase de Morin no texto acima uma “dialógica, complexa permanente, complementar e antagonista, entre suas quatro pernas”. Sobre este último ponto faríamos uma observação: na verdade o método científico se sustenta muito bem sobre três pernas, que podemos em forma compacta chamar de observação, medida, e síntese. E a ação “complementar e antagonista” de teoria e experimento é fundamental, consistindo em um “casamento indissolúvel” [11[11] F. Bacon, Lord Verulam, The Great Ideas Today(Encyclopaedia Britannica, Chicago, 1981).13[13] W. Heisenberg, Physics and Philosophy: The Revolution in Modern Science (Harper and Row, New York 1958); Across the Frontiers (Harper and Row, New York, 1974).]. Vale a pena citar José Ortega y Gasset, o comentarista, humanista, e profundo crítico espanhol da primeira metade do Século XX, que chamou a atenção para o fato de que:

Toda a ciência da realidade, seja ela corporal ou espiritual, tem de ser uma construção e não mero espelho dos fatos. Porque a física desde os tempos de Galileu tomou tal decisão, isso a fez uma ciência exemplar e norma de conhecimento. [14[14] J. Ortega y Gaset, En Torno a Galileo: Esquema de las Crisis (Revista de Occidente, Madrid, 1956).]

Na questão tocada por Morin sobre complexidade, informação e estratégia, podemos fazer contato com interessantes observações de John Casti, que em “Can You Trust It” [15[15] J. Casti, Complexity 2(5), 8 (1997).] comenta que alguém tem cunhado o termo “hipoteticalidade” para referir-se a situações nas quais é necessário fazer rápidas decisões do tipo “vida ou morte”, e não tendo a possibilidade de realizar experimentos ou testes que seriam necessários para ganhar informação vital sobre a situação antes de ter de tomar a decisão. Acrescenta que isto se refere muito bem para quase qualquer afirmação que queiramos fazer em relação ao comportamento a ser esperado do que hoje chamamos de sistemas complexos também dito de sistemas adaptativos (aqui introduzindo um neologismo em português). Enfrentamo-nos com o fato de termos de fazer escolhas críticas sobre um sistema cujo funcionamento (i.e. comportamento) é um mistério total para nós. Estes sistemas complexos, e adaptativos, consistem em um grande número de agentes individuais – moléculas, vírus, genes, investidores –, que podem mudar seu comportamento com base na informação que recebem sobre o que os outros agentes no sistemas estão fazendo. A interação entre estes agentes pode levar à produção de padrões de comportamento do sistema como um todo, os quais não podem ser compreendidos ou mesmo preditos com base somente no conhecimento que podemos ter dos indivíduos. Estes padrões emergentes são uma propriedade conjunta dos indivíduos e suas interações, estas últimas envolvendo não somente aquelas entre eles mas também com o meio circundante (i.e. são interações internas e externas). A “habilidade”, digamos, de tais sistemas de resistir à análise tradicional composto pelas ferramentas do enfoque determinista-reducionista tem dado lugar à tentativa por parte dos “complexologistas” de procurar novas e apropriadas ferramentas teóricas para tentar penetrar “os segredos” destes sistemas. Como – e mais adiante será discutido – a característica fundamental a estar presente (e precisamente aquela que impede aplicação apropriada do método reducionista no que se refere à análise por coordenadas normais) é a de não-linearidade nas equações de evolução do estado macroscópico do sistema. Assim, e como consequência da falta de ferramentas teóricas na matemática dos operadores não-lineares e a acompanhante teoria das equações integro-diferenciais não-lineares, a maior ferramenta é no momento o computador digital. Em muitos casos trata-se de simulação via modelos, porém há aqui uma dificuldade de relevância que limita sua efetividade: A questão é entender as diferenças entre o modelo computacional e a situação real, principalmente quando tal diferença faz, precisamente, a diferença entre o comportamento real e resultados espúrios na modelagem (por exemplo, em questões fundamentais e prementes hoje em dia, como, o dito efeito estufa na atmosfera em sua ação sobre o clima, o perigo com formas submetidas à engenharia genética, políticas governamentais em diversos assuntos, etc.).

Anderson, similarmente – pelo menos em parte – com o pensamento de Morin, tem mantido o ponto de vista de que cada nível de descrição tem suas leis “fundamentais” (em algum sentido), e sua própria ontologia, e que o desafio consiste em conceitualizar esta novidade. Nisto é acompanhado, dentre outros, por Leo Kadanoff, que manifestou que “condensando a complexidade do mundo em umas poucas leis simples escolhemos ignorar a maravilhosa diversidade e primorosa complicação que realmente caracteriza nosso mundo. Os físicos tem começado a tomar ciência de que os sistemas complexos podem ter suas próprias leis, e que estas leis podem ser tão simples, tão fundamentais, e tão belas como muitas outras leis da Natureza” [16[16] L. Kadanoff, The Great Ideas Today (Encyclopaedia Britannica, Chicago, 1986).]. Já temos mencionado o papel de Ilya Prigogine, que, com os colaboradores da assim chamada Escola de Bruxelas e do Center for Studies in Statistical Mechanics and Complex Systems (Austin, Texas, USA), tem chamado a atenção à necessidade de uma reformulação do pensamento científico que permita incorporar a questão da organização e da evolução em um nível holístico de descrição dos sistemas dinâmicos, e apreciar o papel construtivo dos processos irreversíveis: “A crença na simplicidade no nível de descrição microscópico pertence agora ao passado. A física clássica tem enfatizado estabilidade e permanência. Vemos hoje que, no máximo, tal qualificação aplica-se somente a aspectos muito limitados. Para onde olhemos, descobrimos processos evolucionários levando para a diversificação e crescente complexidade”.

Isto nos leva a lembrar que uma área onde este tipo de questão se apresenta mais vivamente é na biologia. Certamente os sistemas biológicos são sistemas complexos por antonomásia, e dentre eles o cérebro humano é o sistema mais complexo que podemos conceber.

Aqui entram em cena, em um certo sentido, Darwin e Freud. Sobre este último, em “Complexifying Freud” [17[17] J. Horgan, Sci. Am., September 1995, pp. 24–26.], tem sido dito que alguns “ministros da mente estão procurando ligações entre suas fontes tradicionais de guia – notavelmente Freud – e certas correntes (para não dizer modas) de idéias científicas (psicoterapeutas procuram inspiração nas ciências não lineares)”. Sobre “Complexifying Darwin”, podemos citar Stephen Jay Gould, que aproximadamente expressou (se não estivermos distorcendo suas palavras) que: “A seleção natural não é totalmente suficiente para explicar as mudanças evolucionárias. Muitas outras causas são particularmente poderosas aos níveis de organização biológica, seja por cima ou por baixo do enfoque Darwiniano tradicional dos organismos e suas lutas pelo processo reprodutivo; não importando quanto adequada seja nossa teoria da mudança evolucionária, nós sempre anelamos documentar e compreender as trilhas da história da vida. Porém presentemente o caminho está fortemente determinado pela atual teoria da evolução da vida. Este ponto precisa de alguma elaboração como um aspecto central, mas altamente incompreendido, da complexidade do mundo. Teias e cadeias de eventos históricos são intrincadas, tão imbuídas com elementos randômicos e caóticos, tão não repetíveis enquanto envolvem tal multidão de objetos únicos (e com interações únicas), que os modelos estandardizados de simples predição e réplica não se aplicam. O crescente e confiado determinismo do Século XVIII tem seu sonho quimérico esfacelado pela complexidade universal que ora hoje está ficando mais e mais evidente. A história inclui uma forte componente caótica, ou condições iniciais com extremadamente sensível dependência de miúdas e não mensuráveis diferenças nas condições iniciais, com estas pequeníssimas e não acessíveis disparidades no ponto de partida levando as consequências massivamente divergentes. E a história inclui muitas contingências, ou a modelar os resultados no presente por uma longa cadeia de estados precedentes não preditíveis, em lugar da determinação imediata por leis imutáveis na natureza. Assim, para compreender os eventos e generalidades da trajetória da vida, devemos ir além dos princípios da teoria evolucionária para um exame paleontológico dos padrões da história da vida em nosso planeta – que é uma simples versão atualizada dentre as milhares de possíveis alternativas que não tem acontecido. Por razões relativas à química da origem da vida e à física da auto-organização, os primeiros seres vivos surgiram no mais baixo nível de complexidade concebível e preservável para a vida aparecer. Chamemos de “muralha à esquerda” a este limite inferior para uma arquitetura da complexidade. Em razão de que existe pouco espaço entre a “muralha à esquerda” e os modos de vida bacterial no registro fóssil, existe somente uma direção para um futuro incremento – aquele de maior complexidade à direita. Assim, vez por outra, uma criatura mais complexa evolui e amplia a diversidade da vida na única direção disponível, com o qual a distribuição da complexidade resulta mais fortemente estendida “à direita da muralha limitante” através destes incrementos adicionais”. [18[18] S.J. Gould, Sci. Am., October 1994, pp. 84–91.].

A questão da evolução biológica em relação com complexidade, em dois particulares aspectos desta última como coadjuvantes da lei de seleção Darwiniana, tem sido tratada por Stuart Kauffman. Voltaremos sobre isto na próxima seção.

Consideremos agora a questão fundamental associada à complexidade, sendo o irrevogável fato de que comportamento complexo só pode aparecer em sistemas dinâmicos governados por leis cinéticas (que determinam sua evolução e o eventual estado estacionário que possa atingir) de caráter não-linear. Acabamos de manifestar que complexidade se refere a sistemas dinâmicos, e assim como já indicado noutra oportunidade [19[19] R. Luzzi, A.R. Vasconcellos, in Estruturas Dissipativas Auto-Organizadas: Um ponto de vista estatístico, Complexidade, Auto-organização, Informação em Auto-Organização: Estudos Interdisciplinares, editado por M. Debrun, M.E.Q. Gonzales, e O. Pessoa (CLE-Unicamp, Campinas, 1996), v. 18.], deve ser notado que a complexidade vai além de sistemas físicos e químicos, cobrindo todas as áreas de esforço humano que tratam da dinâmica de sistemas. Os aspectos unificadores desta questão parecem residir na teoria geral dos sistemas dinâmicos iniciada por Ludwig von Bertalanffy nos anos trinta, seguindo por outros autores (Norbert Wiener, Claude Shannon, R. Buckminster-Fuller etc.), coalescendo nos mais recentes trabalhos de Ilya Prigogine e a Escola de Bruxelas e na disciplina de sinergética iniciada por Herman Haken.

A teoria geral dos sistemas foi originalmente apresentada como um novo paradigma para tratar sistemas complexos em todos os campos do conhecimento. Assim, por exemplo, a biologia não tem que se ocupar somente com os níveis físico-químico ou molecular, mas também com níveis superiores e mais complexos de organização da matéria viva. Os fenômenos sociais devem ser considerados como sistemas, não obstante as dificuldades e imprecisões que apresentam as definições e interações em entidades sócio-culturais.

Voltando à questão da não-linearidade nestes sistemas dinâmicos, no caso da física já sua relevância foi apontada há um tempo pelo Prêmio Nobel Werner Heisenberg em artigo em Physics Today [20[20] W. Heisenberg, Phys. Today, May 1967, pp. 22–33.].

A não-linearidade é ubíqua, e certamente está constantemente em ação na nossa vida diária, e em todas as disciplinas que lidam com sistemas dinâmicos, como por exemplo em física, química, biologia, engenharia, ecologia, economia, sociologia etc. Porém o interesse renovado que tem surgido nos cientistas é de um caráter mais básico, i.e., no sentido de se preocupar com princípios fundamentais que estejam por trás dos fenômenos não-lineares. Rolf Landauer [21[21] R. Landauer, in Nonlinearity in Condensed Matter, editado por A.R. Bishop, D.K. Campbell, P. Kumar, S.E. Trullinger (Springer, Berlin, 1987).] tem manifestado que:

O que estava perdido há até aproximadamente uma década não era a sensibilidade aos fenômenos não-lineares, mas somente a apreciação da notável diversidade de comportamento disponível em sistemas não-lineares: o que é novo é o desejo de comemorar a não-linearidade.

Fenômenos novos e inesperados surgem em sistemas não-lineares, conforme mencionado, como o comportamento caótico em sistema determinísticos, e em sistemas abertos e dissipativos os exemplos que aparecem de auto-organização, o fenômeno a que nos referiremos na próxima seção.

Não nos estenderemos aqui sobre a teoria do caos, somente mencionaremos como referência o livro In the Wake of Chaos, por Stephen Kellert [22[22] S. Kellert, In the Wake of Chaos (Univ. Chicago Press, Chicago, 1993).], o artigo de David Ruelle em Physics Today [23[23] D. Ruelle, Phys. Today, July 1994 issue, pp. 24–30.] onde a idéia de caos pode ter aplicação apropriada, e o artigo de G.R. Freeman [24[24] G.R. Freeman, Can. J. Phys. 68, 794 (1990).] com conjecturas sobre o possível papel do caos em Sociologia.

Fechando por aqui esta seção fazemos algumas palavras de advertência: Sobre não-linearidade chamamos a atenção para as palavras de cautela de James Krumhansl, presentes no seu artigo em Physica D [25[25] J.A. Krumhansl, Physica D 68, 97 (1993).], e quanto à complexidade, já notamos o artigo de John Horgan [9[9] J. Horgan, Sci. Am. 272(6), 74 (1995).]. Finalmente, acrescentemos alguns comentários do matemático Ian Stewart (personificado pelo ator Jeff Goldblum na série Jurassic Park de Steven Spielberg) em [26[26] I. Stewart, Complexity in Search of Nature's Patterns (Encyclopaedia Britannica, Chicago, 1996).]:

[Complexity theory] is the happy hunting ground of “maverick gurus” who revel in just this kind of heady mix and often impart their enthusiasm to others without a judicious dose of critical judgment. Paradoxically, although its aim is to understand complex systems, it makes a virtue of simplicity and draws far-ranging conclusions from models with limited, but carefully chosen, ingredients. In short, it is just what a newly evolving branch of science should be: brash, inconoclastic, over confident-but gripping, fascinating, and a total revelation.

3. Auto-organização

Já temos dito na seção anterior que a complexidade se manifesta em várias situações típicas que aparecem na dinâmica de sistemas. Duas são de particular relevância. Uma é o caráter caótico em sistemas físicos e outros [22[22] S. Kellert, In the Wake of Chaos (Univ. Chicago Press, Chicago, 1993).,23[23] D. Ruelle, Phys. Today, July 1994 issue, pp. 24–30.], quando a idéia de que um sistema pode ser determinístico porém com comportamento impredizível, é uma novidade chamativa. A razão deste fato pode ser adjudicada à extrema sensibilidade (hipersensibilidade) em relação as condições iniciais. A outra, sendo aquela que nos interessa aqui, é o caso de sistemas abertos levados para longe do equilíbrio pela ação de fontes externas intensas, quando resulta possível a emergência de padrões ordenados em uma escala macroscópia. Estas são as estruturas dissipativas, assim chamadas por Prigogine [27[27] I. Prigogine, in From Theoretical Physics to Biology, editado por M. Marois (North Holland, Amsterdam, 1969).,28[28] I. Prigogine, From Being to Becoming: Time and Complexity in the Physical Systems (Freeman, San Francisco, 1982).]. Dissipativas porque acontecem em sistemas abertos em condições fora do equilíbrio termodinâmico, isto é, em seu regime dissipativo, e estruturas porque dão lugar a um comportamento coerente – em um sentido que explicitaremos mais adiante – em um nível macroscópico envolvendo um número enorme de componentes individuais do sistema (moléculas, átomos, quasi-partículas, etc.). A mais, diz-se que auto-organizadas porque está presente uma organização – a nível temporal, espacial, ou funcional – desse número enorme de componentes ocorrendo em uma escala macroscópica, e auto pelo motivo de que tal organização é o resultado das características peculiares das leis de evolução do estado macroscópico do sistema, não sendo impostas por nenhum agente externo.

Como consequência se diz que é um dos milagres universais da Natureza que tal enorme conjunto de partículas, sujeitas somente as leis cegas da Natureza, sejam, não obstante, capazes de organizar-se em padrões de atividade cooperativa. Processos deste tipo, como já foi mencionado, têm adquirido fama devido ao trabalho de Ilya Prigogine e colaboradores, que têm desenvolvido uma ciência da termodinâmica de sistemas longe do equilíbrio para aplicar ao seu tratamento. Esses pesquisadores têm colocado em evidência a natureza criativa dos processos dissipativos em sistemas abertos, em oposição à velha idéia de decaimento por dissipação em sistemas isolados, tal como descrito pela segunda lei da termodinâmica.

Em particular os sistemas biológicos são sistemas complexos por antonomásia, e dentre eles o cérebro humano é possivelmente o mais complexo dos sistemas que podemos conceber. O tratamento teórico dos sistemas biológicos é extremamente difícil, por um lado por tratar-se de sistemas envolvendo complicadíssimos arranjos de macromoléculas em interação e dando lugar a uma enorme quantidade de processos físico-químicos, e por outro lado por apresentar grandes dificuldades o seu estudo experimental. Consequentemente deve-se tentar um tratamento em uma sucessão de passos de dificuldades crescentes. Em um primeiro passo parece ser conveniente testar idéias, conceitos, e teorias aplicadas a sistemas que admitam um tratamento mais acessível, tanto no nível teórico como, e especialmente, no experimental. Um caso particular e relevante é o dos semicondutores, os quais – por causa de um evidente interesse tecnológico – são objeto de uma mui extensa pesquisa [29[29] C.G. Rodrigues, A.A.P. Silva, C.A.B. Silva, A.R. Vasconcellos, J.G. Ramos, R. Luzzi, Braz. J. Phys. 40(1), 63 (2010).], e outro caso é o de sistemas biológicos modelados [30[30] M.V. Mesquita, A.R. Vasconcellos, R. Luzzi, Phys. Rev. E 48, 4049 (1993).].

Auto-organização aparece como um conceito fundamental em biologia, e assim a Escola de Bruxelas tem manifestado que “O surgimento espontâneo de estados auto-organizados [é um fenômeno que] tem completamente mudado nossa visão das ciências físicas e sua relação como a biosfera [...] A célula [...] é um ente altamente estruturado com uma organização temporal e espacial muito bem definida. A compreensão apropriada deste comportamento está bem além dos métodos reducionistas da biologia molecular [...] O conceito de estruturas dissipativas vai em uma direção oposta ao mostrar que, sob condições apropriadas, a matéria inerte macroscópica não é mais algo simples, porém pode mostrar uma grande variedade de comportamento complexo reminescente dos estados vivos [da matéria, e assim] o fenômeno da vida aparece como “natural”, uma consequência inevitável das leis físico-químicas que governam o Universo como um todo [...] As ousadas e audaciosas hipóteses que consideram que a vida tem sido criada como resultado da auto-organização da matéria são hoje conhecidas. No momento atual aparece como [uma] hipótese válida que reconcilia matéria e vida [e] estamos autorizados a esperar que em algum momento no futuro possa ser provado sem ambiguidade que as propriedades de auto-organização de sistemas com a presença de reações químicas e fluxos venham a constituir o elo perdido na evolução da molécula até o homem [...] Somos encorajados nessa expectativa pelos modelos teóricos existentes, que mostram a possibilidade de tal esforço” [31[31] A. Babloyantz, Molecules, Dynamics, and Life(Wiley-Interscience, New York, 1986).].

Assim, aparentemente o ponto de vista da Escola de Bruxelas tenderia a superar a velha controvérsia de reducionismo versus vitalismo nas ciências da vida. Em certo sentido, ter-se-ia um esquema que cobre a ambas, requerendo-se que, além das leis deterministas da física com seu foco reducionista, deveríamos incorporar leis características para a descrição macroscópica de sistemas, que podemos associar ao termo de macroconceitos sugerido por Herbert Fröhlich [32[32] H. Fröhlich, Riv. Nuovo Cimento 3, 490 (1973).].

Auto-organização nos meios materiais, como as ditas estruturas dissipativas, pode apresentar-se sob diferentes aspectos, isto é, partindo de uma situação de estados desorganizados – aos quais nos referiremos como nível de caos térmico –, seguir-se de um ponto crítico, dependendo de cada caso, quando uma “distância” apropriada a partir do estado de equilíbrio é alcançada – e a emergência de padrões organizados mostrando:
  1. Ordem espacial (morfogênese),

  2. Ordem temporal (como “relógios” químicos e biológicos),

  3. Ordem espaço-temporal (ondas em reações químicas, etc.),

  4. Transições entre estados homogêneos e estacionários (tipos particulares de condensação, como por exemplo o caso do laser),

com estes padrões organizados mantidos por um fluxo constante de energia, e eventualmente também de matéria, proporcionados por fontes de “alimentação” externas.

As três ilustrações típicas que com frequência são apresentadas na literatura sobre o assunto consistem, nos casos de auto-organização nos campos da física, química, e biologia, respectivamente, no efeito Bènard [33[33] C. Normand, Y. Pomeau, M.G. Velarde, Rev. Mod. Phys. 49, 581 (1977).], relógios químicos [34[34] P. Glansdorff, I. Prigogine, Thermodynamic Theory of Structure, Stability, and Fluctuations (Wiley-Interscience, New York, 1971).], e agregado de fungos em lodo [31[31] A. Babloyantz, Molecules, Dynamics, and Life(Wiley-Interscience, New York, 1986).]. Estes são somente três de um grande número de outros sistemas onde a auto-organização macroscópica pode acontecer. Recordemos que a emergência de ordem a partir de estados aleatórios e a formação de estruturas complexas em meios fora do equilíbrio surgiu no começo da segunda metade do Século XX principalmente em conexão com problemas em cinética química e biologia.

Porém, auto-organização é um fenômeno ubíquo e extremamente interessante que pode aparecer em uma larga classe de sistemas. Dentre outros, podemos mencionar:
  1. Instabilidade hidrodinâmica [33[33] C. Normand, Y. Pomeau, M.G. Velarde, Rev. Mod. Phys. 49, 581 (1977).],

  2. Reações químicas e biológicas autocatalíticas [34[34] P. Glansdorff, I. Prigogine, Thermodynamic Theory of Structure, Stability, and Fluctuations (Wiley-Interscience, New York, 1971).37[37] I.R. Epstein, Pendulus in the Test Tube, (Encyclopaedia Britannica, Chicago, 1895).],

  3. Diferenciação celular e morfogênese [38[38] A.M. Turing, Phil. Trans. Roy. Soc. London B 237, 37 (1952).40[40] M.C. Cross, P.C. Hohenberg, Rev. Mod. Phys. 65, 851 (1993).],

  4. Circuitos neurais e função cognitiva no cérebro [41[41] S. Grossberg, in Brain and Information, editado por R. Karrer, J. Cohen, P. Tueting (NYAS, New York, 1984), v. 425, pp. 58–151.],

  5. Dinâmica de populações e evolução [27[27] I. Prigogine, in From Theoretical Physics to Biology, editado por M. Marois (North Holland, Amsterdam, 1969).,42[42] H. Haken, Synergetics: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry and Biology (Springer, Berlin, 1978).,43[43] P.M. Allen, J.M. McGlade, Found. Phys. 17, 723 (1987).],

  6. Atmosfera planetária [44[44] A.P. Ingersol, Sci. Am. 245(6), 90 (1981).,45[45] A.P. Ingersol, The Weather of Other Planets(Encyclopaedia Britannica, Chicago, 1983).],

  7. Funcionamento de dispositivos eletrônicos [42[42] H. Haken, Synergetics: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry and Biology (Springer, Berlin, 1978).],

  8. Transições de fase não equilibradas [42[42] H. Haken, Synergetics: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry and Biology (Springer, Berlin, 1978).].

Todos estes sistemas apresentam, sob apropriadas condições – como já notado, quando suficientemente longe do equilíbrio – um marcante comportamento coerente, estendendo-se em uma escala macroscópica. Evidentemente estes estados ordenados somente podem ocorrer em sistemas abertos fora do equilíbrio, já que a segunda lei de termodinâmica exclui estruturas de baixa entropia em sistemas isolados. Acrescentamos que esta ordem macroscópica pode ser visível com claros padrões simétricos que surgem a partir da desordem térmica.

Pode-se notar que uma definição rigorosa de auto-organização não tem sido dada. Até aqui temos procurado dar ao leitor uma visão intuitiva a qual resumimos com a afirmação de que “auto-organização é o surgimento em um sistema dissipativo aberto e suficientemente afastado do equilíbrio de algum tipo de estrutura ordenada em escala macroscópica (seja estacionária, seja com variações temporais cíclicas) determinadas pelas propriedades internas do próprio meio, independente ou fracamente dependente das características da fonte alimentadora que leva o sistema para longe do equilíbrio, independente também do estado inicial do sistema, assim como, em alguns casos, das condições de contorno”.

Deste modo, para que auto-organização possa aparecer é mister que o sistema perca a memória das condições iniciais, e que exista uma ligação direta entre os parâmetros da estrutura e as propriedades do meio dissipativo. Brevemente, auto-organização é o resultado do desenvolvimento de instabilidades em um sistema desorganizado (termicamente caótico) seguida da estabilização de estruturas coerentes em escala macroscópica resultante de um balanço estabelecido entre perdas dissipativas e processos internos enquanto o sistema recebe energia, e eventualmente massa, proporcionada pelas fontes alimentadoras externas.

Surge aqui um ponto importante a considerar: como já notado, tais processos internos que são ativados pelo bombeamento de energia para o sistema tem de ser de caráter não-linear, ou seja consistir em processos de retro-alimentação e auto-catálise. Isto é consequência de que no regime linear, às vezes denominado de “Onsageriano”, a formação de estruturas ordenadas está excluída devido à validade do princípio de Prigogine de mínima produção de entropia de equilíbrio local [34[34] P. Glansdorff, I. Prigogine, Thermodynamic Theory of Structure, Stability, and Fluctuations (Wiley-Interscience, New York, 1971).,46[46] G. Nicolis, I. Prigogine, Self-Organization in Nonequilibrium Systems: From dissipative structures to order through fluctuations (Wiley-Interscience, New York, 1977).]. De acordo com este princípio, existe uma tendência nos sistemas naturais de serem guiados, neste regime linear, para um atrator consistente em um estado de mínima produção de entropia local e regressão de flutuações. Deste modo, como parte integrante da disciplina “complexidade”, cujo caráter de não linearidade foi referido na seção anterior, a auto-organização em sistemas naturais pertence ao reino da física não-linear.

Como já temos dito na seção anterior a não-linearidade é difícil de definir de forma que não seja ambígua, exceto, claro, a partir, das equações que modelam o sistema. Em particular tem sido notado que a equação de Schrödinger é linear, porém tem como limite a equação de Hamilton-Jacobi da mecânica clássica, a qual é não-linear ainda para a partícula livre. A questão em muitos casos é, e aqui entra em ação a palavra complexidade, que a não-linearidade, como já dito, é uma forma de descrição que trata com fenômenos que admitem grandes mudanças qualitativas – às vezes de um “caráter catastrófico” –, acontecendo quando são aplicadas modificações sobre os vínculos aplicados sobre o sistema. Caos é considerado como um “sintoma” de não-linearidade, como também é o caso da auto-organização.

Os fenômenos não-lineares têm importante papel em tecnologia, particularmente na moderna engenharia elétrica, e um caso típico é o laser. Ainda no caso da física da matéria condensada, os fenômenos não-lineares não são novos, e assim podemos mencionar a teoria do fluxo plástico de deslocações, caso em que as vibrações harmônicas da rede cristalina não podem explicar a expansão térmica, a qual requer a introdução de forças não-lineares, como são as interações anarmônicas.

Apesar destes argumentos, devemos dizer que a física linear, que recebeu ampla atenção por longo tempo, certamente não está exaurida. Durante décadas os físicos que lidam com a matéria condensada, para dar um exemplo, estiveram preocupados com as consequencias da mecânica quântica – a maior teoria do Século XX –, e com um alto grau de atenção. Schrödinger, Heisenberg, Born, Dirac, e muitos outros, ensinaram-nos como tratar com a complicada dinâmica de arranjos de átomos. Hoje em dia, a mais das aplicações teóricas existentes, surge um interesse vivo e crescente na natureza da teoria quântica da medida e suas consequências [47[47] D.M. Greenberger, in New Techniques and Ideas in Quantum Measurement Theory, editado por D.M. Greenberger (NYAS, New York, 1986), v. 480.].

Merece ser mencionado que James Krumhansl tem considerado a questão em Nonlinear Science: Towards the Next Frontiers [25[25] J.A. Krumhansl, Physica D 68, 97 (1993).]. Em suas palavras, a ciência não-linear tem surgido em muitas direções e com muito sucesso. Dois temas principais têm aparecido em diferentes cenários, como caos e o fenômeno de ondas solitárias [e nós acrescentamos auto-organização]. Embora inicialmente tenha aparecido ligada a modelos simples para os quais foram criados métodos matemáticos e resultados exatos tenham sido obtidos em certos casos limites, seus aspectos robustos deram-nos certa segurança de que são fenômenos genéricos. A seguinte fronteira não está tanto no formalismo, quanto em como obter representações realísticas – e eventualmente úteis – de materiais reais, sejam físicos, químicos, ou biológicos, de forma a conectar o comportamento experimental significativo com as propriedades não-lineares. Ao mesmo tempo Krumhansl aponta para o perigo de “talvez exagerando, mais e mais pesquisa em ciência não-linear está resultando marginal ou irrelevante, auxiliada e permitida pela larga disponibilidade de computadores cada vez mais poderosos, e a facilidade de formular variações sobre um tema matemático básico simplesmente apresentando mais um caso. Às vezes, muitos destes incrementos apresentam-se com novas características fascinantes. Porém, as questões importantes são: primeiro, estes resultados estendem nossa compreensão geral, ou alternativamente, são novos os aspectos especiais e realmente proporcionam um aprofundamento quantitativo a alguma observação experimental? Não está claro em muitas circunstâncias de artigos publicados hoje em dia se a resposta a esta pergunta é afirmativa ou negativa [...] Supondo que o objetivo é ter-se uma dinâmica não-linear descrevendo a realidade [deve-se entender aqui realidade como observação e medida experimental], deveríamos propor a seguinte lista de comprovações em relação aos modelos desenvolvidos: (1) Identificar o fenômeno a ser estudado; (2) Usar variáveis físicas realistas; (3) Comprovar frequentemente ao longo das simulações se não seria melhor reconsiderar a modelagem ou incrementar seus detalhes”.

Retornando ao ponto principal, manifestamos novamente que não-linearidade na evolução dos processos é uma característica fundamental para que possa emergir comportamento complexo no sistema dinâmico. Isto, em princípio, permitir-nos-ia aprimorar a caracterização de complexidade e, consequentemente, auto-organização. No regime linear de evolução é verificado o princípio de superposição (por exemplo, o caso da dinâmica da rede cristalina descrita em termos de superposição de modos normais), quando não pode esperar-se nenhum comportamento anômalo (o que é assegurado pelo princípio de Prigogine de mínima produção de entropia local). Assim, complexidade somente pode ser esperada em condições tais que o princípio de superposição não seja satisfeito, e tal é o caso das equações de evolução não-lineares.

A assim chamada Escola de Bruxelas tem em boa medida desenvolvido a teoria termodinâmica de sistemas abertos, especialmente no que se refere ao estudo de reações químicas auto-catalíticas. O chamado critério termodinâmico (originalmente dito universal) de evolução e o critério de (in)estabilidade de sistemas arbitrariamente longe do equilíbrio, contidos em tal teoria, são capazes de cobrir uma grande variedade de situações em sistemas abertos. Vários autores, principalmente Prigogine e colaboradores, com base nestes resultados, têm proposto a idéia de que auto-organização em sistemas não-lineares e abertos pode constituir uma possibilidade, natural e atraente, como mecanismo para a emergência da vida e o enigmático problema da ordem funcional nos sistemas biológicos. Alan Turing foi pioneiro no estudo teórico da organização espacial estacionária aplicada a um sistema químico modelado [38[38] A.M. Turing, Phil. Trans. Roy. Soc. London B 237, 37 (1952).], o qual foi um predecessor do chamado “Brusselator” proposto por Prigogine [46[46] G. Nicolis, I. Prigogine, Self-Organization in Nonequilibrium Systems: From dissipative structures to order through fluctuations (Wiley-Interscience, New York, 1977).] e do “Oregonator” proposto por Noyes [36[36] R.J. Field, Am. Sci. 73, 142 (1985).,37[37] I.R. Epstein, Pendulus in the Test Tube, (Encyclopaedia Britannica, Chicago, 1895).]. Estes modelos apresentam pontos críticos de afastamento do equilíbrio, quando a estrutura espacial homogênea resulta instável. A reação química evolui após o ponto crítico de forma a promover a emergência de um estado estacionário no qual as concentrações dos produtos intermediários variam sinusoidalmente no espaço. Estes autores sugerem que este fenômeno proporcione as bases físico-químicas da morfogênese, e fazem analogias com exemplos de organização química espacial e evolução pré-biológica. Em relação com este ponto, Prigogine e colaboradores manifestam que “se o sistema é capaz de evoluir através de instabilidades sucessivas, deve desenvolver um mecanismo pelo qual cada nova transição favorece maior evolução incrementando a não-linearidade e a distância do equilíbrio” [48[48] I. Prigogine, G. Nicolis, A. Babloyantz, Phy. Today 25(12), 38 (1972).]. Como consequência, enfoques e formalismos do assunto podem representar ferramentas muito valiosas para a biologia teórica, e a fonte de novas idéias e novos conceitos na área.

Certamente que os muitos complicados aspectos de estrutura espacial heterogênea e o funcionamento (evolução temporal nos processos físico-químicos) dos organismos vivos, já começando com a célula elementar, cria problemas em biologia muito difíceis para o físico e o químico. Não obstante, embora o inquérito científico esteja em um estágio inicial de proporcionar-nos um entendimento apropriado dos processos nos organismos com vida, parece estar surgindo – como já comentado – um ponto de partida na direção de encurtar o fosso que separa física e biologia.

Em outro aspecto da questão, na hidrodinâmica de fluidos a não-linearidade está associada primariamente com termos de convecção, e as instabilidades surgem quando certo parâmetro de controle – o número de Reynolds, associado à intensidade da fonte externa que neste caso se manifesta através de um gradiente de temperatura – excede um valor crítico. Nas reações químicas a não-linearidade está relacionada com a concentração de reagentes, e a condição crítica depende das afinidades químicas, e no caso em que inomogeneidades estão presentes, depende também do coeficiente de difusão. Nos dispositivos físicos a não-linearidade aparece nas funções de distribuição dos componentes elementares (moléculas, átomos, elétrons, quasi-partículas, etc.), e a condição crítica é determinada pela intensidade dos campos aplicados. Em todos os casos quando – e se – auto-organização se apresenta, esta é, como já notado, o resultado de que a energia bombeada em lugar de ser totalmente usada em produzir agitação térmica inútil, pode ser redirecionada parcialmente para a produção de movimento coletivo, e consequentemente para um incremento no grau de ordem por causa do caráter coerente deste último.

Até agora temos dado uma visão geral e apresentado varias considerações sobre as estruturas dissipativas auto-organizadas. Evidentemente um passo seguinte é tentar um tratamento teórico mais rigoroso. Nesta direção enunciamos duas questões principais que precisam ser encaradas:
  1. Qual é a origem microscópica destas transições?

  2. Como podemos descrevê-las a nível teórico, e como seremos capazes de proporcionar uma análise rigorosa delas?

A descrição dos processos dissipativos macroscópicos na matéria tem sido tratada por meio de diferentes enfoques. Já temos chamado a atenção sobre os fundamentos fenomenológicos da termodinâmica irreversível generalizada [34[34] P. Glansdorff, I. Prigogine, Thermodynamic Theory of Structure, Stability, and Fluctuations (Wiley-Interscience, New York, 1971).,46[46] G. Nicolis, I. Prigogine, Self-Organization in Nonequilibrium Systems: From dissipative structures to order through fluctuations (Wiley-Interscience, New York, 1977).], assim como seus aprimoramentos, como a termodinâmica irreversível estendida [49[49] D. Jou, J. Casas-Vázquez, G. Lebon, Extended Irreversible Thermodynamics (Springer, Berlin, 2010).,50[50] I. Müller, T. Ruggeri, Extended Thermodynamics(Springer, Berlin, 1993).], e a termodinâmica racional [51[51] C. Truesdell, Rational Thermodynamics (Springer, Berlin, 1993).]. Poderosas teorias estocásticas também existem [42[42] H. Haken, Synergetics: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry and Biology (Springer, Berlin, 1978).].

Finalmente, do nosso ponto de vista, o melhor tratamento para responder as questões acima expostas consistiria em uma mecânica e termodinâmica estatísticas. É nossa proposta que, não obstante problemas conceituais ainda não resolvidos, um bom primeiro enfoque a nível microscópico para evidenciar e descrever os casos de auto-organização pode ser obtido, para o caso de sistemas de muitos corpos governados pela mecânica Hamiltoniana (clássica ou quântica), recorrendo a formalismos mecânico-estatísticos. Aparentemente um formalismo poderoso e prático consiste no formalismo do ensemble estatístico de não-equilíbrio(NESEF na sigla em inglês), o qual pode ser considerado como uma generalização de longo alcance das ideias seminais e geniais de Maxwell, Gibbs e Boltzmann. Também, parece-nos, está contido no escopo proporcionado pela mecânica estatística preditiva devida a Jaynes [52[52] E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).54[54] E.T. Jaynes, in The Maximum Entropy Formalism, editado por M. Tribus, R.D. Levine (MIT Press, Cambridge, 1983).] e fundamentada no enfoque de inferência científica na linha de Sir Harold Jeffreys [55[55] H. Jeffreys, Scientific Inference (Cambridge Univ. Press, Cambridge, 3rd. Edition, 1973).]. Neste ponto temos a conexão com a teoria da informação, e sobre este assunto nos estenderemos na próxima seção. Porém, para sermos mais precisos, as estruturas dissipativas auto-organizadas estão contidas no arcabouço proporcionado pela termodinâmica estatística informacional (IST na sigla em inglês), a qual é uma teoria mecânico-estatística (níveis microscópicos e macroscópicos ligados) baseada no NESEF [56[56] R. Luzzi, A.R. Vasconcellos, J.G. Ramos, Statistical Foundations of Irreversible Thermodynamics (Teubner-Springer, Berlin, 1999).].

Retornando para a problemática da criação de um esquema mais ou menos completo sobre auto-organização deveríamos ter:
  1. Uma descrição (i.e. tentativa de definição) abrangente, i.e. abarcando seus aspectos nas disciplinas nas quais, claro, ela possa estar presente.

  2. A nível pragmático, ter(em)-se formalismo(s) que permitam caracterizá-la de forma a ser possível a comparação com a observaçãosobre os sistemas sendo considerados.

Evidentemente múltiplos autores têm-se debruçado sobre o assunto, como Ashby, von Foerster, Atlan, o já mencionado Prigogine, Morin, Thom, Rosen, etc., etc. A seguir, apresentamos algumas considerações de alguns desses autores.

Em Ashby [57[57] W.R. Ashby, J. General Psychology 37, 125 (1947); W.R. Ashby, Mechanisms of Inteligence (Intersystems, Seaside, RI, 1962).], “The treatment of conditionality [implies in a space of [...] possibilities – within [the subset] of the actualities.” A conexão é com a manifestação de que “devemos ter o espaço de estados definidos em termos de variáveis macroscópicas”, e nele estão as “possibilidades” e dentre elas os estados “atuais” que estarão determinados pelas soluções das equações de evolução. Nisto temos de novo Ashby: “organization between variables [may arise] by the existence of constraints in the state of the possibilities”.

Também em Ashby, “the concepts of dynamics and of organization are essentially independent [...] their presence and absence are possible”. De fato, a dinâmica está determinada pelas equações de evolução que podem ou não implicar em organização, com esta última dependendo dos vínculos impostos. É fundamental: (1) que o sistema seja aberto, (2) que a dinâmica seja não-linear, e (3) que o sistema esteja longe do equilíbrio. Só então, eventualmente, auto-organização pode surgir da competição entre efeitos dissipativos e realimentação positiva associada aos termos não-lineares. [Um aparte para reconsiderar a frase de Ashby “a real system is organized or reducible [depending] partly on the point of view taken by the observer”. Certamente, Ashby deve querer dizer não “observer” porém “theoretician”. O teórico adota um ponto de vista (i.e. escolhe a descrição/modelagem do sistema) e assim, por inépcia poderia não conseguir descrever o fenômeno. O observador não toma pontos de vista, mas simplesmente observa (ou experimenta), e se não observa o fenômeno é também por inépcia].

Atlan, Ashby, e von Foerster, insistem no fato de que o sistema deve ser aberto. Em Atlan, “as únicas mudanças capazes de implicar organização em si – e de não serem simplesmente mudança de estado que façam parte de uma organização constante – têm que ser produzidas [aqui nos preferiríamos escrever induzidas] de fora do sistema. Mas isso é possível de duas maneiras diferentes: ou um programa preciso, injetado no sistema por um programador [...] ou então [...] por fatores aleatórios nos quais é impossível estabelecer qualquer “pattern” que permita descrever um programa. Esse é o momento em que poderemos falar de auto-organização, mesmo que não seja num sentido estrito. Essa, portanto, é outra maneira de seguir um princípio de ordem a partir do ruído na lógica dos sistemas auto-organizados”.

Aqui aparece claramente o entre o “cristal e a fumaça” de Atlan [58[58] H. Atlan, Entre o Cristal e a Fumaça (Zahar, Rio de Janeiro, 1992).]. O cristal pertence ao primeiro caso (exemplo de hetero-organização), enquanto que auto-organização em, digamos, estruturas dissipativas advém – como já foi dito – de uma competição entre efeitos dissipativos (tendentes a levar a estados desordenados de entropia crescente) e efeitos de realimentação positiva. Com “alimentação” suficiente, nos casos favoráveis, a última vence a primeira, levando a um estado de ordem. Voltando, dentre as “possibilidades” o sistema passa de um estado “atual” (o desorganizado) para outro estado “atual”, o organizado. Isto se dá numa condição crítica, num ponto-estado dito de bifurcação das soluções das equações de evolução. O surgimento da estrutura ordenada se dá pelo processo de “nucleação e crescimento” dessa particular nova estrutura. No linguajar matemático e físico é, respectivamente, um desvio da média na forma de flutuação. Mas flutuação é “ruído”, e aqui aparece a questão de “ordem pelo ruído”, ou o “ruído como princípio de auto-organização” do título do Capítulo 3 no livro de Atlan. Parece também surgir aqui a conexão com seus conceitos de “ambiguidade-autonomia” e “ambiguidade-destrutiva”. A última é a regressão de flutuações por efeitos dissipativos (nos sistemas materiais imposta pelo teorema de Prigogine de mínima produção de entropia quando o sistema está “próximo” do equilíbrio), e a primeira é a amplificação de uma particular flutuação levando à auto-organização (quando o sistema está suficientemente longe do equilíbrio). Novamente com Atlan, “uma condição suficiente para que a ambiguidade-autonomia seja capaz de compensar os efeitos da ambiguidade-destrutiva é a existência de uma mudança de alfabeto com aumento do número de letras, quando se passa de um tipo de subsistema para outro, com uma via de comunicação entre os dois”. Reaparece a questão da competição entre realimentação via efeitos não-lineares e dissipação, por um lado, e o fato que o “alfabeto”, entendido como tal o conjunto de variáveis de estado, deve ser estendido para passar de uma descrição a outra, cada uma apropriada para o estado do sistema. E também, via a realimentação, se verifica a afirmação de Atlan: “É perfeitamente óbvio, no entanto, que o funcionamento do sistema está ligado à transmissão de informação pelas vias de um subsistema a outro, e que, ao lado desse papel “positivo” do ruído, fator de complexificação, o clássico papel destrutivo não pode ser ignorado”.

Para finalizar estas parciais considerações, no que se refere a auto-organização por diminuição da redundância, no Capítulo 3 do livro de Atlan, vamos simplesmente comentar que de fato, a redundância R por ele definida aparece no formalismo estatístico no tratamento de estruturas dissipativas como um parâmetro de ordem (similar ao proposto por von Foerster) com base na entropia estatística (às vezes dita informacional) associada ao método. Só mais um comentário: uma primeira bifurcação seguida de formação de um tipo de auto-organização, pode, a medida que o sistema é mais e mais “alimentado”, vir seguida da emergência de adicionais tipos de estruturas auto-organizadas – em uma espécie de auto-organização evolutiva. Uma “cascata” de processos de auto-organização pode eventualmente surgir, levando para uma situação de sobre-excesso (“hiperinflação”) de ordem tal que o sistema pareça caótico, correspondendo ao estado chamado de caos turbulento, a “fumaça” no título do livro de Atlan.

Como dito, auto-organização pode considerar-se como parte da teoria de complexidade a que nos referimos na seção anterior. Reiteramos que deve ser notado que a complexidade vai além de sistemas físicos e químicos, cobrindo todas as áreas do esforço humano que tratam da dinâmica de sistemas.

Tem sido manifestado que a colaboração de métodos específicos para a pesquisa de sistemas é uma tendência geral de conhecimento científico, mudando o enfoque do Século XIX concentrado na elaboração de leis para os constituintes nos processos elementares da Natureza, i.e. enfoque reducionista. Considerou-se que a teoria da informação, como desenvolvida por Shannon e outros, e de amplo uso na engenharia de comunicações e tentativamente noutras ciências, poderia proporcionar uma medida de complexidade: Esta relação entre informação e organização em sistemas complexos é um problema muito importante ainda em aberto.

No que se refere a sistemas vivos, a Escola de Bruxelas tem manifestado o importante comentário de que “A aparição espontânea de estruturas auto-organizadas é um fenômeno que tem mudado nossa visão das ciências físicas e sua relação com a biosfera. A matéria mostra versatilidade e habilidade para organizar-se internamente. Tais achados tem encurtado consideravelmente o fosso que existia entre matéria e vida. Temos nas mãos elementos suficientes para esperar que num dia distante possa se mostrar que a matéria pode adquirir vida através da ação das leis ordinárias da físico-química. Tal perspectiva é uma revolução em ciência”.

Como já mencionado, a auto-organização pode mostrar-se sob diferentes aspectos, i.e. a partir de estados desordenados (chamemos de caos térmico) podem surgir padrões organizados mostrando:
  1. ordem espacial (transformação morfológica);

  2. ordem temporal (processos cíclicos);

  3. transição entre estados homogêneos e estacionários,

em todos os casos mantidos por um fluxo de alimentação (e.g. energia e matéria) desde o exterior.

Também enfatizamos mais uma vez que uma característica fundamental para o comportamento auto-organizado surgir é que se tenham contribuições não-lineares para os processos de evolução. Isto é consequência de que, como já dito, em ciências naturais, no regime linear age o princípio de Prigogine de mínima produção de entropia de equilíbrio local que exclui a formação de ordem: no regime linear existe uma tendência natural dos sistemas físico-químicos para um atrator consistente num estado de mínima produção de entropia de equilíbrio local e regressão de flutuações.

Isto generaliza-se a qualquer sistema pelo fato de que no regime linear temos simplesmente superposição de soluções e falta do fenômeno de realimentação que faz crescer e estabelecer-se qualquer estado auto-organizado, como já mencionado.

Até agora temos definido auto-organização numa forma um pouco genérica de mais, como sendo a emergência de padrões ordenados numa escala macroscópica. Não é fácil dar a priori uma definição rigorosa de auto-organização. Antes de uma elaboração maior podemos também dizer, ampliando a expressão anterior, que auto-organização é o resultado do desenvolvimento de instabilidade num sistema desorganizado (antes tínhamos chamado de termicamente caótico) com a estabilização de uma estrutura coerente de longo alcance, i.e. numa escala macroscópica, devido ao balanço entre perdas dissipativas internas e ganhos de energia, massa, etc., vindos de uma fonte externa, e sob a condição necessária de que a evolução do sistema seja governada por leis cinéticas não-lineares.

Ressaltemos o ponto fundamental: reside no fato de que estamos tratando com sistemas abertos não-lineares, e a instabilidade onde emerge a situação auto-organizada é o chamado ponto de bifurcação de soluções1 1 Lembrar que solução quer dizer a caracterização do estado do sistema (tal ponto – também dito de ponto singular em matemática e ponto crítico em física – sugere neste último caso para sistemas de qualquer tipo, inclusive os sociais, que se tem uma “crise”). cujo aparecimento somente é possível sob a ação de vínculos externos que levam o sistema a condições suficientemente afastada do regime linear. Assim, a emergência de ordem pode surgir depois de alcançado um nível mínimo de dissipação, e a conexão não trivial entre ordem, estabilidade, e dissipação aparece, tipicamente, quando mecanismos de realimentação (feedback) podem estabilizar o comportamento coerente na escala macroscópica.

Até aqui temos tecido considerações e comentários gerais sobre as estruturas dissipativas auto-organizadas. O passo seguinte é rigorizar esta questão: nessa direção podemos enunciar duas questões fundamentais associadas ao problema que, reiteramos mais uma vez, são:
  1. Qual é a origem microscópica destas transições?

  2. Como podemos tratar teoricamente e sermos capazes de analisar rigorosamente estas transições? i.e. construir um arcabouço lógico-matemático?

Fundamentalmente é preciso caracterizar o sistema e o tipo de informação que se pretende obter. Assim, parece-nos que teríamos oito itens a considerar:
  1. Caracterizar os elementos constitutivos do sistema (pode ser um único ou de vários tipos): por exemplo, as diferentes partículas, com seus diferentes graus de liberdade associados, num sistema físico-químico, os indivíduos num sistema sócio-cultural em suas diferentes classes possíveis, aristocracia, clero, militares, classe média, proletariado, burocracia estatal, etc.; os predadores e presas no sistema ecológico de Lotka-Volterra; etc.

  2. Definir as relações entre os elementos: interações em sistemas físico-químicos; circuitos sociais em sistemas sócio-culturais; característica do sistema predador-presa; etc.

  3. Caracterizar os vínculos externos (as fontes de alimentação) que agem sobre o sistema aberto: forças e campos em sistemas físico-químicos; forças sociais; alimentação das presas do modelo Lotka-Volterra; etc.

  4. Caracterizar os descartes (a dissipação) feito pelo sistema: relaxação para reservatórios externos em sistema físico-químico; emigração num sistema populacional; mortes no sistema predador-presa; etc.

  5. Definir o conjunto de variáveis macroscópicas que caracterizem o estado do sistema, em princípio acessíveis à observação e medida: em um sistema físico-químico por exemplo uma descrição hidrodinâmica envolve a densidade, o momento linear, e a densidade de energia; em economia quantidade de mercadorias, de ações, de dinheiro, de serviços, etc.; populações de classes em sistemas sociais, a população de presas e de predadores no modelo Lotka-Volterra; etc.

  6. Construir leis cinéticas não-lineares, ou seja as equações de evolução das variáveis básicas, i.e., a taxa de variação temporal das variáveis macroscópicas dadas em termos de uma expressão (funcional não-linear e eventualmente não-local e com memória) dependentes destas variáveis e contendo os parâmetros de controle que caracterizam os vínculos externos, assim como os detalhes das interações presentes. Tipicamente, se chamamos de Qj(t), j = 1,2,...,n, tais variáveis, temos

    (1)ddtQj(t)=Φj(Q1(t),,Qn(t);Λ1,,Λs).
    Esta taxa de variação temporal destas variáveis é dada por expressões (os funcionais Φj) dependentes das mesmas variáveis e das características do sistema, que em geral, espera-se, sejam não-lineares, não-locais no espaço, i.e. o comportamento em um ponto espacial depende do comportamento em todo o sistema, e com efeitos de memória, i.e. dependendo da história passada das variáveis Qj(t) até o momento em que a medida é realizada, e onde Λi, i = 1, 2,...,s são parâmetros externos de controle.

  7. Dar as condições iniciais para o sistema de equações de evolução, a menos de tratar com estados estacionários (As equações de evolução são de primeira ordem na variação temporal e assim requerem uma condição inicial para termos solução única).

  8. Se houver dependência espacial no problema, dar as condições de contorno, i.e. as condições nas fronteiras que limitam o sistema.

Como realizar esse programa? A escolha das variáveis macroscópicas de base é um dos problemas cruciais da teoria: podem existir – como no caso de sistemas físico-químicos – certos guias, mas em última instância temos uma forte componente antropomórfica no sentido de que com cada caso deve-se recorrer à experiência e à intuição.

Uma vez dadas as macrovariáveis de base devemos proceder, de acordo ao sexto item, à construção de suas equações de evolução. Este é outro problema delicado no formalismo. Existem fundamentos fenomenológicos a serem encontrados na termodinâmica generalizada dos processos irreversíveis de Glansdorff e Prigogine: as equações construídas em termos de teorias cinéticas fenomenológicas porém acompanhadas de resultados gerais de relevância como o teorema de mínima produção de entropia de equilíbrio no regime linear, o critério universal de evolução, e o critério termodinâmico de instabilidade que permite caracterizar o ponto de bifurcação onde emerge a estrutura dissipativa auto-organizada. Poderosas teorias estocásticas estão também disponíveis dentro do enfoque sinergético de Haken [42[42] H. Haken, Synergetics: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry and Biology (Springer, Berlin, 1978).]. Como descrito há algum tempo [19[19] R. Luzzi, A.R. Vasconcellos, in Estruturas Dissipativas Auto-Organizadas: Um ponto de vista estatístico, Complexidade, Auto-organização, Informação em Auto-Organização: Estudos Interdisciplinares, editado por M. Debrun, M.E.Q. Gonzales, e O. Pessoa (CLE-Unicamp, Campinas, 1996), v. 18.], nosso Grupo no IFGW-Unicamp tem proposto que em certas situações um tratamento ao nível microscópico (molecular e atômico) para evidenciar e descrever estruturas dissipativas auto-organizadas pode ser constituído pela mecânica estatística de não-equilíbrio, que aplicamos ao caso de sistemas semicondutores dopados [59[59] C.G. Rodrigues, V.N. Freire, A.R. Vasconcellos, R. Luzzi, Braz. J. Phys. 32(2A), 439 (2002); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, Braz. J. Phys. 36(2A), 255 (2006).62[62] C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, Eur. Phys. J. B 72(1), 67 (2009); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, Eur. Phys. J. B 86, 200 (2013).] e fotoexcitados [63[63] C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, J. Phys. D: Appl. Phys. 38, 3584 (2005); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, J. Appl. Phys. 102, 073714 (2007).65[65] C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, V.N. Freire, J. Appl. Phys. 90(4), 1879 (2001); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, J. Appl. Phys. 113(11), 113701 (2013).] e sistemas biológicos modelados [30[30] M.V. Mesquita, A.R. Vasconcellos, R. Luzzi, Phys. Rev. E 48, 4049 (1993).].

Em continuação, comparemos, em forma tentativa, os argumentos anteriores com o conceito de auto-organização avançado pelo Prof. Debrun. No que segue as partes entre aspas se referem as palavras do Prof. Debrun [66[66] M. Debrun, Seminários sobre Auto-Organização no Centro de Lógica e Epistemologia da Unicamp (Unicamp, Campinas, 1996).].
  1. “A auto-organização possui as características da organização em geral”; isto está em correspondência com frase anterior de que está associada à emergência de padrões ordenados numa escala macroscópica. “Em particular: pressupõe partes reais (e não apenas analíticas)” em correspondência com o que já manifestamos de que precisamos caracterizar os elementos constitutivos do sistema.

  2. “A auto-organização constitui um processo criador”, em correspondência com o argumento de que a coerência que surge na escala macroscópica não é imposta pelo meio externo que se reduz a fornecer um fluxo (de energia por exemplo) não ordenado. Em um sistema físico-químico a auto-organização usa parcialmente esse fluxo entrante para produzir ordem em lugar de incrementar o caos térmico.

  3. “Esse processo se origina num corte em relação ao passado. Ou seja: (a) Ele não é prolongamento ou deslocamento de um processo anterior. (b) Ele não é comandado por um código inato. (c) Ele não se reduz à simples maturação de uma estrutura inata”. De fato, do ponto de vista teórico temos, no ponto crítico, uma bifurcação de soluções (“corte em relação ao passado”), que não é prolongamento do chamado ramo termodinâmico (ou anterior) que simplesmente passa a ser instável. Entendemos que, de fato, não é maturação de uma estrutura inata no sentido de que é uma flutuação, resultado de uma chance, que se amplifica e cresce a nível macroscópico. Talvez, podemos dizer que é uma estrutura potencial que se manifesta na flutuação.

  4. “O processo auto-organizado se caracteriza por uma endogenização crescente. Ou seja:
    1. “A medida que o processo avance – e até que eventualmente regrida – acentua-se a distinção entre o dentro e o fora”. Se corresponde com os argumentos de que auto-organização, pelo menos no que se refere à formação de estruturas dissipativas, se dá em sistemas abertos que estão recebendo “alimentação” externa. Como dito, esta alimentação externa não tem ligação com a ordem a emergir, a qual é de caráter totalmente interno no sentido referido de amplificação de uma flutuação como resultado de efeitos de realimentação que vencem os efeitos dissipativos, i.e.aqueles que tendem a fazer regredir tal flutuação, como acontece no regime linear.

    2. “O processo é cada vez mais “responsável” por seu próprio desenrolar. O que significa: que a participação do acaso, que pode ser importante no começo, é progressivamente absorvida”. De fato temos um jogo de chance e necessidade: Entre pontos de bifurcação as questões cinéticas são deterministas, no ponto de bifurcação as flutuações são relevantes, com o desenrolar da nova estrutura ordenada em termos da amplificação da flutuação, associada à nova ordem, até atingir a escala global do sistema. Após esta cinética de formação temos novamente evolução determinista até um eventual novo ponto de bifurcação.

    3. “Que no caso de uma auto-organização no âmbito psicológico, social, econômico, político, ou cultural, as eventuais finalidades (vontades, intenções, planos) dos participantes são também absorvidas. Isto é, neutralizadas, redefinidas, ou subordinadas ao movimento global do processo”. Neste ponto, também válidos para sistemas físico-químicos, parece-nos termos conexão com o conceito de “escravização” avançado por Haken [42[42] H. Haken, Synergetics: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry and Biology (Springer, Berlin, 1978).]: o comportamento do sistema é determinado pelo comportamento do parâmetro de ordem i.e. daquele que caracteriza na escala macroscópica o fato da formação da estrutura como resultado da amplificação de uma determinada flutuação. Os outros possíveis comportamentos são subordinados a este.

    4. “Que o processo não tem “centro absoluto”, que, de cima para baixo, definiria sua direção e coordenaria seu desenrolar. Pode haver centros, inclusive um centro dominante ... mas a hierarquia entre esses centros, os outros centros e o processo em conjunto só pode ser uma hierarquia “emaranhada” (entangled, enchevêtree). O(s) centro(s) não pode(m) se exteriorizar em relação ao processo”. Entendemos neste ponto que não existe um mecanismo implícito no sistema que determinaria o processo de auto-organização. Relembramos que temos um jogo de chance e necessidade: uma possível flutuação é realimentada pelo efeito de “forças” não-lineares presentes nas equações de evolução. Também é bom lembrar que no ponto crítico as características do sistema determinarão sempre a formação da ordem (do padrão geral) mas não os detalhes menores, e mudanças podem se manifestar como consequência, como mostrado por Prigogine e colaboradores, da presença de perturbações ainda que pequenas, como, por exemplo, o campo gravitacional. Cremos conveniente alertar que não devemos confundir o atrator (ponto fixo ou ponto singular, por exemplo no caso de ciclos limites) com o acima referido “centro absoluto”, o atrator é simplesmente uma manifestação matemática indicativa da estabilização da nova estrutura ordenada (não é inerente ao sistema; é consequência).

  5. “Em síntese o processo auto-organizado tem uma história. Ela não é o desenrolar de um sistema previamente dado. Ao contrário, o sistema se constitui através do processo”. Neste aspecto podemos mencionar o argumento de Prigogine de que “É interessante que, num certo sentido, a bifurcação introduz história na física e na química, um elemento que previamente parecia estar reservados para as ciências que tratam com fenômenos biológicos, sociais e culturais”. Ao incrementar o valor do parâmetro de controle o sistema vai passando pelos diferentes ramos que emergem das possíveis bifurcações e que se vão fazendo sucessivamente estáveis com relação ao ramo de evolução anterior: a chance define o ramo (na transição entre soluções deterministas) e assim se estabelece a “história”. Não devemos confundir esta história com a questão da memória nas equações de evolução; bifurcação e consequente auto-organização se manifestam inclusive em sistemas caracterizados por equações no limite Markoviano (sem memória).

  6. “A auto-organização assim definida é evidentemente uma épura, um “tipo ideal” no sentido do sociólogo Max Weber. É difícil imaginar – sobretudo na área das ciências humanas – um processo concreto que não comporte, misturados e contraditórios, elementos de auto-organização e hetero-organização”. Trata-se aqui já de conceitos mais sofisticados e específicos. Parece-nos, pelo menos no que se refere a última parte da afirmação, que também – mesmo em sistemas naturais – temos misturas de elementos no sentido de que embora a ordem macroscópica seja inerente ao jogo entre processos dissipativos e “forças de realimentação” internas levando o sistema a, eventualmente, se auto-organizar, ele é aberto no sentido de receber “alimentação” (fluxos de certas quantidades) de uma fonte externa. Talvez um bom exemplo seja o de sistemas biológicos onde o código genético estabelece uma estrutura fundamental, mas reações químicas autocatalíticas (e outros processos físico-químicos não lineares) podem estabelecer coerência e auto-organização no nível macroscópico. No que se refere a auto-organização como épura, entendemos esta como uma projeção de um espaço de dimensão dada para outro de dimensão menor, diríamos que tal aspecto pode ser relacionado com o fato de que no ponto de bifurcação se tem uma quebra de simetria menor que a do estado anterior que passa a ser instável: em jargão matemático, o grupo de simetria da nova estrutura é subgrupo (i.e., está contido) no grupo de simetria anterior.

Temos procurado mostrar que o conceito de auto-organização em sua forma genérica apresentado pelo Prof. Debrun tem completa contrapartida no enfoque físico-matemático; e assim – em particular – as estruturas dissipativas “à la Prigogine” em sistemas naturais correspondem corretamente a tal conceituação de auto-organização.

Como palavras finais podemos talvez enfatizar dois possíveis aspectos de grande relevância associados à formação de auto-organização. Um é na vital questão da vida, se nos permitem o trocadilho, e reprisando as questões da Escola de Bruxelas “auto-organização tem mudado completamente nossa visão das ciências físicas em relação com a biosfera. A matéria não é simplesmente um objeto inerte que muda somente se agimos sobre ela. Pelo contrário, ela pode mostrar sua própria “vontade” e versatilidade e habilidade para sua organização interna”. Como já dizemos estes resultados tem encurtado notavelmente o amplo fosso que existia entre matéria e vida, com a última a eventualmente surgir da primeira através da ação de leis físico-químicas ordinárias. Por outro lado, no aspecto social da vida humana, podemos lembrar os argumentos de André Danzin e Ilya Prigogine [Correio da Unesco, abril de 1982] de que “O homem é feito para evoluir, e essa evolução suscita problemas novos a cada instante, gerados justamente pela aplicação das soluções encontradas para eliminar problemas anteriores ... vamos deter-nos por um instante sobre o conceito de evolução. Quando um fenômeno se caracteriza por um alto grau de complexidade, e é submetido a forças contraditórias – o caso das sociedades humanas – sua evolução é representada por períodos de continuidade interrompido por bifurcações. Quando se chega a uma bifurcação onde diversas soluções são possíveis, basta a intervenção de um fenômeno ínfimo, chamado flutuação, para beneficiar preferencialmente uma das evoluções, essa evolução então se impõe irreversivelmente e se infla com seu próprio sucesso até chegar a um novo ponto de inadaptação ... A interação das idéias filosóficas com as aplicações técnicas produz um fenômeno de auto-organização”.

4. Informação

Informação [do latim informatione] é o ato ou efeito de informar [do latim informare], que por sua vez é dar informe ou parecer sobre; instruir, ensinar, confirmar, corroborar, apoiar, tornar existente ou real, avisar, cientificar [67[67] A.B.H. Ferreira, Novo Dicionário da Língua Portuguesa (Nova Fronteira, Rio de Janeiro, 1975).]. Também [68[68] Webster's Third New International Diccionary of the English Language (Encyclopaedia Britannica, Chicago, 1976).], “an endowing with form; training, discipline, instruction; the communication or reception of knowledge or inteligence; a signal purposely impressed upon the input of a communication system; a logical quantity belonging to propositions and arguments as well as terms and comprising the sum of the synthetical propositions in which the term, proposition or argument taken enters as subject or predicate, antecedent or consequent”.

Estas são definições dadas pelos dicionários para o termo informação, no seu sentido usual no uso da linguagem corrente, exceto a última acepção, que é a que mais se aproxima, parece-nos, aos propósitos que aqui nos interessam, talvez sintetizável em que se procura uma teoria aprofundada sobre o processamento de informação e intencionalidade na ciência do conhecimento.

No seu sentido usual informação tem ganho proeminência no mundo atual: como alguém já disse, flutuamos em um oceano de informação, com os países industrializados avançados amiúde caracterizados como “sociedades de informação” [69[69] R.H. Reichardt, in Scientific Issues of the Next Century (NYAS, New York, 1990), v. 610.]. Lembremos também que tem sido cunhado o neologismo Informática, uma disciplina destes tempos, que trata com o processamento da informação.

Como é usualmente entendido, o processo de informação requer um emissor, um canal de transmissão, e um receptor. Esta crescente afluência de informação está destinada ao seu uso pela humanidade, assim podemos dizer que a última etapa de recepção é pelo ser humano, para quem a informação deve ter significado. Evidentemente nem toda mensagem tem significado para qualquer receptor. Em geral uma mensagem tem significado se é essencial para alguém, em primeiro lugar em conexão com a idéia de sobrevivência, mas, em geral, refere-se a motivação e interesses [69[69] R.H. Reichardt, in Scientific Issues of the Next Century (NYAS, New York, 1990), v. 610.].

Rolf Landauer em “Information is physical” [Physics Today, May 1991, pp. 23–29], tem dito que: “A Termodinâmica surgiu no Século XIX a partir da tentativa de compreender os limites de desempenho das máquinas de vapor (no início da Revolução Industrial), de forma a antecipar todas as possíveis invenções. Claude Shannon, durante a Segunda Guerra Mundial do Século XX, analisou os limites dos canais de comunicação (dando inicio à depois chamada teoria da informação [70[70] C.E. Shannon, N. Weaver, The Mathematical Theory of Communication (Univ. Illinois Press, Urbana, 1949).,71[71] L. Brillouin, Science and Information Theory(Academy, New York, 1962).]). Não é surpreendente, então, que logo após a emergência da computação digital moderna, questões similares tenham aparecido neste campo. Vem logo à mente associar uma parte lógica com um grau de liberdade, e então adjudicar a energia térmica kT[k é a constante de Boltzmann e T a temperatura absoluta em Kelvins] com ele, e supor que esta energia deve ser dissipada em cada passo. Similarmente, parece óbvio para muitos que o princípio de incerteza, em mecânica quântica, poderia ser usado para calcular o mínimo requerimento de energia envolvida, e consequentemente a perda de energia, para pequenos intervalos de tempo [...]. Computação é inevitavelmente feita com graus de liberdade físicos reais, e usando materiais disponíveis no universo físico também real. Como isto restringe o processo? A interface entre física e computação, vista de um nível fundamental, tem dado lugar não somente a estas questões, como também a um conjunto de outros assuntos. Um é complexidade, onde muitos pesquisadores têm estudado medidas de complexidade, procurando quantificar esta noção intuitiva. Boa parte destes estudos estão guiados pela esperança dos cientistas em achar uma estrada para conseguir penetrar questões como a origem da vida e o processo da evolução. Esta preocupação com complexidade substitui, até certo ponto, prévios conceitos como auto-organização” [tradução por conta dos autores] (e temos aqui conexão com as seções anteriores).

Por outro lado, Edwin T. Jaynes tem dito que:

Ciência é informação apropriadamente organizada,

e, como consequência, ocupar-nos-emos em continuação com um formalismo teórico para tentar dar forma ao uso de informação em ciência.

Isto consiste em um tratamento estatístico associado à teoria de informação à la Shannon, e está baseada na obra do acima referido E.T. Jaynes [52[52] E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).55[55] H. Jeffreys, Scientific Inference (Cambridge Univ. Press, Cambridge, 3rd. Edition, 1973).]. Assim, começamos citando Jaynes: “É a óbvia importância dos teoremas de Shannon que em primeiro lugar domina nossa atenção e respeito; mas como eu entendi mais tarde, foi precisamente sua vaguidade nestas questões conceituais – permitindo a cada leitor interpretar o trabalho de sua própria maneira – que fez dos escritos de Shannon, como aqueles de Niels Bohr, tão eminentemente apropriados para se converter em Escrituras de uma nova religião, como rapidamente aconteceu em ambos casos”.

A construção proposta por Jaynes relaciona teoria de informação, que alguns autores consideram como parte da teoria de probabilidade, com o ramo dito Bayesiano desta última. Vamos em continuação concentrarmos na questão, porém especificada para o caso de uma física estatística que proporcione fundamentos à física macroscópica dos fenômenos não-lineares, e, consequentemente, podendo levar ao comportamento complexo nesses sistemas, e, em particular, a situação de auto-organização na matéria condensada.

5. O Método estatístico

Relembremos o dito de que a descrição macroscópica de processos dissipativos na matéria tem sido feita através de diferentes tratamentos. Existem fundamentos fenomenológicos a serem encontrados na termodinâmica generalizada dos processos irreversíveis de Glansdorff & Prigogine [34[34] P. Glansdorff, I. Prigogine, Thermodynamic Theory of Structure, Stability, and Fluctuations (Wiley-Interscience, New York, 1971).] (como o teorema da mínima produção de entropia de equilíbrio local; o critério universal de evolução; e os critérios de instabilidade que já mencionamos) e existe o tratamento em termos de uma teoria cinética fenomenológica. Poderosas teorias estocásticas estão também disponíveis dentro do enfoque sinergético de Haken [42[42] H. Haken, Synergetics: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry and Biology (Springer, Berlin, 1978).]. Finalmente, em certas situações um tratamento a nível microscópico para evidenciar e descrever estruturas dissipativas auto-organizadas pode ser constituído pela mecânica estatística de não-equilíbrio.

Mecânica estatística, como o próprio nome sugere, envolve duas disciplinas, física e teoria de probabilidades, e sua criação é que permite estabelecer as relações entre a mecânica e a termodinâmica, i.e., entre os aspectos microscópicos (ao nível dos elementos individuais do sistema e sua interações) e o macroscópico (ao nível das propriedades globais do sistema de elementos individuais). O propósito da mecânica estatística, e no que nos interessa a de sistemas fora do equilíbrio, é determinar as propriedades termodinâmicas e a evolução no tempo dos observáveis macroscópicos de tais sistemas, em termos das leis dinâmicas que governam o movimento das partículas constituintes.

Não é fácil estabelecer as datas de nascimento da mecânica estatística. São considerados seus “pais fundadores” (cientistas da segunda metade do Século XIX) J.C. Maxwell, L. Boltzmann e J.W. Gibbs. Este último proporcionou um método matemático tão ordeiro e sistemático que se constitui nos alicerces rigorosos desta ciência. Mecânica estatística está fundamentalmente baseada no cálculo de probabilidades, especialmente no espírito introduzido por Laplace [72[72] P.S. Laplace, Essay Philosophique sur les Probabilities (Bachelier, Paris, 1825).]. Jacob Bronowski tem manifestado que [73[73] L. Bronowski, The Common Sense in Science (Harvard Univ. Press, Cambridge, 1978).]: “Este é o pensamento revolucionário na ciência moderna. Ele substitui o conceito de efeito inevitável pelo de tendência provável. Sua técnica é separar tanto quanto possível as tendências estabilizadoras das flutuações locais [...] O futuro já não existe; ele só pode ser predito”.

Oliver Penrose tem manifestado [74[74] O. Penrose, Rep. Prog. Phys. 42, 1938 (1979).] que a mecânica estatística é notória pelos problemas conceituais que apresenta, para os quais é difícil dar uma resposta convincente, como são:
  1. Qual é o significado físico do ensemble de Gibbs?

  2. Como se podem justificar os ensembles padrões que se usam na teoria de sistemas em equilíbrio?

  3. Quais são os ensembles corretos para sistemas fora do equilíbrio?

  4. Como é possível reconciliar a reversibilidade do comportamento microscópico com a irreversibilidade do comportamento macroscópico?

A mais, relacionado com o caso de sistemas fora do equilíbrio, Ryogo Kubo nos diz [75[75] R. Zwanzig, Perspectives in Statistical Physics, H. J. Raveché, Ed. (North Holland, Amsterdam, 1981).] que “a mecânica estatística dos fenômenos não-lineares e de não-equilibrio está na sua infância e progresso adicional deve ser esperado, mantendo íntima cooperação com o experimento”.

O estudo do estado macroscópico dos sistemas fora do equilíbrio apresenta dificuldades imensamente maiores do que as enfrentadas na teoria dos sistemas em equilíbrio. Isto é principalmente devido ao fato de que se requer uma discussão muito mais detalhada para determinar a dependência temporal das quantidades mensuráveis, e a calcular coeficientes de transporte que são dependentes do tempo (i.e. que evoluem junto com o macroestado do sistema no qual estão se desenvolvendo processos dissipativos), assim como dependentes da posição (i.e. associados com as propriedades espaciais locais neste sistema, em geral, não-homogêneo). Temos então uma dependência não-local no tempo e no espaço, o que significa presença de efeitos de memória e correlação espacial respectivamente.

Considera-se em geral [76[76] R. Kubo, Prog. Theor. Phys. (Japan) Suppl. 64, 1 (1978).] que as metas básicas da mecânica estatística de não-equilíbrio são:
  1. Derivar equações de transportes e compreender sua estrutura;

  2. Calcular os valores instantâneos e a evolução temporal das quantidades físicas que especificam o estado macroscópico do sistema;

  3. Estudar as propriedades dos estados estacionários (“steady states”);

  4. Entender como se realiza a tendência para o equilíbrio nos sistemas naturais isolados.

A mecânica estatística de sistemas fora do equilíbrio tem, tipicamente, seguido duas direções: Uma é a teoria cinética dos gases diluídos, na qual, partindo de umas poucas – porém controvertidas – hipóteses, pode ser obtida uma descrição de como sistemas simples evoluem e se aproximam do equilíbrio (o célebre teorema H de Boltzmann e sua teoria de transporte). Uma extensão destas idéias ao caso de gases densos tem seguido vários caminhos, como por exemplo, a construção de uma teoria cinética generalizada (veja por exemplo a Ref. [77[77] J.R. Dorffmann, Physica A 106, 77 (1981).]) e a assim chamada equação da hierarquia BBGKY (veja por exemplo Ref. [78[78] H.J. Kreuzer, Nonequilibrium Thermodynamics and its Statistical Foundations (Clarendon. Oxford, 1981).]). A outra é a generalização do movimento Browniano, no qual as complicadas equações dinâmicas – as assim chamadas de equações de Newton-Langevin generalizadas – que se seguem das leis da mecânica, são acompanhadas de hipóteses estatísticas. A este método pertence, por exemplo, o formalismo das funções de correlação devido a Mori [79[79] H. Mori, Prog. Theor. Phys. (Japan) 33, 423 (1965).] e alguns aspectos do método das equações mestres [78[78] H.J. Kreuzer, Nonequilibrium Thermodynamics and its Statistical Foundations (Clarendon. Oxford, 1981).].

Os enfoques usados para desenvolver uma teoria que envolva o programa dos itens 1 a 4 listados acima, têm sido classificados [77[77] J.R. Dorffmann, Physica A 106, 77 (1981).,80[80] R. Zwanzig, Kinam (México) 3, 3 (1981).] em cinco categorias:
  1. Técnicas intuitivas;

  2. Técnicas baseadas na generalização da teoria cinética dos gases;

  3. Técnicas baseadas na teoria dos processos estocásticos;

  4. Expansões a partir de um estado inicial de equilíbrio;

  5. Generalizações do algoritmo dos ensembles de Gibbs.

Este último item (5) está claramente conectado com a questão levantada por Penrose, que já apresentamos previamente, referente à realização de uma escolha apropriada de ensembles para problemas de não-equilíbrio. Nesta questão é que concentraremos nosso interesse no que segue.

Quando recorremos à abordagem de um procedimento estatístico, o estado macroscópico do sistema é dado em uma descrição em termos de algum conjunto reduzido de quantidades dinâmicas, digamos {P1,P2,...,Pn}, com a distribuição de probabilidades ϱ do estado mecânico (microscópico) sendo dependente delas e somente delas: ϱ(P1,...,Pn;t). O estado do sistema ao nível termodinâmico (macroscópico) é caracterizado por um ponto no espaço de estados termodinâmico (ou espaço de Gibbs) composto pelos valores ao tempo t das variáveis macroscópicas {Q1(t), Q2(t), ..., Qn(t)}, que são os valores médios das quantidades Pj com a distribuição de probabilidades dada. Temos, para j = 1, 2,...,n:

(2)Qj(t)αPjαϱα(t),
i.e., uma soma em α, onde α é um índice (conjunto de índices no caso mecânico quântico ou ponto de fases no caso mecânico clássico) que caracteriza o estado microscópico do sistema; P é o valor de Pj nesse estado α, e ϱα(t) a probabilidade ao tempo t (ou peso estatístico) desse estado no ensemble estatístico. As quantidades Pj mudam no tempo com a evolução microscópica do estado mecânico do sistema, porém o experimento não segue esta evolução microscópica, mas segue os valores numéricos das variáveis Qj(t). Os resultados do experimento são descritos por um conjunto de equações de evolução das variáveis Qj(t) como já foi indicado na Eq. (1).

Estas considerações fazem emergir imediatamente várias questões a serem enfrentadas.
  1. Como escolher as macrovariáveis básicas? No momento presente parece não haver uma teoria completamente satisfatória para gerar esta informação de uma forma única. Discutimos o tópico em [81[81] R. Luzzi, A.R. Vasconcellos, J.G. Ramos, Foundations of a Nonequilibrium Statistical Ensemble Formalism (Elsevier-Kluwer Academic, Amsterdam-Dordrecht, 2002).] em relação à construção de um formalismo específico, assim como em conexão com a termodinâmica irreversível fenomenológica (ver também Refs. [56[56] R. Luzzi, A.R. Vasconcellos, J.G. Ramos, Statistical Foundations of Irreversible Thermodynamics (Teubner-Springer, Berlin, 1999).,82[82] L.S. Garcia-Colin, A.R. Vasconcellos, R. Luzzi, J. Non-Equil. Thermodyn. 19, 24 (1994).]). Este é o problema a que se refere o item (5) previamente listado na parte referente à caracterização do sistema dinâmico.

  2. Como são obtidas as equações de evolução? Há vários enfoques possíveis; no caso de sistemas físicos é imediato: calcula-se a equação de movimento para a quantidade Pj(j = 1, 2, ..., n) promediada sobre o ensemble de não-equilíbrio. Temos formalmente:

    (3)ddtQj(t)=αPjαddtϱα(t)=αddtPjαϱα(t).
    (A forma “inocente” da equação (3) não mostra a estrutura extremamente complicada das equações de evolução para as macrovariáveis, que constituem um campo específico de estudo denominado, de forma genérica, de teoria cinética quântica não-linear generalizada).

  3. Como determinar as condições iniciais e de contorno? Muitas vezes são introduzidas as que parecem ser razoáveis e apropriadas às análises teóricas. O ideal seria ter acesso experimental a tais condições, porém isto raramente é possível. Assim, em qualquer problema, a particular sensibilidade dos resultados aos detalhes das condições iniciais e de contorno deve ser cuidadosamente analisada.

  4. Finalmente, temos outra questão fundamental: Como obter comportamento irreversível na evolução do estado macroscópico do sistema? Esta questão é as vezes referida como a flecha do tempo [5[5] I. Prigogine, I. Stengers, Order out of Chaos: Man's new Dialogue with Nature (Bantam, New York, 1984).,28[28] I. Prigogine, From Being to Becoming: Time and Complexity in the Physical Systems (Freeman, San Francisco, 1982).,74[74] O. Penrose, Rep. Prog. Phys. 42, 1938 (1979).,83[83] P.V. Coveney, La Recherche 20, 190 (1989).886[86] R. Lestienne, Scientia 115, 373 (1980).]. Para superar este problema, Prigogine propôs o principio de condição dinâmica para dissipatividade [87[87] I. Prigogine, Acta Phys. Austriaca, Suppl. X, 401 (1973).,88[88] I. Prigogine, Nature 246, 67 (1973).], que introduz uma teoria com o requerido caráter irreversível na evolução [28[28] I. Prigogine, From Being to Becoming: Time and Complexity in the Physical Systems (Freeman, San Francisco, 1982).]. A mecânica estatística de não-equilibrio, em uma versão unificada [81[81] R. Luzzi, A.R. Vasconcellos, J.G. Ramos, Foundations of a Nonequilibrium Statistical Ensemble Formalism (Elsevier-Kluwer Academic, Amsterdam-Dordrecht, 2002).], incorpora irreversibilidade desde o início em sua construção via uma hipótese ad hoc que faz uma mímica do princípio de Prigogine.

Até aqui estabelecemos as quatro principais dificuldades associadas à uma construção de uma formulação mecanico-estatística de não-equilíbrio, mas não discutimos a questão fundamental da construção da distribuição de probabilidades. Conforme mencionamos, existem várias construções, que podem ser unificadas pelos métodos de raciocínio introduzidos por E.T. Jaynes em sua, hoje denominada, física estatística preditiva [52[52] E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).55[55] H. Jeffreys, Scientific Inference (Cambridge Univ. Press, Cambridge, 3rd. Edition, 1973).,89[89] E.T. Jaynes, Maximum Entropy and Bayesian Methods, editado por J. Skilling (Kluwer Academic, Dordrecht, 1989).,90[90] E.T. Jaynes, Maximum Entropy and Bayesian Methods, editado por W. T. Grandy, L. H. Schick (Kluwer Academic, Dordrecht, 1991).]. Esta abordagem está especialmente baseada no seguinte argumento genérico: se qualquer macrofenômeno é reprodutível, então segue-se que todos os detalhes microscópicos que não estão sob o controle do experimentador devem ser irrelevantes para sua previsão e interpretação [...] Nunca conhecemos o microestado; somente uns poucos aspectos do macroestado. Não obstante, o princípio de reprodutibilidade mencionado acima nos convence de que este deve ser suficiente; a informação relevante está ali, se somente formos capazes de reconhecê-la e usá-la [52[52] E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).].

Com base nisto, o problema técnico seguinte é, conforme indicado por Jaynes, como usaremos a teoria da probabilidade para ajudar-nos a fazer raciocínios plausíveis em situações onde, por causa de informação incompleta, não podemos usar raciocínio dedutivo.

Isto é respondido pelo próprio Jaynes, que formulou o critério de que a escolha de probabilidades menos preconceituosa, para um conjunto de eventos mutuamente exclusivos, é aquela que maximiza a entropia estatística (i.e., dada pelo negativo da soma dos produtos de cada probabilidade individual com seu logaritmo, ver Eq. (4) adiante) sujeita aos vínculos impostos pela informação disponível [52[52] E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).55[55] H. Jeffreys, Scientific Inference (Cambridge Univ. Press, Cambridge, 3rd. Edition, 1973).]).

Temos aqui uma possível conexão com a teoria da informação [70[70] C.E. Shannon, N. Weaver, The Mathematical Theory of Communication (Univ. Illinois Press, Urbana, 1949).,71[71] L. Brillouin, Science and Information Theory(Academy, New York, 1962).]; vamos acrescentar uns poucos comentários sobre o assunto, seguindo Jaynes [52[52] E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).55[55] H. Jeffreys, Scientific Inference (Cambridge Univ. Press, Cambridge, 3rd. Edition, 1973).]. Esta conexão baseia-se no fato de que a teoria de informação proporciona um critério construtivo para obter distribuições de probabilidades com base em um conhecimento parcial, e leva a um tipo de estatística por inferência, denominada estimativa por maximização da entropia estatística. Esta é a estimativa menos preconceituosa que é possível realizar com a informação dada, i.e., é maximamente neutra com relação à informação perdida. Mostra-se que se considerarmos a mecânica estatística como uma forma de inferência estatística, encontramos que as usuais regras de cálculo de propriedades físicas do sistema são uma consequência imediata do princípio de maximização da entropia estatística. Na resultante mecânica estatística preditiva, [52[52] E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).], as regras derivadas da mecânica estatística usual são assim justificadas, e representam a melhor estimativa que se pode fazer com base na informação disponível. Desta forma, eliminam-se certas hipóteses ad hoc que a teoria usual requer, e além disso, é possível manter uma distinção bem marcada entre os aspectos físicos e estatísticos: os primeiros consistem na correta enumeração dos estados mecânicos do sistema e de suas propriedades, os segundos são um exemplo imediato de inferência estatística.

Diversos autores têm notado a possível conexão entre mecânica estatística e teoria de informação; porém é essencial notar que o mero fato de que a mesma expressão matemática aparece em ambas para a função chamada de entropia nas duas disciplinas, a saber:

(4)S=καϱαlnϱα,
onde ϱα é a probabilidade do evento α e κ um coeficiente de proporcionalidade, per se não estabelece nenhuma conexão entre elas.

Para detalhes sobre a construção da mecânica estatística preditiva referimos o leitor aos trabalhos de Jaynes [52[52] E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).55[55] H. Jeffreys, Scientific Inference (Cambridge Univ. Press, Cambridge, 3rd. Edition, 1973).,89[89] E.T. Jaynes, Maximum Entropy and Bayesian Methods, editado por J. Skilling (Kluwer Academic, Dordrecht, 1989).,90[90] E.T. Jaynes, Maximum Entropy and Bayesian Methods, editado por W. T. Grandy, L. H. Schick (Kluwer Academic, Dordrecht, 1991).], e que, como previamente notado, o enfoque está ligado à chamada escola Bayesiana (antigamente referida como subjetiva) de probabilidades, que considera as probabilidades como expressões de ignorância humana: a probabilidade de um evento é simplesmente a expressão formal da nossa expectativa de o evento ocorrer, baseados em qualquer que seja a informação disponível. O prêmio Nobel Philip Anderson sustenta, de fato, que o que parece mais apropriado em teoria das probabilidades para uso em ciência é o enfoque bayesiano [91[91] P.W. Anderson, Phys. Today 44(7), 9 (1991).].

A interpretação bayesiana em probabilidade é o grau de confiança que é consistente com manter que uma proposição seja correta de acordo com o fato de aceitar que outras proposições condicionantes sejam consideradas certas. O que o enfoque bayesiano faz é focalizar nossa atenção sobre a questão que queremos aplicar aos dados existentes. Ele diz, de fato: como estes dados afetam meu conhecimento prévio da situação? Isto é às vezes denominado princípio de pensamento de máxima probabilidade (maximum likelihood thinking), mas a essência é a de claramente identificar as respostas possíveis, distribuindo entre elas razoáveis probabilidades a priori e, a seguir, perguntar quais respostas resultam as mais prováveis em termos dos dados existentes [91[91] P.W. Anderson, Phys. Today 44(7), 9 (1991).].

Assim no esquema de Jeffreys-Laplace [55[55] H. Jeffreys, Scientific Inference (Cambridge Univ. Press, Cambridge, 3rd. Edition, 1973).,72[72] P.S. Laplace, Essay Philosophique sur les Probabilities (Bachelier, Paris, 1825).], tal como mantido por Edwin Jaynes [52[52] E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).54[54] E.T. Jaynes, in The Maximum Entropy Formalism, editado por M. Tribus, R.D. Levine (MIT Press, Cambridge, 1983).,89[89] E.T. Jaynes, Maximum Entropy and Bayesian Methods, editado por J. Skilling (Kluwer Academic, Dordrecht, 1989).,90[90] E.T. Jaynes, Maximum Entropy and Bayesian Methods, editado por W. T. Grandy, L. H. Schick (Kluwer Academic, Dordrecht, 1991).] e Philip Anderson [91[91] P.W. Anderson, Phys. Today 44(7), 9 (1991).], o mais apropriado enfoque probabilístico para as ciências é o Bayesiano. A interpretação Bayesiana, como já dito, mantém que a probabilidade é o grau de confiança que é consistente em esperar a ocorrência de um evento na base de que outras proposições condicionantes sejam dadas a priori. Ela é às vezes referida como teoria subjetivista (ou personalista pelo seu conteúdo antropomórfico), em oposição à teoria frequencista, dita objetivista. Esta última é a usualmente introduzida nos cursos, sendo a que mantém que a frequência (número de casos prováveis dividido pelo número de casos possíveis) de eventos repetitivos é o que deve estar em concordância com a teoria matemática referente à probabilidade de eventos aleatórios independentemente repetidos.

Obviamente há controvérsia entre ambas as escolas, a objetivista e a subjetivista, e também em relação ao uso da estatística em ciência. É conhecida a frase, “Há três tipos de mentiras: as mentiras piedosas, que são justificáveis, as mentiras comuns, que não são justificáveis, e a estatística”. (Ao que parece citada por Mark Twain como devida ao famoso estadista inglês Disraeli). Porém, à frase já mencionada previamente devida a Bronowski, pode ser acrescentada à devida a von Mises: “partindo de observações estatísticas e aplicando a elas um conceito claro e preciso de probabilidade, é possível chegar-se a conclusões que são tão fidedignas e “verdadeiras” e tão úteis na prática como aquelas obtidas em qualquer ciência exata”. Ciência é uma criação do intelecto humano, e assim o enfoque Bayesiano aparece como o mais apropriado já que a subjetividade do indivíduo (o observador) está sempre presente, e, como manifestado por Jaynes, não é satisfatório “procurar suprimir toda a menção à informação humana por ser “subjetiva”. Ora, a informação humana é tudo o que temos, e é bem melhor reconhecer este fato”.

De acordo com Anderson [91[91] P.W. Anderson, Phys. Today 44(7), 9 (1991).], “O que a teoria faz é focalizar nossa atenção sobre a questão que queremos perguntar aos dados: ela diz de fato, como estes dados afetam meu conhecimento prévio da situação? Isto é às vezes chamado de pensamento de máxima verosimilhança, mas a essência dele é o de claramente identificar as respostas possíveis, adjudicando razoáveis probabilidade a priori a elas e em continuação perguntar quais respostas têm sido feitas mais prováveis pelos dados”.

Resumindo, como manifestado por Jaynes, a teoria da probabilidade é uma ferramenta versátil, a qual pode servir a múltiplos propósitos. Pode esclarecer notáveis mistérios na física teórica ao elevar nossos padrões de lógica. Como James Clerk Maxwell escreveu há mais de cem anos e Harold Jeffreys apontou há mais de cinquenta anos, “teoria da probabilidade é a verdadeira lógica da física [...]”. Mistérios científicos são esclarecidos, e os paradoxos convertem-se em banalidades quando adotamos o ponto de vista de Jeffreys. Uma vez que se percebe a lógica da questão, resulta evidente que há muitos outros mistérios, em todas as ciências, requerendo o mesmo tratamento.

6. Outros aspectos

Até aqui temos nos concentrado no caso dos sistemas dinâmicos de muitos corpos nas ciências naturais (físicas, químicas, biológicas). Como já temos indicado o estudo dos aspectos macroscópicos destes sistemas requer ir além do esquema mecanicista-reducionista que predominou nessas ciências por um longo tempo. Citando a Prigogine:

Acreditar na “simplicidade” do nível microscópico pertence ao passado [...] Estou convencido de que estamos no meio de uma revolução científica [...] Um aspecto particular é que os organismos vivos são objetos longe do equilíbrio separados por instabilidades do mundo do equilíbrio, e que os organismos vivos são necessariamente objetos macroscópicos “amplos” requerendo um estado coerente da matéria para ser possível a vida perpetuar-se. Estas características gerais devem ser incorporadas ao tentar responder à questão: Qual é o significado de nossa descrição do mundo físico, isto é, de que ponto de vista devemos descrevê-lo? A resposta pode ser somente que começamos no nível macroscópico, e todos os resultados de nossas medidas, ainda aquelas do mundo microscópico, em algum ponto devem voltar a referir-se ao nível macroscópico.

Como procuramos até aqui mostrar, uma dose muito boa de progresso tem sido obtida no reino das ciências naturais. Isto é o resultado do contínuo crescimento – ao que já nos referimos – da termodinâmica irreversível dos processos não-lineares em sistemas fora (perto ou longe) do equilíbrio. A termodinâmica não-linear dos fenômenos dissipativos é um membro do que pode definir-se como uma “Trindade Sagrada” na física de nossa biosfera – que nos deu origem e nos mantêm! –, trindade completada pela mecânica e eletrodinâmica. A conexão das três é feita, como sabido, pela física estatística.

Porém tal situação nas ciências naturais, satisfatória e continuamente desenvolvida, está aparentemente apenas começando nas ciências sociais. Com base no NESEF, mencionado na seção 3, foi desenvolvida uma teoria estocástica aplicável ao problema de formação de opinião em grupos sociais em interação. Por “brincadeira”, a teoria foi aplicada ao estudo da eleição presidencial de 1994 no Brasil [91[91] P.W. Anderson, Phys. Today 44(7), 9 (1991).].

No livro The Fifth Miracle: The Search for the Origin and Meaning of Life, por Paul Davies (Simon and Schuster, New York, 1999), os Capítulos segundo e décimo se ligam com o tema aqui tratado.

Paul Davies refere-se basicamente ao caso da biogênese, que, mantém, não é simplesmente mais um problema na longa lista dos projetos científicos que devem ser realizados. Como a origem do Universo e a origem da consciência representam um todo e testam os próprios fundamentos da ciência e nossa visão do mundo.

Assim, de acordo com Davies, obviamente, a vida é um fenômeno químico, mas sua distinção está não na própria química. O segredo da vida vem de suas propriedades informacionais; um organismo vivo é um sistema complexo processador de informação. Seguindo ainda as idéias de Davies, complexidade e informação podem ser melhor entendidas dentro do contexto da termodinâmica, um ramo da ciência que liga física, química, probabilidades e computação. Assim, temos aqui a conexão com as idéias de Ilya Prigogine de que a termodinâmica irreversível de sistemas abertos pode proporcionar o entendimento das bases da vida e da evolução [5[5] I. Prigogine, I. Stengers, Order out of Chaos: Man's new Dialogue with Nature (Bantam, New York, 1984).,27[27] I. Prigogine, in From Theoretical Physics to Biology, editado por M. Marois (North Holland, Amsterdam, 1969).,28[28] I. Prigogine, From Being to Becoming: Time and Complexity in the Physical Systems (Freeman, San Francisco, 1982).,31[31] A. Babloyantz, Molecules, Dynamics, and Life(Wiley-Interscience, New York, 1986).,48[48] I. Prigogine, G. Nicolis, A. Babloyantz, Phy. Today 25(12), 38 (1972).]. E também que “A questão fundamental que paira é o problema último da biogênese, qual seja, de onde a informação biológica provém. Por mais notável que tenham sido as reações ocorrendo na terra ou em algum outro planeta, a vida foi disparada não por um mecanismo molecular como tal, mas – de algum modo! – pela organização de informação. Dessa forma, a chave para biogênese radica não apenas na química, mas também na formação de uma arquitetura lógica e informacional, seguindo-se o passo crucial envolvendo a criação de um sistema processador de informação, empregando algo como um “software” de controle (um passo possivelmente muito associado com o surgimento do código genético). O desfecho é que os organismos biológicos estão de acordo com a segunda lei da termodinâmica, sendo sistemas abertos, e enquanto o meio ambiente possa proporcionar-lhes uma provisão de energia livre, os sistemas biológicos estarão alegremente reduzindo sua entropia e incrementando a ordem enquanto, sem remorso, contribuem para o aumento da entropia do Universo como um todo”. Esta resolução do paradoxo do aumento da desordem, governado pela segunda lei da termodinâmica, já fora identificada por um dos fundadores da teoria da termodinâmica (no enfoque mecânico-estatístico) que foi o genial Ludwig Boltzmann:

Assim, a luta pela vida não é uma por material básico ... nem por energia ... mas por entropia resultando disponível na transição (de energia) do sol quente à terra fria.

(L. Boltzmann, em Populare Schriften, p. 26, Leipzig, 1905).

Como enunciado por Davies, se tem ainda de demonstrar como o intercâmbio de entropia com o meio ambiente pode reproduzir o tipo específico de ordem representado pelos organismos biológicos. Simplesmente especificar a fonte de energia útil não oferece, per se, uma explicação de como acontece o processo de ordem. Para fazer isto, precisaríamos identificar o mecanismo que acopla o reservatório de energia disponível com os processos biológicos relevantes. Passar por cima desta parte do problema é algo assim como proclamar que está explicado o funcionamento de uma geladeira uma vez que achamos a tomada.

Então, embora em sistemas isolados a entropia sendo máxima indica o estado de equilíbrio, e assim de estabilidade, os estados de desequilíbrio dos sistemas biológicos abertos são constantemente instáveis (ou melhor, em contínua atividade de modificação espacial e temporal). Podemos, então, dizer que os sistemas biológicos levantam barreiras para prevenir a ação “deletéria” da segunda lei, i.e., que esta última não consiga seus objetivos nefastos.

Isto seria o resultado da complexidade do sistema que o torna um processador de informação. Porém, de onde a informação biológica vem?

Ainda, dentro dos argumentos de Davies, boas idéias poderiam ser obtidas da teoria matemática da comunicação de Claude Shannon [70[70] C.E. Shannon, N. Weaver, The Mathematical Theory of Communication (Univ. Illinois Press, Urbana, 1949).,71[71] L. Brillouin, Science and Information Theory(Academy, New York, 1962).]. Como já mencionamos, a teoria de Shannon baseia-se em uma ligação direta entre informação e entropia de informação. A grande perspicácia de Shannon foi relacionar ruído com desordem, enquanto, por contraste, um sinal representa ordem. Este novo ponto de vista da entropia pode ser aplicado de forma completamente geral aos sistemas físicos. Então, a segunda lei pode ser pensada como consistindo ou no aumento de entropia, ou alternativamente como no decínio do conteúdo de informação do sistema.

Certo cuidado deve ser tomado neste ponto, e a razão é o fato de que muitas vezes se usa a palavra entropia com certa liberalidade. Reforçamos aqui que entropia é um conceito básico muito bem definido – após Clausius no Século XIX – somente no caso de equilíbrio. Além disto, e também de acordo com Clausius, o aumento de entropia dá-se entre dois estados de equilíbrio: dado um sistema isolado em equilíbrio, removido algum vínculo que fixe esse equilíbrio, após certo tempo se atinge outro estado de equilíbrio, com a diferença de entropia entre o estado final e o estado inicial sendo positiva, i.e. tendo aumentado. Em equilíbrio, e estritamente em equilíbrio, é que a entropia informacional de Jaynes-Shannon (vide seção 3) coincide com a entropia de Gibbs, e as mudanças desta entre estados de equilíbrio coincide com a mudança da entropia termodinâmica como originalmente definida por Clausius (e também coincide com a entropia de Boltzmann).

No caso de sistemas abertos fora do equilíbrio não se pode falar de forma clara e definitiva de uma função de estado dita entropia termodinâmica (i.e. no sentido de Clausius). Nisto acompanhamos as idéias de Meixner [93[93] J. Meixner, Irreversible Aspects of Continuum Mechanics, editado por H. Parkus, L.I. Sedov (Springer, Wien, 1968); J. Meixner, Rheol. Acta 12, 465 (1973).], Bricmont [94[94] J. Bricmont, The Flight from Science and Reason, editado por P.G. Gross, N. Levitt, M.W. Lewis (NYAS, New York, 1996), v. 775.], Balian [95[95] R. Balian, Y. Alhassid, H. Reinhardt, Phys. Rep. 131, 1 (1986); R. Balian, Incomplete descriptions and relevant entropies, http://xxx.laln.gov,cond-mat/9907015 (1 July 1999).
http://xxx.laln.gov,cond-mat/9907015...
] e outros: o problema fundamental é que fora do equilíbrio não se tem – diferentemente do equilíbrio – um espaço termodinâmico de estados que possa ser considerado como completo (a menos de casos particulares e do uso de aproximações). Jaynes tem corretamente dito que ele não sabe qual é a entropia de um gato; o problema é precisamente que não existe um conjunto bem definido de macrovariáveis que caracterize o que é o estado termodinâmico de não-equilíbrio de um gato.

Como diz Bricmont [94[94] J. Bricmont, The Flight from Science and Reason, editado por P.G. Gross, N. Levitt, M.W. Lewis (NYAS, New York, 1996), v. 775.], existe certa mística em relação à entropia. Esse autor também menciona o famoso gracejo de von Neumann, que sugeriu a Shannon o uso da palavra “entropia” para sua expressão da incerteza de informação [cf. Eq (4)], no sentido de que “dará a você uma grande vantagem nos debates, pois ninguém sabe realmente o que é entropia”.

Claro que pode ser perguntado (como Meixner e Bricmont mais ou menos têm mantido) o porquê devemos preocupar-nos com a “entropia” de estados fora do equilíbrio. Uma distinção dever ser feita entre dois aspectos da irreversibilidade: um é que os sistemas isolados vão para estados de equilíbrio e que a entropia entre estados de equilíbrio satisfaz uma desigualdade. Ambos aspectos estão relacionados, claro, e podem ser eventualmente explicados por idéias similares. Porém isto não implica que para dar conta do comportamento irreversível das variáveis macroscópicas, devamos introduzir uma função entropia que evolua monotonicamente no tempo. Pode ser útil ou interessante fazê-lo, mas não é um requerimento absoluto. Tudo o que realmente precisamos é ter a entropia para os estados de equilíbrio, o que é bem conhecido e dominado. Para evidenciar como se dá a evolução (no tempo) do estado macroscópico do sistema entre estados de equilíbrio tudo o que precisamos é uma teoria cinética apropriada dos processos dissipativos.

Assim, cuidado deve ser exercido em deixar claro, quando utilizada, o que queremos dizer com a palavra entropia. Como escrito por George Gamow e citado por Bricmont [94[94] J. Bricmont, The Flight from Science and Reason, editado por P.G. Gross, N. Levitt, M.W. Lewis (NYAS, New York, 1996), v. 775.]

Holy Entropy! It’s boiling!

Quando falamos em entropia, ela deve ser acompanhada por um nome, v.g. entropia de Clausius; entropia de Gibbs; entropia de Boltzmann; entropia de Boltzmann para gases diluídos; entropia de equilíbrio local; entropia de informação (ou de Jaynes-Shannon); entropia de Kolmogorov-Sinai; entropia de Külback; etc., etc., etc.

Dentre elas, como já comentamos previamente, tem relevância a entropia informacional, i.e., ligada à teoria da informação à la Shannon (no enfoque de E.T. Jaynes) na criação de um formalismo de ensembles de não-equilíbrio (mecânica estatística preditiva) e os fundamentos de uma termodinâmica dos processos dissipativos (termodinâmica estatística informacional).

Informação e entropia de informação vêm evidentemente ganhando relevância em ciência, e assim comentamos que Hans Christian von Baeyer (em Maxwell’s Demon: Why Warmth Disperses and Time Passes, Random House, New York, 1998) tem manifestado incessantemente que “Informação” é um conceito mais nebuloso e subjetivo do que energia, e assim sua introdução na física faz contato com a ciência da computação e a ciência cognitiva – cuja meta é nada menos que entender o pensamento humano – o conceito de informação certamente ganhará espaço. Temos a assombrosa proposta de que informação não é exatamente uma construção abstrata, impalpável, subjetiva da mente, porém uma mercadoria física e real com o mesmo status de trabalho, calor e energia.

Esta noção é um afastamento radical do pensamento convencional (relembremos a frase de E.T. Jaynes de que ciência é informação apropriadamente organizada), e sem dúvida virá a reverberar proximamente em todas as especulações sobre os fundamentos da Física. À primeira vista, parece tão paradoxal como a conexão que Einstein fez entre energia e inércia. Depois de tudo, informação é desejável, útil e valiosa, enquanto que entropia denota o oposto – desordem, dissipação e desgaste –, em seu papel na Termodinâmica. Mas a contradição seria só aparente, sendo, em princípio, resolvido pela adição de um qualificativo: a entropia de Boltzmann seria considerada, por sua vez, como “informação perdida”. Então, a fórmula de Boltzmann mede não somente desordem como usualmente aceito, mas também informação perdida. A perda é da quantidade de informação levada pela mensagem, na formulação de Boltzmann o conjunto de estados mecânicos microscópicos compatíveis com os vínculos macroscópicos que caracterizam o estado termodinâmico do sistema.

As idéias de Shannon têm aplicações óbvias aos organismos biológicos, porque informação é uma de suas propriedades definidoras. O dna armazena a informação necessária para construir e operar o organismo. Um aspecto do mistério da ordem biológica pode consequentemente ser expresso pela questão já mencionada anteriormente, de onde é que a informação biológica provêm? A solução do problema poderia mais uma vez ser achada no fato de que um organismo não é um sistema fechado. O conteúdo de informação de uma célula viva pode surgir se a informação no meio circundante cai. Outra forma de expressar isto é de que informação flui do meio ambiente para o organismo. Isto seria o que essencialmente queria significar Schrödinger ao afirmar que um organismo “ganha a vida bebendo ordem”. A vida evita o decaimento via a segunda lei importando informação de suas vizinhanças.

Acompanhando Davies, ambos, metabolismo e reprodução são impelidos pelo fluxo de informação do meio ambiente para o sistema. O calor corporal é energia desperdiçada, pobre em informação, como uma linha telefônica que somente fica silvando. Assim, a segunda lei exige seu tributo, mas o organismo, não obstante, cresce concentrando em si mesmo informação e exportando entropia. No caso da reprodução, o conteúdo informacional do dna muda lentamente – ao longo de muitas gerações – como resultado de mutações aleatórias. Mutações são o equivalente biológico do ruído na linha telefônica: O “sinal” é o dna recém-cunhado. Mutações de sucesso são aquelas que melhor se adaptam ao meio circundante (o nicho ecológico), e é este meio que proporciona – ou, mais apropriadamente, seleciona – a informação, que se acumula no dna. Assim, o meio ambiente alimenta a informação na mensagem genética via seleção natural.

Pode parecer estranho fazer da seleção o mesmo que introduzir informação, mas em seu sentido mais amplo informação é precisamente fazer exclusão de possibilidades. Se um sistema físico tem somente um estado possível, nada aprendemos se o inspecionarmos. Quanto mais possibilidades se tem, mais poderemos aprender pela descoberta de seu estado real. A seleção natural elimina os organismos inaptos e assim seleciona somente certos genomas dentre o maior conjunto possível. Todas as outras possibilidades são excluídas. Isto é o que implica adicionar informação no genoma.

Como dito, erros na transmissão da informação são como ruído, ou aumento de entropia de informação, em um canal de comunicação. O ruído causa perda de informação – no caso, informação genética. Esta degradação da mensagem genética é enfrentada pela seleção natural, a qual serve como fonte de informação. Se o meio ambiente não pode repor no genoma, via seleção natural, tanta informação quanto a que foi perdida, os erros eventualmente se acumulam até o ponto em que inabilitam o próprio processo de replicação, e a reprodução cessa. Este estado desastroso de coisas, que é outro exemplo da segunda lei da termodinâmica em ação, foi denominado pelo bioquímico alemão Manfred Eigen como a “catástrofe dos erros”.

Tomemos cuidado com o uso do termo informação. Na ciência da computação se faz distinção entre os aspectos sintáticos e semânticos. Informação sintática é simplesmente o dado bruto, talvez arranjado de acordo com as regras de algum tipo de gramática, enquanto que informação semântica tem certo conteúdo de contexto ou significado, em algum sentido a ser especificado em cada caso.

Sempre acompanhando Davies, para poder explicar os sistemas vivos, não é suficiente simplesmente identificar a fonte de energia – já nos referimos a isto e demos o exemplo da geladeira e a tomada – para proporcionar informação biológica. Devemos entender como a informação semântica aparece. É esta qualidade da informação, e não a mera existência de informação, que é o real mistério.

Mais uma vez lembremos que a fonte de informação semântica pode somente vir do meio envolvendo o organismo, mas fica aberta a questão de como isto se produz. Enfrentamos então a questão fundamental: como surge este conteúdo de informação? Evidentemente que não apenas das leis da mecânica microscópica que operam entre átomos e moléculas que são simples e gerais. Não podemos esperar que somente elas (em um enfoque puramente microscópico e determinístico) nos levem a algo que seja altamente complexo e altamente específico. Estas leis simplesmente transformam dados de entrada em dados de saída. Elas podem embaralhar informação, mas não podem criá-la. As leis da física microscópica, que determinam o comportamento de átomos e moléculas, são algoritmicamente muito simples, pelo que se considera que contêm relativamente muito pouca informação. O que devemos é sair da moldura da física microscópica – dinamicista, reducionista e determinista – para o da física macroscópica, onde, de alguma forma, biogênese, evolução, etc., sejam o resultado de uma descrição em termos de macroconceitos apropriados como na proposta de Herbert Fröhlich [32[32] H. Fröhlich, Riv. Nuovo Cimento 3, 490 (1973).].

Certamente que os organismos devem obedecer as leis microscópicas da física e da química, mas estas leis são apenas incidentais na biologia. Seu papel principal é o de permitir que um apropriado sistema lógico e informacional se forme (em escala macroscópica). Enquanto as reações químicas são fáceis e favorecidas termodinamicamente, a vida alegremente as usa, mas se a vida precisa realizar uma química que não é “natural”, encontra uma saída: o segredo da vida radica não apenas em suas bases químicas, mas, em um contexto macroscópico, nas regras lógicas e informacionais que explora. A vida tem sucesso porque foge dos imperativos químicos.

Esse posicionamento de Davies, segundo nossa interpretação, requer certa explicação em relação ao tratado nas seções anteriores, e a possível conexão com Ilya Prigogine que faremos mais adiante.

Primeiro, devemos entender que quando Davies diz que as leis físicas como conhecidas, per se nunca podem explicar a vida e sua evolução, deve ficar claro que se refere às leis deterministas e reversíveis no tempo da mecânica microscópica. Como ele diz, ela proporciona o pano de fundo sobre o qual haverá de construir-se o sistema que a nível macroscópico tenha as características lógico-informacionais que permitam o comportamento complexo que dá lugar à vida e a sua evolução. Já nos referimos a esta questão em física na seção 2; retomemos o ponto.

Após a revolução científica iniciada no Século XVII [11[11] F. Bacon, Lord Verulam, The Great Ideas Today(Encyclopaedia Britannica, Chicago, 1981).], o desenvolvimento da física, sabemos, foi notável. Atualmente foi levantada a pergunda se ela estaria no fim [8[8] J. Horgan, The End of Science (Addison-Wesley, Reading, 1996).,96[96] R. Luzzi, Está a Física chegando ao Fim?, Notas de Física ifgw (Unicamp, Campinas, SP, 1995), v. 9.], uma pergunta recorrente através da história desta ciência, começando após a grandiosa construção mecânica de Newton até os nossos dias com a procura do “Santo Cálice” de uma “teoria de todas as coisas”. Algo errado, já que se refere somente e tão-somente aos aspectos mecânicos microscópicos. Dentre outros, e há muito tempo, Heisenberg [97[97] W. Heisenberg, Across the Frontiers, editado por R. N. Anshen (Harper, New York, 1975).] apresenta uma posição contrária ao argumento do fim da Física. Seu argumento é que a característica primordial do próximo desenvolvimento da ciência consistirá certamente em sua unificação, com a conquista das fronteiras que têm crescido historicamente entre as diferentes disciplinas individuais. Assim, estaríamos na direção de uma volta à posição aristotélica de unificação das ciências em uma única filosofia natural. Também ele manifesta que com o tempo resultará difícil, talvez, decidir se um avanço no conhecimento representa um passo a frente em física, ou em teoria de informação, ou em filosofia; se a física se expande na biologia ou se a biologia emprega métodos físicos em cada vez maior extensão. Outros enfoques do assunto podem ser vistos nos livros de J. Golinski [98[98] J. Golinski, Making Natural Knowledge (Cambridge Univ. Press, Cambridge, 1998).] e E.O. Wilson [99[99] E.O. Wilsom, Consilience: The Unity of Knowledge(Knopf, New York, 1998).].

Outros autores renomados como Freeman Dyson [100[100] F. Dyson, Phys. Today 23(9), 23 (1970).], Vitaly Ginzburg [101[101] V. Ginzburg, Key Problems in Physics and Astrophysics (Mir, Moscow, 1976).] e Herbert Fröhlich [32[32] H. Fröhlich, Riv. Nuovo Cimento 3, 490 (1973).], têm-se manifestado e, especificamente, chamado a atenção para a diferenciação entre microfísica (física de altas energias governada por leis microscópicas deterministas) e macrofísica (física dos sistemas inanimados – físicos, químicos, dispositivos tecnológicos, etc. –, e animados, biológicos essencialmente, e governada por considerações estatísticas). A conexão entre as duas estaria dada pela introdução de macroconceitos, ou seja, de características próprias dos sistemas além da microfísica. Este é, em nosso entender, o ponto em Davies (e também em Prigogine e outros). Stuart Kauffman tem também ido em uma direção com certas semelhanças; de acordo com ele, a vida é uma esperada propriedade coletiva de sistemas complexos, uma tendência na direção de certos estados complexos que são favoráveis à emergência e à evolução da vida [102[102] S. Kaufmann, At home in the Universe: The Search for the Laws of Self-Organization and Complexity (Oxford Univ. Press, New York, 1995).].

Resumindo, o aspecto lógico-informacional anteriormente notado seria um macroconceito no sentido de Fröhlich, no nível de descrição macroscópica do sistema, e aqui encontramos claramente a conexão com os três capítulos básicos sobre complexidade, auto-organização e informação.

Este contato é precisamente com a questão de que: (1) comportamento complexo apenas pode ocorrer em sistemas governados por uma dinâmica (evolução no tempo das macrovariáveis que o caracterizam) não-linear; (2) o sistema tem de ser aberto e estar em contato com o meio ambiente; (3) este último tem de proporcionar “alimentação” ao sistema, da qual o sistema “processará” informação; (4) este processamento de informação dar-se-á por mecanismos de autocatálise (ou retro-alimentação positiva) “emergente” das contribuições não-lineares na dinâmica da evolução do estado macroscópico; (5) desta forma temos o sistema processador de informação de Davies. Finalmente, para sistemas físico-químicos (incluindo os biológicos) aparece como conveniente o tratamento da termodinâmica e mecânica estatísticas com fundamentos na teoria da informação, a que nos referimos na seção 3.

Uma excelente ilustração de tudo o que foi dito é o caso da assim chamada condensação de Fröhlich-Bose-Einstein em biopolímeros (e também polímeros) [103[103] H. Fröhlich, Nature 228, 1093 (1970); H. Fröhlich, Int. J. Quantum Chem. 2, 641 (1968); H. Fröhlich, Adv. Electron. El. Phys. 17, 85 (1980).106[106] S. Mascarenhas, Electrets, editado por G.M. Sessler (Springer, Berlin, 1987).]. A questão foi tratada no arcabouço do NESEF, como descrito nas Ref. [30[30] M.V. Mesquita, A.R. Vasconcellos, R. Luzzi, Phys. Rev. E 48, 4049 (1993).], e cuja termodinâmica estatística informacional é apresentada na Ref. [104[104] A.F. Fonseca, M.V. Mesquita, A.R. Vasconcellos, R. Luzzi, J. Chem. Phys. 112(9), 3967 (2000).].

7. Breve sumário e considerações finais

Que dios detrás de Dios la trama empieza

De polvo y tiempo y sueño y agonía?

Jorge Luis Borges (1899–1986) El Hacedor (Emece, Buenos Aires, 1960)

Dedicamos as quatro seções prévias à, como já dito, “Trilogia: Complexidade/Auto-organização/Informação”, que tem sido objeto dos estudos dos Seminários pluridisciplinares organizados por Michel Debrun no Centro de Lógica e Epistemologia da Unicamp.

Na seção 1 apresentamos alguns comentários gerais sobre o emergente paradigma da teoria da complexidade, assim como referimos o leitor a certas manifestações de diversos autores, incluindo algumas críticas. Certa atenção foi focalizada no fato de que esta teoria da complexidade depende fundamentalmente na não linearidade das leis cinéticas que governam o comportamento dos sistemas naturais. Esta não-linearidade tem um papel relevante no comportamento de sistemas abertos em condições suficientemente longe do equilíbrio, o que pode levar à formação de estruturas dissipativas (na terminologia de Prigogine) auto-organizadas e ordenadas ao nível macroscópico.

Aqui se faz conexão com a seção 2, ou seja a questão da auto-organização em sistemas dinâmicos. No caso das ciências naturais, esta questão das estruturas dissipativas pertence ao domínio da termodinâmica, quando a termodinâmica dos processos irreversíveis longe do equilíbrio tem levado à descoberta de que os fluxos passando através de certos sistemas físico-químicos, deslocando a estes do equilíbrio, podem dar lugar aos fenômenos de auto-organização espontânea, quebra de simetria, e uma crescente tendência para a complexidade e diversidade, com todas as consequentes possibilidades de que tal comportamento possa proporcionar em, a mais dos sistemas físico-químicos, todos os sistemas dinâmicos como os biológicos assim como os sociais. Dissipação, contrário ao que antigamente se pensava, não é uma fonte de decaimento porém, e deve ser enfatizado, tem um papel construtivo com talvez incluindo a emergência da vida, a evolução na natureza, e o incrível funcionamento dos sistemas vivos.

Por estas razões tem sido manifestado que “... nossa visão da Natureza está sofrendo uma mudança para o múltiplo, o temporal, e o complexo. Curiosamente, a esperada complexidade que tem sido descoberta na Natureza não tem levado para um retardo no progresso da ciência mas, pelo contrário, para a emergência de novas estruturas conceituais que hoje parecem ser essenciais para o nosso entendimento do mundo físico – o mundo que nos inclui [...] Na verdade hoje estamos começando a ir além do [...] mundo da quantidade para o mundo das qualidades e assim do devenir [...] Acreditamos que é precisamente esta transição para uma nova descrição que faz tão excitante este momento na história da ciência. Quiçá não seja um exagero dizer que uma nova visão da Natureza está nascendo” [28[28] I. Prigogine, From Being to Becoming: Time and Complexity in the Physical Systems (Freeman, San Francisco, 1982).].

O aspecto da coerência nas estruturas dissipativas é notável. O sistema se comporta como um todo: é estruturado como se cada componente fosse “informada” sobre o estado completo do sistema. O mecanismo geral que é capaz de produzir uma quebra de simetria (a nova estrutura ordenada) está conectado com propriedades de transporte e/ou reações químicas. Um novo conceito de organização se requer para conectar os vários níveis de descrição e dar conta das relações entre o todo e as partes. É interessante notar que as estruturas nos sistemas complexos emergindo nos pontos de bifurcação (onde as flutuações jogam um papel fundamental) parece ter sido previsto pelo genial James Clerk Maxwell, há mais de um século, quem apontou que

Toda a existência acima de certo nível tem seus pontos singulares. Nestes pontos a influência de efeitos cuja magnitude física é muito pequena para ser levada em conta por um corpo finito pode vir a produzir resultados da maior relevância.

Também, em conexão com o comportamento sinergético das estruturas dissipativas, é interessante mencionar a afirmação de Volkenstein de que “Darwin desenvolveu os princípios da sinergética no caso da natureza vivente bem antes da sua formulação geral [...] Pela primeira vez na história das ciências naturais os mecanismos para a formação de um processo direto ordenado – a evolução biológica – em um sistemas com propriedades randômicas foi estabelecido” [107[107] M.V. Volkenstein, Phys. Uspekhi 16, 207 (1974).].

Como notado, o assim chamado ramo de soluções termodinâmicas das equações de evolução de um sistema macroscópico aberto – ou seja o que se desenvolve continuamente a partir do equilíbrio sob a ação de crescentes valores da intensidade dos vínculos externos – é estável, de acordo com o teorema de Prigogine de mínima produção de entropia, de equilíbrio local, até que o sistema é levado a um certo afastamento do equilíbrio. Então, eventualmente, pode-se atingir um ponto crítico, quando acontece uma bifurcação de soluções, e o ramo termodinâmico resulta instável perante a formação de uma estrutura ordenada (em algum sentido). No ponto de bifurcação uma particular flutuação (aquela associada com o grau de ordem que haverá de seguir), a qual regrediria enquanto o ramo termodinâmico é estável, agora se incrementa levando ao ordenamento do sistema em uma escala macroscópica. Consequentemente chance e necessidade mantêm um delicado jogo entre eles no caso de auto-organização: perto da bifurcação as flutuações (um elemento de chance) teriam papel fundamental, enquanto que entre bifurcações os aspectos determinísticos da evolução temporal (um elemento de necessidade) resultaria dominante. Desde o ponto de vista dos sistemas biológicos isto parece estabelecer um abrupto contraste entre os argumentos de Monod [108[108] J. Monod, Le Hasard et la Necessité (Seuil, Paris, 1970).] e Prigogine [28[28] I. Prigogine, From Being to Becoming: Time and Complexity in the Physical Systems (Freeman, San Francisco, 1982).]. Para Monod não há teoria de organização, com os seres viventes simplesmente carregando um programa que tem sido plenamente escrito e sobre cujas origens não é possível formular hipóteses que possam estar sujeitas à teorização científica. Na perspectiva de Prigogine os sistemas vivos não constituem mecanismos rigidamente conservativos, mas pelo contrário contêm neles a potencialidade e o estímulo para evoluir, e de fato, em um certo sentido não podem evitar evoluir para subsistir. Poderia ser dito que o enfoque de Prigogine concilia as facções guerreiras na controvérsia reducionistas versusvitalistas nas ciências biológicas, proporcionando um esquema generalizado e abrangente.

A apresentação centrou-se basicamente na questão da auto-organização em sistemas naturais (físicos, químicos, biológicos), e descreveu-se um enfoque teórico associado ligado à teoria da informação e à inferência científica (mecânica estatística preditiva, aquela tratada na seção 3). Mas além disso, é mister reforçar, tal visualização aparece como um relevante e promissor caminho, alternativo porém complementar, a ser considerado nas ciências socioculturais (como História, Economia, Psicologia etc.). Desta forma se traz a tona a função do método científico neste contexto.

Este último está baseado nas colunas Observação/Medida/Síntese. Esta última, por sua vez, é poderosa e tem sido tremendamente sucedida: É suficiente dar um exemplo de enorme relevância, que é a grandiosa e consistente síntese da teoria eletromagnética feita por James Clerk Maxwell no Século XIX, a partir das leis individuais da eletricidade e do magnetismo (previamente formuladas por Ampère, Faraday, Biot & Savart, entre outros). É totalmente desnecessário insistir nas subsequentes brilhantes e fundamentais consequências para o progresso da ciência e tecnologia que, para o beneficio da sociedade, advierem desta síntese. As ciências naturais avançam pela incorporação de teorias prévias, que são justificadas por experimentos, em um arcabouço maior e mais abrangente.

Assim, a globalização de ideias em arcabouço abrangente, procurando leis mais gerais que totalizem e sinergizem setores parciais, tem tido papel fundamental no desenvolvimento humano. Também, vale a pena citar Henri Atlan [58[58] H. Atlan, Entre o Cristal e a Fumaça (Zahar, Rio de Janeiro, 1992).]:

Se realmente existem questões eternas, e se, provavelmente, já se disse tudo a respeito delas, a maneira de dizer é o mais importante, e a renovação dos termos de um problema equivale, na verdade, à renovação do próprio problema.

Retornando à questão de uma aplicação mais abrangente do método científico, é desnecessário noticiar seu incrível êxito – evidente para todos – iniciado após sua entrada em cena no Século XVII, deslocando a melancolicamente estagnada Escolástica da Baixa Idade Média. Costuma-se indicar o começo da Idade Moderna com a queda de Constantinopla: melhor seria no Século XVII, com a emergência do método científico, por exemplo na data de publicação por Sir Francis Bacon da sua obra Novum Organum (em 1620), parte de sua inacabada Instauratio Magna (Grande Instauração), ou na publicação por Galileo Galilei do Discorsi intorno a Due Nove Scienze (Discurso sobre Duas Novas Ciências, imprensa em Leiden em 1638), ou, se preferir-se uma data precisa, em 28 de abril de 1686, quando Isaac Newton apresentou sua grandiosa Philosophiæ Naturalis Principia Mathematica (Princípios Matemáticos da Filosofia Natural) em sessão da Royal Society. É interessante citar Sir Francis Bacon [11[11] F. Bacon, Lord Verulam, The Great Ideas Today(Encyclopaedia Britannica, Chicago, 1981).]:

Ademais, o fim e a meta da ciência foram mal postos pelos homens. Mas, ainda que bem postos, a via escolhida é errônea e impérvia. E é de causar estupefação, a quem quer que de ânimo avisado considere a matéria, verificar que nenhum mortal se tenha cuidado ou tentado a peito traçar e estender ao intelecto humano uma via, a partir dos sentidos e da experiência bem fundada, mas que, ao invés, se tenha tudo abandonado ou às trevas da tradição, ou ao vórtice e torvelinho dos argumentos, ou, ainda, às flutuações e desvios do acaso e de uma experiência vaga e desregrada.

[...] Mas a verdadeira ordem da experiência, ao contrário, começa por, primeiro, acender o archote, depois, com o archote mostrar o caminho, começando por uma experiência ordenada e medida – nunca vaga e errática –, dela deduzindo os axiomas e, dos axiomas, enfim, estabelecendo novos experimentos.

Retornando à questão da auto-organização, lembremos que um dos pioneiros na sua síntese, no arcabouço da termodinâmica irreversível dos sistemas abertos, seguido por tentativas de conexão com as ciências biológicas e também as sociais, foi Ilya Prigogine, o que valeu-lhe o prêmio Nobel em 1977. Por sua vez, como já foi dito em seção anterior, a auto-organização parece poder eventualmente ser integrada em uma síntese ainda maior, constituindo a teoria da complexidade. Esta tentativa de novo paradigma [3[3] P.W. Anderson, Science 177, 393 (1972).] teve por “pioneiros”, dentre outros, os ganhadores de prêmio Nobel Philip Anderson e Murray Gell-Mann, que com uma série de associados desenvolvem o tema junto ao Instituto Santa Fé, Novo México, USA [109[109] M.D. Lemonick, Life, the Universe, and Everything, Time Magazine, February 1993, pp. 40–41.,110[110] D. Stein, Phys. Today 45, 83 (1992).]. Novamente, temos a tentativa de uma síntese ainda mais abrangente para cobrir a extensa área dos sistemas dinâmicos macroscópicos, tendo em vista, evidentemente, as futuras possibilidades da sua utilização para o progresso da humanidade. Já nos referimos ao assunto em seção anterior (ver também Refs. [7[7] M. Gell-Mann, Complexity 1(1), 16 (1996).,111[111] H. Morowitz, Complexity 1(1), 4 (1995).]).

Referente à síntese na área de auto-organização, notemos, como fizemos nas seções anteriores, que uma variedade da teoria da informação parece proporcionar uma poderosa ferramenta teórica para o tratamento do tema. E isto parece estender-se além das ciências naturais. Neste ponto fazemos uma ligação de questões científicas fundamentais, no sentido de que o assunto requer para adquirir formas definidas, uma formalização. Esta, por regra geral, requer dois níveis: um nível sintático (ou lógico-matemático), envolvendo um conjunto finito de símbolos (um “alfabeto”), um conjunto de regras para combinar estes símbolos em fórmulas, e um conjunto finito de regras de produção para ter cadeias de fórmulas, ao longo de um processo consistente, para produzir novos resultados; e um nível semântico, envolvendo uma linguagem que atribua significados e organize as idéias. Finalmente, pela força do método científico, deve-se procurar pela técnica observacional-experimental a verificação, validação e confirmação das construções teóricas, examinando até que ponto uma construção teórica é aceitável para representar – ou na expressão de Karl Popper, “falsificar” – a “realidade dos acontecimentos”, ou, nas palavras de Werner Heisenberg [13[13] W. Heisenberg, Physics and Philosophy: The Revolution in Modern Science (Harper and Row, New York 1958); Across the Frontiers (Harper and Row, New York, 1974).], definir a noção de “teoria fechada” na ciência moderna.

Concentremo-nos no nível sintático. No caso de sistemas dinâmicos, em particular nas ciências naturais, o estudo de aspectos macroscópicos destes sistema requer que se vá além do esquema mecanicista-reducionista que prevaleceu nestas ciências por um longo tempo. Podemos voltar a citar Ilya Prigogine [28[28] I. Prigogine, From Being to Becoming: Time and Complexity in the Physical Systems (Freeman, San Francisco, 1982).]:

A crença na “simplicidade” do nível macroscópico pertence agora ao passado [...] Estou convencido de que estamos em meio a uma revolução científica.

Uma boa dose de progresso nessa direção vem-se conseguindo nas ciências naturais. Isto é principalmente o resultado do crescente desenvolvimento da termodinâmica de não-equilíbrio dos processos irreversíveis não-lineares, um membro, como já comentamos, da “Sagrada Trindade” no estudo da física da biosfera, que se completa com a mecânica e a eletrodinâmica. A conexão das três é estabelecida pela física estatística, que, como o nome já indica, introduz o conceito de probabilidades, fundamental para tratar de sistemas macroscópicos. Jacob Bronowski [73[73] L. Bronowski, The Common Sense in Science (Harvard Univ. Press, Cambridge, 1978).] manifestou que:

[ ... O uso do método probabilístico] é o pensamento revolucionário da ciência moderna. Substitui o conceito de efeito inevitável pelo de tendência provável.

[ ... ] O futuro não existe já: só pode ser previsto.

O prêmio Nobel Richard Feynman [85[85] R. Feynman, The Character of Physical Law (MIT Press, Cambridge, 1965).] teceu o seguinte comentário sobre a questão:

Não é nossa ignorância acerca dos mecanismos internos, ou das complicações internas, que faz com que a Natureza pareça ter uma probabilidade. Tudo indica que é qualquer coisa de intrínseco. Alguém expressou esse fato do seguinte modo: “A própria natureza nem sequer sabe [que evolução um sistema vai ter]”.

Neste ponto é interessante citar Aristóteles ([Século IV a.C.] Física, livro II, Cap. 4) que, ao que parece, se referia a Demócrito:

Há outros que, de fato, acreditam que o acaso é uma causa, mas que é inescrutável à inteligência humana, por ser uma coisa divina e cheia de mistério.

Tal situação, muito satisfatória e em crescente evolução nas ciências naturais, está aparentemente só hoje iniciando-se nas ciências sociais. A economia matemática, não obstante, apresenta uma perspectiva muito promissora, apesar dos modelos de equilíbrio-desequilíbrio parecerem estar em necessidade de uma expansão, na direção já presente nas ciências naturais, para poder incorporar as questões associadas à teoria da complexidade [109[109] M.D. Lemonick, Life, the Universe, and Everything, Time Magazine, February 1993, pp. 40–41.,112[112] W.B. Arthur, New Scientist 6, 6 (1993).]. Tem sido notado [1[1] L. von Bertalanffy, General System Theory Foundations, Development, Applications (G. Braziller Inc., New York, 1968).] que a pesquisa dos fenômenos que se desenvolvem nos sistemas dinâmicos sociais requerem uma estrutura básica que seja capaz de tratar e fazer justiça às complexidade e propriedades relevantes de um sistema sociocultural.

Um exemplo é a História, uma disciplina cujas dificuldades foram, na primeira metade do Século XX, discutidas pelo filósofo, humanista e profundo crítico espanhol Jose Ortega y Gasset [14[14] J. Ortega y Gaset, En Torno a Galileo: Esquema de las Crisis (Revista de Occidente, Madrid, 1956).], que chamou a atenção para o fato de que:

Toda a ciência da realidade, seja ela corporal ou espiritual, tem que ser uma construção e não um mero espelho dos fatos. Porque a física desde os tempos de Galileu tomou tal decisão, isso a fez uma ciência exemplar e norma do conhecimento.

Desde então têm sido desenvolvidas tentativas interessantes para levar à História as noções e métodos da dinâmica de sistemas como, por exemplo, no estudo da dinâmica dos eventos históricos na obra de Arnold Toynbee [1[1] L. von Bertalanffy, General System Theory Foundations, Development, Applications (G. Braziller Inc., New York, 1968).].

Evidentemente, a Sociologia em geral se confronta com uma incômoda desvantagem que consiste no fato de que a definição e caracterização, assim como as interações, nos sistemas socioculturais são muitos difíceis de serem proporcionadas pelo observador e pesquisador. Geralmente considera-se que é extremamente difícil, uma tarefa formidável e quase impossível, estabelecer o caso dos sistemas sociais sob bases rigorosas, porque a ação dos indivíduos está determinada por um número múltiplo de causas, algumas delas desconhecidas (o chamado problema das hidden constraints). Não obstante, tal situação é, em um certo sentido, similar ao caso de sistemas de muitas partículas nas ciências naturais. Assim, de maneira semelhante ao que ocorre nesta última, embora por enquanto em um quadro não completamente claro, podemos recorrer a uma descrição dos grupos sociais em termos de algum conjunto – que pareça apropriado – de variáveis de tipo macroscópico (coletivas) que seriam tratadas em um nível estatístico.

No nível sintático, este é o primeiro e fundamental passo: prover um conjunto básico de variáveis que descreva o estado do sistema, significando ir além de, digamos, o nível microscópico dos indivíduos com seus comportamentos e atitudes, para um nível macroscópico que descreva o comportamento de atitudes coletivas suscetíveis a tratamento por métodos estatísticos.

Já chamamos a atenção ao fato de que isso representa uma tarefa formidável no caso dos sistemas sociais. Em Economia alguns autores introduzem a chamada “função utilidade” (que tem o papel nesse caso da entropia informacional), havendo diferentes tipos de vínculos dependentes do problema em questão como, por exemplo, a demanda por mercadorias, a demanda e oferta de ações, o estoque de moeda em um dado conjunto social, o preço das mercadorias, o preço das ações, os ganhos esperados de um conjunto de empresas, etc. [114[114] H. Haga, Disequilibrium-Equilibrium Model with Money and Bonds: A Keynesian-Walrasian Synthesis (Springer, Berlin, 1976).116[116] N. Georgescu-Roentgen, The Entropy and The Economic Process (Harvard Univ. Press, Cambridge, 1971).].

Interessantes aplicações da teoria de sistemas dinâmicos têm sido feitas em Arqueologia. Por exemplo, tentou-se modelar e entender a evolução e o colapso de civilização Maya no chamado Período Clássico [117[117] J.W. Lowe, The Dynamics of Apocalypse: A Systems Simulation of the Classical Maya Collapse (Univ. of New México Press, Albuquerque, 1985).,118[118] R.J. Sharer, The Sciences (NYAS) 26(3), 59 (1986).]. Nessa forma procurou-se enfrentar um dos principais dilemas em Arqueologia, que consiste em discernir as causas de complexos processos sociais a partir de um conjunto de evidências (proporcionadas pela Arqueologia de campo) que são em geral escassas e sempre limitadas no que pode revelar. Em outras palavras: como melhor proceder com a informação disponível? Um conjunto de equações diferenciais de evolução é introduzido, relacionado com um certo conjunto de variáveis como população, produtividade per capita, distribuição do trabalho, etc. As equações incorporam diferentes efeitos sociais e econômicos, como crescimento e declínio da população, níveis de produtividade, níveis de coordenação econômica, rotas de comércio, um ou outro tipo de fator de estresse, etc. Estas equações são resolvidas e interpretadas. Em alguns dos modelos, depois que o “input” da informação proporcionada pela Arqueologia de campo é introduzido, um ponto de instabilidade (bifurcação de soluções) surge e a civilização sofre um colapso. Certamente que isso não assegura a “veracidade” da descrição (já tocamos antes neste assunto), porém, e muito importante, isso pode proporcionar pistas relevantes que justifiquem estudos adicionais, isto é, pode apontar para a realização de um aprofundamento de trabalhos em certas áreas da pesquisa de campo e ainda sugerir novas linhas para tal pesquisa.

Outros exemplos da conexão entre as ciências sociais e os aspectos formais da teoria de sistemas dinâmicos é a altamente controvertida Sociobiologia proposta por E.O. Wilson [119[119] E.O. Wilson, Sociobiology: A new synthesis (Harvard Univ. Press, Cambridge, 1975).], entre outros. Na procura pelas origens da mente, este autor sugere que ela surge de uma forma especial de evolução, a fusão de mudanças genéticas com a história cultural. Tal teoria tem sido fortemente criticada (por exemplo, Lewontin [120[120] R.C. Lewontin, The Sciences (NYAS) 21(8), 23 (1981).], com resposta em Lumsden e Wilson [121[121] C.L. Lumsden, E.O. Wilson, The Sciences (NYAS) 21(9), 6 (1981).]; Gould [122[122] S.J. Gould, An Urchin in the Storm (Penguin, London, 1987).]). C.L. Lumsden e Wilson [123[123] C.L. Lumsden, E.O. Wilson, Genes, Mind and Culture(Harvard Univ. Press, Cambridge, 1979).] construíram uma teoria matemática, sobre o arcabouço da teoria de sistemas dinâmicos, para promover tais idéias. Porém, aqui estes autores enfrentam o fundamental problema, já indicado previamente, que consiste na grande dificuldade de introduzir variáveis que sejam apropriadas e façam sentido para descrever sistemas sociais e, em continuação, construir as equações de evolução para estas variáveis, incorporando também apropriadas e significativas interações e efeitos que possam estar presentes. Seu trabalho é duvidoso em ambos os aspectos, e baseado em um conjunto de suposições dúbias [124[124] J.M. Smith, N. Warren, Evolution 36, 620 (1982).].

Na seção 2 mencionamos a necessidade de ter-se uma teoria para uma descrição a mais rigorosa possível destas estruturas dissipativas, que inclua no caso dos sistemas físicos um fundamento microscópico junto com uma conexão com os aspectos macroscópicos dentro do contexto de uma teoria dos sistemas dinâmicos. Temos chamado a atenção para o fato da possível infra-estrutura proporcionada pela mecânica estatística, a qual pode ser formulada em termos de uma lógica científica por inferência como aquela sintetizada por Jeffreys [55[55] H. Jeffreys, Scientific Inference (Cambridge Univ. Press, Cambridge, 3rd. Edition, 1973).,125[125] H. Jeffreys, Theory of Probability (Clarendon, Oxford, 196).] e Jaynes [52[52] E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).54[54] E.T. Jaynes, in The Maximum Entropy Formalism, editado por M. Tribus, R.D. Levine (MIT Press, Cambridge, 1983).,89[89] E.T. Jaynes, Maximum Entropy and Bayesian Methods, editado por J. Skilling (Kluwer Academic, Dordrecht, 1989).,90[90] E.T. Jaynes, Maximum Entropy and Bayesian Methods, editado por W. T. Grandy, L. H. Schick (Kluwer Academic, Dordrecht, 1991).], do que temos tratado na seção 3.

Podemos comentar aqui que, como foi apontado por Jaynes, estamos começando a entender como em grande parte a ciência toda é realmente informação organizada em uma forma particular. Não obstante, permanecem pontos difíceis, como determinar em que extensão esta informação reside em nós, e até que ponto ela é uma propriedade da natureza, ou melhor dito, dos sistemas dinâmicos em geral. De acordo com Jaynes, a questão de como as formas teoricamente válidas e pragmaticamente úteis de aplicar teoria de probabilidade em ciência foi enfrentada principalmente por Sir Harold Jeffreys, no sentido de que ele manifestou a filosofia geral do que é inferência científica e procedeu a desenvolver a teoria matemática e suas implementações. Jeffreys [55[55] H. Jeffreys, Scientific Inference (Cambridge Univ. Press, Cambridge, 3rd. Edition, 1973).] indica que:

O problema fundamental do progresso científico, e fundamental na vida diária, é o de aprender a partir da experiência. O conhecimento obtido nesta forma é parcialmente uma mera descrição daquilo que já observamos, mas parte consiste em fazer inferências a partir de experiências passadas para prever experiências futuras.

Jeffreys também cita Maxwell como um dos primeiros a manifestar que a verdadeira lógica deste mundo é o cálculo de probabilidades, o qual toma em conta a magnitude da probabilidades, que está, ou deveria estar, na mente da pessoa razoável.

Conforme o que foi visto, tal enfoque vai além da física, da química, da biologia, e de outras ciências naturais, cobrindo também as ciências sociais. Como consequência, um ponto de vista adotado por diversos autores é que ele proporciona um método científico unificador para as ciências – significando que os diferentes ramos das ciências que parecem bem separados podem crescer e serem mantidos juntos organicamente, dentro deste novo paradigma.

Na estatística preditiva, o fato de que uma certa distribuição de probabilidades, sujeitas a certos vínculos (restrições) que apresentam a informação incompleta de que dispomos, maximiza a entropia estatística-informacional é a propriedade fundamental que justifica o uso de tal distribuição para realizar inferências: ela concorda com tudo que sabemos (a informação disponível), porém evita cuidadosamente supor qualquer fato que não conhecemos. De tal forma ela força – ou melhor, proporciona um enfoque lógico-matemático – ao princípio de economia em Lógica conhecido como a “navalha de Occam”, segundo o qual Entia non sunt mutiplicanda praeter necessitatem (os entes não devem ser multiplicados exceto por necessidade). Em física o formalismo permite prever com grande precisão o comportamento termodinâmico e os resultados esperados de todo tipo de experimento, não com base no usual ponto de vista de trajetórias mecânicas e ergodicidade do raciocínio dedutivo clássico, porém pela meta de usar a inferência a partir da informação incompleta disponível.

Este enfoque de Jeffreys-Jaynes parece ligar-se com a frase de Demócrito citada anteriormente: Assim, o acaso é uma causa, porém, como Jaynes enfatiza – aparentemente, com relação à segunda parte da frase de Demócrito –, a estatística preditiva não é uma teoria fechada mas um método de fazer previsões a serem comparadas com a observação e o experimento.

Em conclusão, estatística preditiva, um ramo da teoria da informação em conjunto com o enfoque de inferência científica (no sentido Bayesiano das probabilidades) no esquema de Jeffreys e Jaynes, e em conjunto com as idéias de Maxwell, Gibbs, Boltzmann, e Jaynes, se mostra como um formalismo muito promissor para uma aproximação lógico-matemática (uma síntese) do tratamento dos sistemas dinâmicos, incluindo uma boa porção – se não todas – as disciplinas dos reinos naturais e humanos.

Fechamos finalmente estas ponderações diversas, apresentadas ao longo do Prólogo e as quatro seções que o seguem com uma citação:

Não dou tudo isto como certo, mas apenas pedirei aos Senhores Teólogos que me expliquem como se pode produzir tudo isto.

(Nicoles de Oresme, 1325–1382) [Citado por J. Le Goff em Os Intelectuais na Idade Média (Ed. Cor., Lisboa, 1973)].

Agradecimentos

Agradecemos a valiosa colaboração dos membros do Grupo (que passaram ou estão atualmente nele; pesquisadores, pós-doutores, estudantes) e em especial ao Professor José Galvão Ramos, que vem desenvolvendo um muito valioso trabalho na área de termo-hidrodinâmica clássica, com conexões com turbulência (caos) e auto-organização. Também agradecemos a colaboração e utilíssimas discussões com Grupos no exterior com os quais mantivemos projetos conjuntos de pesquisa e de ensino dos estudantes de pós-graduação aqui e nas respectivas Instituições; mencionamos especialmente os Professores José Casas-Vázquez e David Jou, da Universidade Autônoma de Barcelona, o Prof. Leopoldo García-Colin, da Universidade Autônoma de México. Agradecemos ao pessoal de apoio do IFGW-Unicamp, à simpática bibliotecária-chefe e aos funcionários da Biblioteca. Agradecemos também, pelos auxílios financeiros proporcionados ao nosso Grupo ao longo de sua existência, pelas instituições de fomento a pesquisa: Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP), o Conselho Nacional de Ciência e Tecnologia (CNPq), o Ministério da Educação (CAPES), o Ministério do Planejamento (Finep), a Fundação Unicamp (FAEP), a IBM-Brasil, a Fundació Catalá per a la Reserca (Catalunya, Espanha), a National Science Foundation (NSF, Washington, USA), a John Simon Guggenheim Memorial Fundation (New York, USA).

  • 1
    Lembrar que solução quer dizer a caracterização do estado do sistema (tal ponto – também dito de ponto singular em matemática e ponto crítico em física – sugere neste último caso para sistemas de qualquer tipo, inclusive os sociais, que se tem uma “crise”).
  • In memorian
    Com um muito triste sentimento de pesar registramos o falecimento da nossa querida colega e amiga Profa. Dra. Áurea Rosas Vasconcellos, uma genuína, dedicada e extremamente competente Professora e Pesquisadora com uma dedicação fervorosa à física teórica na área de matéria condensada.

Referências

  • [1]
    L. von Bertalanffy, General System Theory Foundations, Development, Applications (G. Braziller Inc., New York, 1968).
  • [2]
    E.W. Montroll, M.F. Shlesinger, J. Stat. Phys. 32(2), 209 (1983).
  • [3]
    P.W. Anderson, Science 177, 393 (1972).
  • [4]
    G. Nicolis, I. Prigogine, Exploring Complexity(Freeman, New York, 1989).
  • [5]
    I. Prigogine, I. Stengers, Order out of Chaos: Man's new Dialogue with Nature (Bantam, New York, 1984).
  • [6]
    P.W. Anderson, Phys. Today 44(7), 9 (1991).
  • [7]
    M. Gell-Mann, Complexity 1(1), 16 (1996).
  • [8]
    J. Horgan, The End of Science (Addison-Wesley, Reading, 1996).
  • [9]
    J. Horgan, Sci. Am. 272(6), 74 (1995).
  • [10]
    E. Morin, Ciência em consciência (Bertrand Brasil, São Paulo, 1986).
  • [11]
    F. Bacon, Lord Verulam, The Great Ideas Today(Encyclopaedia Britannica, Chicago, 1981).
  • [12]
    M. Born, Experiment and Theory in Physics (Dover, New York, 1956).
  • [13]
    W. Heisenberg, Physics and Philosophy: The Revolution in Modern Science (Harper and Row, New York 1958); Across the Frontiers (Harper and Row, New York, 1974).
  • [14]
    J. Ortega y Gaset, En Torno a Galileo: Esquema de las Crisis (Revista de Occidente, Madrid, 1956).
  • [15]
    J. Casti, Complexity 2(5), 8 (1997).
  • [16]
    L. Kadanoff, The Great Ideas Today (Encyclopaedia Britannica, Chicago, 1986).
  • [17]
    J. Horgan, Sci. Am., September 1995, pp. 24–26.
  • [18]
    S.J. Gould, Sci. Am., October 1994, pp. 84–91.
  • [19]
    R. Luzzi, A.R. Vasconcellos, in Estruturas Dissipativas Auto-Organizadas: Um ponto de vista estatístico, Complexidade, Auto-organização, Informação em Auto-Organização: Estudos Interdisciplinares, editado por M. Debrun, M.E.Q. Gonzales, e O. Pessoa (CLE-Unicamp, Campinas, 1996), v. 18.
  • [20]
    W. Heisenberg, Phys. Today, May 1967, pp. 22–33.
  • [21]
    R. Landauer, in Nonlinearity in Condensed Matter, editado por A.R. Bishop, D.K. Campbell, P. Kumar, S.E. Trullinger (Springer, Berlin, 1987).
  • [22]
    S. Kellert, In the Wake of Chaos (Univ. Chicago Press, Chicago, 1993).
  • [23]
    D. Ruelle, Phys. Today, July 1994 issue, pp. 24–30.
  • [24]
    G.R. Freeman, Can. J. Phys. 68, 794 (1990).
  • [25]
    J.A. Krumhansl, Physica D 68, 97 (1993).
  • [26]
    I. Stewart, Complexity in Search of Nature's Patterns (Encyclopaedia Britannica, Chicago, 1996).
  • [27]
    I. Prigogine, in From Theoretical Physics to Biology, editado por M. Marois (North Holland, Amsterdam, 1969).
  • [28]
    I. Prigogine, From Being to Becoming: Time and Complexity in the Physical Systems (Freeman, San Francisco, 1982).
  • [29]
    C.G. Rodrigues, A.A.P. Silva, C.A.B. Silva, A.R. Vasconcellos, J.G. Ramos, R. Luzzi, Braz. J. Phys. 40(1), 63 (2010).
  • [30]
    M.V. Mesquita, A.R. Vasconcellos, R. Luzzi, Phys. Rev. E 48, 4049 (1993).
  • [31]
    A. Babloyantz, Molecules, Dynamics, and Life(Wiley-Interscience, New York, 1986).
  • [32]
    H. Fröhlich, Riv. Nuovo Cimento 3, 490 (1973).
  • [33]
    C. Normand, Y. Pomeau, M.G. Velarde, Rev. Mod. Phys. 49, 581 (1977).
  • [34]
    P. Glansdorff, I. Prigogine, Thermodynamic Theory of Structure, Stability, and Fluctuations (Wiley-Interscience, New York, 1971).
  • [35]
    G. Nicolis, Rep. Prog. Phys. 49, 873 (1986).
  • [36]
    R.J. Field, Am. Sci. 73, 142 (1985).
  • [37]
    I.R. Epstein, Pendulus in the Test Tube, (Encyclopaedia Britannica, Chicago, 1895).
  • [38]
    A.M. Turing, Phil. Trans. Roy. Soc. London B 237, 37 (1952).
  • [39]
    R. Thom, Structural Stability and Morphogenesis(Benjamin, Reading, 1975).
  • [40]
    M.C. Cross, P.C. Hohenberg, Rev. Mod. Phys. 65, 851 (1993).
  • [41]
    S. Grossberg, in Brain and Information, editado por R. Karrer, J. Cohen, P. Tueting (NYAS, New York, 1984), v. 425, pp. 58–151.
  • [42]
    H. Haken, Synergetics: Nonequilibrium Phase Transitions and Self-Organization in Physics, Chemistry and Biology (Springer, Berlin, 1978).
  • [43]
    P.M. Allen, J.M. McGlade, Found. Phys. 17, 723 (1987).
  • [44]
    A.P. Ingersol, Sci. Am. 245(6), 90 (1981).
  • [45]
    A.P. Ingersol, The Weather of Other Planets(Encyclopaedia Britannica, Chicago, 1983).
  • [46]
    G. Nicolis, I. Prigogine, Self-Organization in Nonequilibrium Systems: From dissipative structures to order through fluctuations (Wiley-Interscience, New York, 1977).
  • [47]
    D.M. Greenberger, in New Techniques and Ideas in Quantum Measurement Theory, editado por D.M. Greenberger (NYAS, New York, 1986), v. 480.
  • [48]
    I. Prigogine, G. Nicolis, A. Babloyantz, Phy. Today 25(12), 38 (1972).
  • [49]
    D. Jou, J. Casas-Vázquez, G. Lebon, Extended Irreversible Thermodynamics (Springer, Berlin, 2010).
  • [50]
    I. Müller, T. Ruggeri, Extended Thermodynamics(Springer, Berlin, 1993).
  • [51]
    C. Truesdell, Rational Thermodynamics (Springer, Berlin, 1993).
  • [52]
    E.T. Jaynes, in Frontiers of Nonequilibrium Statistical Physics, editado por G.T. Moore, M.O. Scully, (Plenum, New York, 1986).
  • [53]
    E.T. Jaynes, in E. T. Jaynes Papers on Probability, Statistics, and Statistical Physics, editado por R.D. Rosenkrantz (Reidel-Kluwer Academics, Dordrecht, 1983).
  • [54]
    E.T. Jaynes, in The Maximum Entropy Formalism, editado por M. Tribus, R.D. Levine (MIT Press, Cambridge, 1983).
  • [55]
    H. Jeffreys, Scientific Inference (Cambridge Univ. Press, Cambridge, 3rd. Edition, 1973).
  • [56]
    R. Luzzi, A.R. Vasconcellos, J.G. Ramos, Statistical Foundations of Irreversible Thermodynamics (Teubner-Springer, Berlin, 1999).
  • [57]
    W.R. Ashby, J. General Psychology 37, 125 (1947); W.R. Ashby, Mechanisms of Inteligence (Intersystems, Seaside, RI, 1962).
  • [58]
    H. Atlan, Entre o Cristal e a Fumaça (Zahar, Rio de Janeiro, 1992).
  • [59]
    C.G. Rodrigues, V.N. Freire, A.R. Vasconcellos, R. Luzzi, Braz. J. Phys. 32(2A), 439 (2002); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, Braz. J. Phys. 36(2A), 255 (2006).
  • [60]
    C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, Solid State Commun. 140, 135 (2006); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, J. Appl. Phys. 98, 043703 (2005).
  • [61]
    C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, V.N. Freire, J. Phys.: Condens. Matter 19, 346214 (2007); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, J. Appl. Phys. 108, 033716 (2010).
  • [62]
    C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, Eur. Phys. J. B 72(1), 67 (2009); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, Eur. Phys. J. B 86, 200 (2013).
  • [63]
    C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, J. Phys. D: Appl. Phys. 38, 3584 (2005); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, J. Appl. Phys. 102, 073714 (2007).
  • [64]
    C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, Phys. Status Solidi B 246(2), 417 (2009); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, Physica E 60, 50 (2014).
  • [65]
    C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, V.N. Freire, J. Appl. Phys. 90(4), 1879 (2001); C.G. Rodrigues, A.R. Vasconcellos, R. Luzzi, J. Appl. Phys. 113(11), 113701 (2013).
  • [66]
    M. Debrun, Seminários sobre Auto-Organização no Centro de Lógica e Epistemologia da Unicamp (Unicamp, Campinas, 1996).
  • [67]
    A.B.H. Ferreira, Novo Dicionário da Língua Portuguesa (Nova Fronteira, Rio de Janeiro, 1975).
  • [68]
    Webster's Third New International Diccionary of the English Language (Encyclopaedia Britannica, Chicago, 1976).
  • [69]
    R.H. Reichardt, in Scientific Issues of the Next Century (NYAS, New York, 1990), v. 610.
  • [70]
    C.E. Shannon, N. Weaver, The Mathematical Theory of Communication (Univ. Illinois Press, Urbana, 1949).
  • [71]
    L. Brillouin, Science and Information Theory(Academy, New York, 1962).
  • [72]
    P.S. Laplace, Essay Philosophique sur les Probabilities (Bachelier, Paris, 1825).
  • [73]
    L. Bronowski, The Common Sense in Science (Harvard Univ. Press, Cambridge, 1978).
  • [74]
    O. Penrose, Rep. Prog. Phys. 42, 1938 (1979).
  • [75]
    R. Zwanzig, Perspectives in Statistical Physics, H. J. Raveché, Ed. (North Holland, Amsterdam, 1981).
  • [76]
    R. Kubo, Prog. Theor. Phys. (Japan) Suppl. 64, 1 (1978).
  • [77]
    J.R. Dorffmann, Physica A 106, 77 (1981).
  • [78]
    H.J. Kreuzer, Nonequilibrium Thermodynamics and its Statistical Foundations (Clarendon. Oxford, 1981).
  • [79]
    H. Mori, Prog. Theor. Phys. (Japan) 33, 423 (1965).
  • [80]
    R. Zwanzig, Kinam (México) 3, 3 (1981).
  • [81]
    R. Luzzi, A.R. Vasconcellos, J.G. Ramos, Foundations of a Nonequilibrium Statistical Ensemble Formalism (Elsevier-Kluwer Academic, Amsterdam-Dordrecht, 2002).
  • [82]
    L.S. Garcia-Colin, A.R. Vasconcellos, R. Luzzi, J. Non-Equil. Thermodyn. 19, 24 (1994).
  • [83]
    P.V. Coveney, La Recherche 20, 190 (1989).
  • [84]
    S. Hawkings, in 1990- Yearbook of Science and the Future (Encyclopaedia Britannica, Chicago, 1989).
  • [85]
    R. Feynman, The Character of Physical Law (MIT Press, Cambridge, 1965).
  • [86]
    R. Lestienne, Scientia 115, 373 (1980).
  • [87]
    I. Prigogine, Acta Phys. Austriaca, Suppl. X, 401 (1973).
  • [88]
    I. Prigogine, Nature 246, 67 (1973).
  • [89]
    E.T. Jaynes, Maximum Entropy and Bayesian Methods, editado por J. Skilling (Kluwer Academic, Dordrecht, 1989).
  • [90]
    E.T. Jaynes, Maximum Entropy and Bayesian Methods, editado por W. T. Grandy, L. H. Schick (Kluwer Academic, Dordrecht, 1991).
  • [91]
    P.W. Anderson, Phys. Today 44(7), 9 (1991).
  • [92]
    R. Luzzi, M.V. Mesquita, J.R. Madureira, J. Math. Sociology 25(2), 179 (2001).
  • [93]
    J. Meixner, Irreversible Aspects of Continuum Mechanics, editado por H. Parkus, L.I. Sedov (Springer, Wien, 1968); J. Meixner, Rheol. Acta 12, 465 (1973).
  • [94]
    J. Bricmont, The Flight from Science and Reason, editado por P.G. Gross, N. Levitt, M.W. Lewis (NYAS, New York, 1996), v. 775.
  • [95]
    R. Balian, Y. Alhassid, H. Reinhardt, Phys. Rep. 131, 1 (1986); R. Balian, Incomplete descriptions and relevant entropies, http://xxx.laln.gov,cond-mat/9907015 (1 July 1999).
    » http://xxx.laln.gov,cond-mat/9907015
  • [96]
    R. Luzzi, Está a Física chegando ao Fim?, Notas de Física ifgw (Unicamp, Campinas, SP, 1995), v. 9.
  • [97]
    W. Heisenberg, Across the Frontiers, editado por R. N. Anshen (Harper, New York, 1975).
  • [98]
    J. Golinski, Making Natural Knowledge (Cambridge Univ. Press, Cambridge, 1998).
  • [99]
    E.O. Wilsom, Consilience: The Unity of Knowledge(Knopf, New York, 1998).
  • [100]
    F. Dyson, Phys. Today 23(9), 23 (1970).
  • [101]
    V. Ginzburg, Key Problems in Physics and Astrophysics (Mir, Moscow, 1976).
  • [102]
    S. Kaufmann, At home in the Universe: The Search for the Laws of Self-Organization and Complexity (Oxford Univ. Press, New York, 1995).
  • [103]
    H. Fröhlich, Nature 228, 1093 (1970); H. Fröhlich, Int. J. Quantum Chem. 2, 641 (1968); H. Fröhlich, Adv. Electron. El. Phys. 17, 85 (1980).
  • [104]
    A.F. Fonseca, M.V. Mesquita, A.R. Vasconcellos, R. Luzzi, J. Chem. Phys. 112(9), 3967 (2000).
  • [105]
    H. Fröhlich, From Theoretical Physics to Biology, editado por M. Marois (North Holland, Amsterdam, 1969).
  • [106]
    S. Mascarenhas, Electrets, editado por G.M. Sessler (Springer, Berlin, 1987).
  • [107]
    M.V. Volkenstein, Phys. Uspekhi 16, 207 (1974).
  • [108]
    J. Monod, Le Hasard et la Necessité (Seuil, Paris, 1970).
  • [109]
    M.D. Lemonick, Life, the Universe, and Everything, Time Magazine, February 1993, pp. 40–41.
  • [110]
    D. Stein, Phys. Today 45, 83 (1992).
  • [111]
    H. Morowitz, Complexity 1(1), 4 (1995).
  • [112]
    W.B. Arthur, New Scientist 6, 6 (1993).
  • [113]
    M.A. Lepschy, S. Milo, Scientia 111, 39 (1976).
  • [114]
    H. Haga, Disequilibrium-Equilibrium Model with Money and Bonds: A Keynesian-Walrasian Synthesis (Springer, Berlin, 1976).
  • [115]
    A. Zellner, Maximum Entropy and Bayesian Methods, editado por W.T. Grandy, L.S. Schick (Kluwer Academics, Dordrecht, 1991).
  • [116]
    N. Georgescu-Roentgen, The Entropy and The Economic Process (Harvard Univ. Press, Cambridge, 1971).
  • [117]
    J.W. Lowe, The Dynamics of Apocalypse: A Systems Simulation of the Classical Maya Collapse (Univ. of New México Press, Albuquerque, 1985).
  • [118]
    R.J. Sharer, The Sciences (NYAS) 26(3), 59 (1986).
  • [119]
    E.O. Wilson, Sociobiology: A new synthesis (Harvard Univ. Press, Cambridge, 1975).
  • [120]
    R.C. Lewontin, The Sciences (NYAS) 21(8), 23 (1981).
  • [121]
    C.L. Lumsden, E.O. Wilson, The Sciences (NYAS) 21(9), 6 (1981).
  • [122]
    S.J. Gould, An Urchin in the Storm (Penguin, London, 1987).
  • [123]
    C.L. Lumsden, E.O. Wilson, Genes, Mind and Culture(Harvard Univ. Press, Cambridge, 1979).
  • [124]
    J.M. Smith, N. Warren, Evolution 36, 620 (1982).
  • [125]
    H. Jeffreys, Theory of Probability (Clarendon, Oxford, 196).

Datas de Publicação

  • Publicação nesta coleção
    Jun 2015

Histórico

  • Recebido
    23 Jan 2015
  • Aceito
    16 Fev 2015
Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
E-mail: marcio@sbfisica.org.br