Acessibilidade / Reportar erro

Sistemas complexos, criticalidade e leis de potência

Complex systems, criticality, and power laws

Resumos

Neste texto fazemos um apanhado inicial e geral das principais idéias relacionadas à teoria dos sistemas complexos.

sistemas complexos; criticalidade; leis de potência


We survey some notions related to complex systems theory.

complex systems; criticality; power laws


ARTIGOS GERAIS

Sistemas complexos, criticalidade e leis de potência

Complex systems, criticality, and power laws

Iram GleriaI; Raul MatsushitaII; Sergio Da SilvaIII

IDepartamento de Física, Universidade Federal de Alagoas

IIDepartamento de Estatística, Universidade de Brasília

IIIDepartamento de Economia, Universidade Federal de Santa Catarina

Endereço para correspondência Endereço para correspondência Sergio Da Silva E-mail: drsergiodasilva@hotmail.com.

RESUMO

Neste texto fazemos um apanhado inicial e geral das principais idéias relacionadas à teoria dos sistemas complexos.

Palavras-chave: sistemas complexos, criticalidade, leis de potência.

ABSTRACT

We survey some notions related to complex systems theory.

Keywords: complex systems, criticality, power laws.

1. Introdução

Nas últimas décadas do século XX, parte da comunidade dos físicos passou a se interessar pela dinâmica de sistemas ditos complexos, cujas partes interagem de forma não-linear. Uma das propriedades marcantes de tais sistemas é a presença de leis de escala ou leis de potência. Estas são observadas em diversos contextos, de biologia até o comportamento de bolsas de valores. A tentativa de se construir um esquema teórico geral para esses fenômenos deu origem a novos ramos da física, como a teoria do caos e a física dos sistemas complexos. Conceitos como criticalidade auto-organizada, auto-similaridade, fractais e leis de potência passaram a fazer parte da física contemporânea. Aqui poderíamos ter utilizado o termo física moderna, mas o evitamos porque tal denominação refere-se em geral à mecânica quântica e à teoria da relatividade. Um ramo da teoria dos sistemas complexos que vem recebendo cada vez mais atenção nos últimos anos é a econofísica que, como o nome sugere, procura compreender o comportamento de mercados financeiros e de outros aspectos da economia. Um dos trabalhos pioneiros nessa área foi o estudo do índice da bolsa norte-americana Standard & Poors 500 por Rosario Mantegna e Gene Stanley. Entretanto, as origens históricas da econofísica podem ser remetidas aos anos de 1960, com os trabalhos do matemático Benoit Mandelbrot. Poderíamos até mesmo voltar mais no tempo e dizer que a tese de doutorado sobre especulação financeira de Bachelier, em 1900, já é um precursor da econofísica. Neste texto fazemos um apanhado inicial e geral das principais idéias relacionadas à teoria dos sistemas complexos. Na seção 2 discutimos o que se entende por fenômenos críticos em física. Na seção 3 discorremos um pouco sobre o conceito de criticalidade. Na seção 4 relacionamos a noção de leis de potência com a normalidade gaussiana. Na seção 5 apresentamos os conceitos de auto-similaridade e fractais. Na seção 6 introduzimos a noção de criticalidade auto-organizada. Na seção 7 fornecemos uma explicação física para a origem dos fractais. Na seção 8 especulamos sobre o papel do livre-arbítrio diante da existência de leis de potência em sistemas sociais. As seções seguintes são devotadas à exemplificação de fenômenos complexos como avalanches (seção 9), terremotos (seção 10) e extinção de espécies (seção 11). Na seção 12 estendemos a exemplificação para a história humana, enquanto que na seção 13 esboçamos uma explicação, com base em nossos conceitos, para a história da ciência. Finalmente, na seção 14 discutimos alguns tópicos de econofísica. As conclusões se encontram na seção 15.

2. Fenômenos críticos em Física

Fenômenos críticos ocorrem geralmente em sistemas que se encontram longe do equilíbrio, em processos nos quais a história é importante. Diversas grandezas termodinâmicas, tais como calor específico, compressibilidade e susceptibilidade magnética, apresentam comportamento singular na região crítica, com divergências assintóticas caracterizadas por expoentes críticos. O comportamento dessas grandezas termodinâmicas próximas a um ponto crítico apresenta caráter universal, caracterizado pelos mesmos valores de expoentes críticos. Teorias clássicas, como a de Van Der Waals para a análise de fluidos e a de Pierre Curie para o ferromagnetismo, já apontavam para esta universalidade, fornecendo um conjunto de valores (hoje ditos clássicos) para os expoentes críticos.

As teorias clássicas passaram por um processo mais sério de análise a partir de 1960, quando foram desenvolvidas técnicas para a realização de experiências na vizinhança de pontos críticos. Os resultados das experiências, bem como diversos outros resultados teóricos, apontavam para a existência de classes de universalidade, definidas por alguns poucos expoentes críticos diferentes dos expoentes clássicos [41]. É interessante também notar que a teoria das perturbações, geralmente útil na análise de problemas de muitos corpos, não funciona na vizinhança dos pontos críticos. Fora da criticalidade, um sistema contendo muitos corpos apresenta correlações de curto alcance, com decaimento exponencial. Na criticalidade, no entanto, as correlações decaem lentamente, sem escala característica, temporal ou espacial.

Na década de 1970 essas idéias foram incorporadas pela teoria do grupo de renormalização, proposta por Kenneth Wilson. Foram então justificadas as leis de escala e a universalidade dos expoentes críticos, trabalho que rendeu um prêmio Nobel a Wilson.

Exemplifiquemos o conceito de expoente crítico a partir do chamado diagrama de fases de um fluido simples. Na Fig. 1 apresentamos o diagrama em termos de pressão p e temperatura T:


Na Fig. 1 indicamos as regiões em que o material se encontra em uma das fases: sólida, líquida ou gasosa. As linhas cheias indicam coexistência de fases, onde as densidades são diferentes embora p e T não sejam. O ponto (pt, Tt) é chamado ponto triplo e nele coexistem as três fases. O exemplo mais conhecido é a água, cujo ponto triplo ocorre em pt = 4.58 mmHg, Tt = 273.16 K = 0 0C. O ponto crítico ocorre em (pc, Tc) e representa o fim da linha de coexistência das fases líquida e gasosa. (Para a água esta temperatura crítica é da ordem de 650 K » 377 0C). Acima da temperatura crítica, não há como liquefazer um gás comprimindo-o isotermicamente. Por exemplo, para conseguirmos água no estado líquido acima de 100 0C basta uma compressão: isto é o que toda panela de pressão faz. Porém há um limite, em cerca de 377 0C, acima do qual nenhuma panela consegue manter a água em estado líquido.

Percorrendo a curva de coexistência entre as fases líquida e gasosa, no diagrama p – T, a diferença de densidade entre o líquido e o gás é cada vez menor, até anular-se no ponto crítico, onde ocorre a identidade dessas duas fases. Nas vizinhanças deste ponto crítico, determinadas derivadas termodinâmicas, como a compressibilidade e o calor específico, podem apresentar um comportamento singular, caracterizando o estado crítico da matéria. Introduzimos um expoente crítico para o fenômeno a partir do diagrama p – v, onde v = V / N é o volume específico, V é o volume total e N, o número de mols (Fig. 2). Para temperaturas abaixo da crítica, onde há a coexistência de fases, a fase líquida possui densidade específica vL e a gasosa, vG. À medida em que a temperatura aproxima-se da temperatura crítica, a diferença vL – vG diminui, anulando-se em Tc . O expoente crítico é obtido a partir do comportamento assintótico de vL – vG quando T ® Tc . Verifica-se que


A temperatura crítica depende do fluido considerado, mas o fator b, obtido a partir de experimentos, é aproximadamente igual a 1/3 para qualquer fluido. Este é um expoente crítico que apresenta caráter universal.

3. Criticalidade

Conforme vimos acima, a universalidade e o caráter peculiar da criticalidade são fatos bem conhecidos da física há mais de um século, apesar de que somente as teorias mais recentes fornecem, em geral, valores corretos para os expoentes críticos. Em um estado crítico, não há razão para buscar causas específicas para grandes eventos. Pequenas forças podem ter efeitos enormes e catástrofes súbitas parecem surgir do nada. Observe que o termo catástrofe é utilizado no sentido da ocorrência de um evento raro, inesperado, mas não necessariamente devastador. Um exemplo é o comportamento anômalo das derivadas termodinâmicas. Flutuações no estado crítico não aparentam ser nem genuinamente aleatórias nem previsíveis. A freqüência de tais eventos raros pode ser estimada, mas não a sua intensidade ou a data de sua ocorrência [6].

O mais interessante é que conceitos matemáticos simples parecem ser comuns a uma ampla gama de fenômenos críticos, apontando para uma universalidade que vai muito além da de termodinâmica. Veremos a seguir como o conceito de criticalidade passou a figurar em várias disciplinas, como a geofísica, a biologia, a economia e a história [1].

Trabalhos teóricos em criticalidade utilizam modelos simples que podem ser estudados analiticamente ou via simulações de computador. Entender os estados críticos, em um sistema pertencente a determinada classe de fenômenos, leva-nos à compreensão de todos os demais sistemas dessa classe. Assim, de modo geral, os conceitos são mais metafóricos do que em outras áreas da física teórica. O princípio da universalidade (ou ubiquidade, como prefere Buchanan) significa que devemos selecionar os modelos matemáticos mais simples possíveis, que consigam abranger uma classe universal de fenômenos. Os detalhes não são, aqui, cruciais para decidirmos o resultado, pois os fenômenos em estado crítico não possuem uma escala típica, seja no espaço ou no tempo. Este fato se apresenta sob a forma das leis de escala. Estas leis revelam ordem e simplicidade por trás da complexidade, e também significam que nenhuma diferença qualitativa existe entre pequenas e grandes flutuações. Eventos raros não precisam ter causa específica e podem aparecer a qualquer momento. O que causa um pequeno efeito em uma ocasião pode iniciar uma mudança devastadora em outra situação. Além disso, nenhuma análise das condições iniciais será suficiente para predizer o evento.

4. Distribuições gaussianas e leis de potência

Quando um estatístico estuda certos dados, tais como o preço de certa mercadoria, ele utiliza uma ferramenta indispensável: um gráfico em forma de sino que representa a distribuição gaussiana ou normal dos dados (Fig. 3). Esta curva mostra, por exemplo, a variação nos preços de certo produto em um certo período de tempo. A maioria dos valores discretos dos preços situa-se na parte central da curva, ou seja, na média, enquanto que, nos lados, a curva cai rapidamente, como uma exponencial. Isto corresponde ao fato de que grandes flutuações são estatisticamente pouco prováveis e, depois de certo ponto, impossíveis.


As distribuições gaussianas são definidas a partir de uma função densidade de probabilidades que se escreve da seguinte forma:

onde x é a variável estocástica em questão, m º á xñ é a média da distribuição, e s = denomina-se desvio-padrão.

Por exemplo, suponha que desejemos medir o comprimento de uma mesa, que será nossa variável estocástica x. Ao realizarmos N medidas sucessivas obtemos uma estimativa do valor médio por , sendo que ® m à medida que N tende para infinito. E, ignorando quaisquer fontes de erro sistemático, expressamos o resultado de nossa experiência na forma m = ±ks, onde k é uma constante associada à distribuição gaussiana e N. Ou seja, o desvio-padrão dá-nos uma boa aproximação do erro cometido na estimação da média. A probabilidade de encontrarmos a x b é dada por

Além disso,

ou seja, a probabilidade de encontrarmos um valor qualquer de x é, obviamente, igual a 1.

Distribuições gaussianas são, supostamente, a norma da natureza, cuja larga aplicabilidade resulta do teorema do limite central: em qualquer caso onde um grande número de eventos aleatórios independentes contribuem para um determinado resultado, este seguirá a distribuição normal. Em outras palavras, suponha que nossa variável estocástica, xi, seja o clássico passeio aleatório (random walk) onde xi pode assumir aleatoriamente os valores ±s. A posição da variável após N passos é dada por

O teorema do limite central diz que, se os passos xi são independentes uns dos outros e possuem desvio-padrão finito, a função densidade de probabilidade da seguinte variável

será gaussiana à medida que N ® ¥, mesmo que cada xi não obedeça à distribuição normal.

Mas nem tudo na natureza segue uma curva normal. Porém, mesmo eventos não-gaussianos podem ainda apresentar um tipo de regularidade na forma de leis de potência não-gaussianas. E estas são incompatíveis com a noção de que a média representa a escala característica. Os sistemas com escala descrevem quase tudo na natureza, às vezes até sistemas desordenados. A distribuição de gotas de chuva na calçada tem uma escala característica: basta focalizarmos cada vez mais para encontrar que o diâmetro médio é uma gota. Mas existem os sistemas que não possuem escala característica, descritos por leis de potência, que são soluções de equações funcionais da forma

Quando físicos analisam um fenômeno, acabam resolvendo algum tipo de equação diferencial, onde as funções possuem alguma escala característica. Em geral, podemos expressar as funções em termos de exponenciais, em que aparece um parâmetro que determina a escala do problema.

Tomemos como exemplo a lei do decaimento exponencial de núcleos radioativos. Sendo R a probabilidade de emissão de radiação por segundo e supondo que N núcleos não decaíram no instante t. Após o intervalo dt, um número dN de núcleos irá decair. Uma vez que R é a probabilidade de que um núcleo particular decaia em um segundo, Rdt é a probabilidade de que qualquer um dos núcleos do sistema decaia nesse intervalo de tempo. Assim, o número médio de núcleos que decaem é

dN = – NRdt

que, depois de resolvida, nos fornece

N(t) = N(0)e–Rt.

Nesta expressão, N(0) é o número de núcleos que não tinham decaído no instante inicial. A partir da expressão acima, podemos demonstrar que o intervalo de tempo necessário para que o número de núcleos, que ainda não decaíram, diminua por um fator igual a dois, é dado por

T1/2 = ln2/R.

Esta é a chamada meia-vida do núcleo radioativo, e representa a escala de tempo característica do processo. Note que à medida que t ® ¥ teremos N(t) ® 0. Isto corresponde ao fato de que encontrar um núcleo que não decaiu torna-se um evento extremamente raro.

Na física dos fenômenos críticos, a expressão 1 acima é conhecida por hipótese de escala ou de homogeneidade. Esta forma a base da teoria do grupo de renormalização. Por exemplo, nas vizinhanças de um ponto crítico, a função energia livre por spin g(T, H) de um ferromagneto é escrita como a soma de uma parte regular, g0 (T, H), e de uma parte singular, gS (T, H). É na parte singular que as peculiaridades da criticalidade ocorrem e, de acordo com a hipótese de escala, supõe-se que ela obedeça à equação 1. [41]

Leis de potência também surgem em casos como a distribuição de terremotos, extinção de espécies e crashes de bolsas de valores, e o sentido do termo universalidade, para os fenômenos críticos, ganha dimensões inesperadas mesmo para os pioneiros da área.

5. Auto-similaridade e fractais

Preços de mercadorias parecem se comportar desordenadamente no curto prazo, embora tendências sejam comuns quando o horizonte de tempo observado é o longo prazo. Diante disso, um certo economista de Harvard, chamado Hendrik Houtahkker, recorreu a uma distribuição gaussiana para estudar oito anos de variações no preço do algodão. Ele constatou que a curva não se ajusta perfeitamente à distribuição normal. Estranhamente, a curva se alonga em vez de cair rapidamente. Como vimos no exemplo dos núcleos radioativos, processos gaussianos apresentam, de fato, decaimento exponencial.

Quando o jovem matemático Benoit Mandelbrot apresentou um seminário no Departamento de Economia de Harvard, ele apareceu com uma figura bastante parecida com a de Houtahkker, que foi logo reconhecida por este. Mandelbrot resolveu então estudar a mesma base de dados. Havia dados para mais de um século do preço do algodão. Mandelbrot usou os computadores da IBM, de onde era funcionário, para processar os dados. Ele confirmou que os dados não se ajustam a uma distribuição normal.

Mas Mandelbrot percebeu mais. Havia certa ordem oculta. Havia simetria em pequenas e grandes escalas. Variações diárias assemelhavam-se a variações mensais. Isto sugeria que as seqüências de variações independem da escala, indicando a presença de leis de potência. Era isto o que Mandelbrot procurava: um padrão onde se pensava existir apenas aleatoriedade.

Ele logo associou o fenômeno aos problemas que a IBM enfrentava nas suas linhas telefônicas. Às vezes, surgiam ruídos que provocavam erro nos dados transmitidos. Mandelbrot sabia que os ruídos, apesar de aleatórios, apresentavam características peculiares: em certos períodos, praticamente não havia ruídos, enquanto que em outros apareciam vários erros de transmissão. Além disso, dentro de períodos de erro havia períodos de transmissão perfeita. A previsão dos ruídos era praticamente impossível.

Graças à sua forte intuição geométrica, Mandelbrot associou os dois fenômenos a uma construção matemática chamada conjunto de Cantor. Começando com uma linha de certo tamanho, podemos tirar o terço médio. Em seguida, tiramos o terço médio das duas linhas restantes. Se repetirmos o processo várias vezes, o que sobra são as linhas finas da Fig. 4.


Mandelbrot concluiu que algo como a Fig. 4 poderia capturar o que estava ocorrendo com o preço do algodão e com o ruído das transmissões telefônicas. A poeira de Cantor mostra que não há escala característica. Era até então incomum observar a poeira levando em conta a dimensão. Na visão euclidiana, um cubo tem dimensão 3 porque apresenta largura, comprimento e altura; uma folha de papel possui dimensão 2 porque tem largura e comprimento; um fio tem dimensão 1 por apenas ter comprimento; e um ponto tem dimensão 0 pois não apresenta nenhuma dessas características. Mas quando se pensa em outras formas da natureza como o contorno de uma folha de árvore, do litoral, de uma montanha, de um fragmento de rocha, a geometria euclidiana não parece ser boa descritivamente. Afinal, como Mandelbrot [29] observa, "nuvens não são esferas e montanhas não são cones''.

Em um artigo intitulado "Que Extensão Tem o Litoral da Grã-Bretanha?'', Mandelbrot discute como mensurar formas irregulares como o litoral. Ele foi além das dimensões inteiras 0, 1, 2 e 3, e utilizou dimensões fracionárias. Daí surgiu o conceito de fractal, um termo emprestado do latim fractus, que está associado a quebrar ou fraturar. Dimensões não inteiras como 2.73 poderiam dizer respeito ao grau de fragmentação.

Mandelbrot descobriu que esse grau de irregularidade permanecia constante, no litoral britânico, qualquer que fosse a escala utilizada. Isto significa que, seja de perto ou de longe, os padrões de forma são os mesmos. Exatamente como nos preços do algodão. Havia um padrão na irregularidade. Esta é uma das principais características dos fractais: a auto-semelhança. Você vê isto sempre que corta um pedaço de couve-flor e percebe que este pedaço é semelhante à verdura inteira. De fato, um "pedaço'' da poeira de Cantor é semelhante ao conjunto inteiro.

Como as distribuições gaussianas são inadequadas para descrever os problemas estudados por Mandelbrot, ele recorreu às chamadas distribuições de Lévy, que de certo modo generalizam a de Gauss e obedecem a um tipo de teorema do limite central generalizado [28]. Uma distribuição de Lévy simétrica e de média zero é escrita como:

e possui a propriedade de que, para valores grandes de |x|,

PL(|x|) » |x|–a,

ou seja, há uma lei de potência, indicando que as distribuições de Lévy não apresentam escala característica. Era exatamente isto o que Mandelbrot procurava.

A regularidade de qualquer lei de potência implica ausência de escala típica, cuja geometria é então fractal. Fractais podem aparecer por diversas razões. Por dinâmicas caóticas, processos de crescimento ou evolução, e assim por diante.

O ponto-de-vista de Mandelbrot não teve aceitação imediata principalmente porque as distribuições de Lévy possuem a incômoda propriedade de ter desvio-padrão infinito. Mais precisamente, todos os momentos de ordem maior que dois são infinitos. Em finanças, o desvio-padrão é uma medida da volatilidade da variável, e torna-se complicado dar significado a essa grandeza se ela for infinita. Somente a partir dos trabalhos de Gene Stanley e Rosario Mantegna é que volta-se a considerar a possibilidade de que as distribuições de Lévy descrevam apropriadamente problemas em economia.

Mercados financeiros, em particular, possuem diversas das propriedades típicas de sistemas complexos. Além disso, eles são sistemas ditos abertos, em que subunidades interagem de modo não-linear. Não-linearidade ocorre, por exemplo, em potências como X2 e Y1/3 ou em termos multiplicados como XY, e . Sistemas não-lineares apresentam propriedades bem diferentes daquelas de sistemas lineares. Por exemplo, se A e B forem soluções de um sistema de equações diferenciais, então A + B será uma solução também. Esta regra de superposição não se aplica a sistemas não-lineares. Sistemas lineares geralmente possuem soluções analíticas, mas sistemas não-lineares, em geral, precisam ser resolvidos numericamente.

As primeiras tentativas de se usar a teoria do caos na descrição de mercados financeiros foi decepcionante (há um apanhado em [9]). Caos aqui refere-se ao determinismo de um pequeno número de equações diferenciais ou em diferenças capazes de exibir uma dinâmica extremamente complexa. Ou seja, apenas aparentemente há aleatoriedade. Embora a hipótese de que mercados financeiros são de fato caóticos ainda não possa ser descartada, os trabalhos em econofísica (que discutiremos abaixo) pressupõem que a dinâmica dos preços é estocástica, porém governada por leis de potência.

6. Criticalidade auto-organizada

É natural pensar que, para se atingir pontos críticos, seja necessária alguma intervenção externa. Porém, às vezes essa criticalidade é atingida espontaneamente pela natureza, fenômeno denominado criticalidade auto-organizada. A criticalidade auto-organizada parece surgir quando as partes de um sistema afastam-se lentamente do estado de equilíbrio, e onde as ações de cada parte individual são dominadas pelas interações com as demais partes do sistema.

Florestas são um bom exemplo de criticalidade auto-organizada. A rede de árvores forma um estado crítico onde, por exemplo, uma pequena faísca pode se alastrar de modo a destruir toda a floresta. Ou destruir apenas um pequeno número de árvores. Ou não ter efeito algum. Aqui também, uma lei de potência para a distribuição de incêndios foi observada: dobrando a área coberta pelo fogo, o incêndio fica 2.48 vezes mais difícil de acontecer [27]. Ainda, o modelo proposto para a propagação dos incêndios pode também ser usado no estudo da propagação de doenças em populações humanas, bastando trocar "árvores" por "pessoas" e "fogo" por "vírus". De fato, Rhodes e Anderson [40] explicam desta forma a distribuição de epidemias nas ilhas Faroe do Atlântico Norte.

7. Explicação física para os fractais e o ruído 1/f

Há um tipo de ruído oscilante que segue uma lei de potência que o relaciona inversamente com sua frequência f: o ruído 1/f. Este pode ser encontrado em uma grande variedade de sistemas, desde resistores e ampulhetas até o fluxo do rio Nilo e a luminosidade das estrelas. Bak et alli (1987) formularam uma teoria geral para o ruído 1/f e acabaram explicando a razão física para o surgimento dos fractais e, principalmente, para o aparecimento da criticalidade auto-organizada. Pela sua teoria, tanto o ruído 1/f como os fractais podem surgir na natureza sem a necessidade de intervenção externa (fine tuning).

Bak e colegas começaram estudando a dinâmica de um conjunto de pêndulos e concluíram que o ruído 1/f e os fractais são estados "minimamente estáveis" que se originam de processos dinâmicos que param precisamente no ponto crítico. Eles especularam que essa conclusão não dependia do sistema físico específico dos pêndulos: ela seria robusta se fosse escolhido outro sistema.

Para mostrar isso, eles voltaram à ampulheta, onde o ruído 1/f atua. Eles pensaram, mais especificamente, em uma pilha de areia. Como este experimento é de difícil realização, eles o estilizaram em um modelo de äutômatos celulares" [46]. Mais tarde, outros autores mostraram que o experimento pode ser feito, de fato, com grãos de arroz [14]. A explicação de Bak e colegas para as avalanches na pilha de areia será descrita em seguida.

8. O Papel do livre-arbítrio

A liberdade individual não oferece escapatória para a inevitabilidade da criticalidade. Mesmo que as pessoas interajam umas com as outras através de suas escolhas pessoais, existem, no entanto, padrões matemáticos definidos nas atividades do grupo. Tais padrões não podem nos auxiliar na previsão do que determinada pessoa irá fazer, mas podem ser capazes de dizer o que podemos esperar do aglomerado de pessoas. A teoria da psico-história de Isaac Asimov, descrita, em 1950, no seu romance de ficção científica Fundação, captura a essência do que estamos discutindo aqui.

O modo como pessoas se agregam em cidades e os padrões populacionais dentro destas podem ser explicados recorrendo a simples conceitos de teoria das transições de fase [47]. Cidades são possivelmente fractais. Se assim forem, não há um tamanho típico de cidade. Também não há necessidade de se recorrer à história ou geografia para explicar o surgimento das maiores cidades do mundo, por exemplo.

9. Avalanches

Pegue um punhado de arroz e deposite os grãos, um por um, em cima de uma mesa, de modo a formar uma pilha. A pilha não crescerá para sempre. A adição de um grão a mais, cedo ou tarde, provocará uma avalanche. Mas este grão será especial apenas porque caiu no lugar certo e na hora certa. A adição de um grão poderia não ter tido nenhum efeito, ou então precipitado uma pequena avalanche. Mas poderia ter derrubado toda a estrutura. Podemos prever a freqüência das avalanches, mas não quando ela irá ocorrer ou seu tamanho. Não é surpreendente que as avalanches maiores ocorrerão com menor freqüência que as menores. O que é surpreendente é que temos novamente uma lei de potência: dobrando o tamanho da avalanche de grãos, estas se tornam duas vezes menos freqüentes [3], [14]. A aparente complexidade de uma pilha de grãos colapsa na simplicidade e na ordem oculta de uma lei de potência.

10. Terremotos

Se a crosta terrestre estiver em estado crítico, torna-se praticamente impossível prever quando ocorrerá um terremoto e, além disso, quão destrutivo ele será. A previsão de terremotos vem sendo feita há pelo menos 100 anos com sucesso limitado [16].

As placas continentais podem se movimentar lentamente. Isto não necessariamente acarreta a reorganização da crosta, já que os atritos mantêm as placas em seus lugares. Mas os pequenos movimentos colocam as placas sob estresse. Quando esse estresse ultrapassa certo valor, o chão se move e se reorganiza de modo súbito e violento.

Os terremotos distribuem-se em função da energia liberada, de acordo com a lei de potência conhecida como lei de Gutenberg-Richter:

onde N é o número de terremotos e E, a energia. Dobrando a energia de um terremoto, ele se torna quatro vezes menos freqüente. A distribuição dos terremotos é fractal, logo invariante na escala. O que provoca pequenos terremotos é o mesmo que provoca grandes terremotos, se os considerarmos um fenômeno crítico.

11. Extinção de espécies

A vida na Terra sofre de esporádicos e catastróficos episódios de colapso. Houve pelo menos cinco grandes extinções de espécies na história terrestre [45]. Muitos biólogos não acreditam que apenas a seleção natural seja capaz de provocar extinções, devendo existir fatores exógenos em ação. No entanto, é possível que extinções em massa possam resultar da própria dinâmica da evolução, como um fenômeno crítico. Uma lei de potência foi, de fato, observada na análise de fósseis [43]. Curiosamente, ela é idêntica à lei de potência da distribuição de terremotos: dobrando o tamanho da extinção (medida pelo número de famílias extintas), ela torna-se quatro vezes mais difícil de ocorrer. Talvez não seja necessário que ocorram choques exógenos, como a conhecida tese do meteoro que caiu no México e provocou a extinção dos dinossauros. Talvez pequenos eventos endógenos (similares à queda do grão de areia ëspecial" que provoca a avalanche) expliquem as extinções em massa.

12. A Física da História

O conceito de criticalidade pode ser útil na compreensão de fatos históricos. A história é cheia de fatos tidos como inexplicáveis e imprevisíveis. Tomemos como exemplo a Primeira Guerra Mundial, um caso clássico de catástrofe não antecipada [6]. Hegel e Marx pensaram que a história fosse como o crescimento de uma árvore, que progride em direção a uma maturidade estável. Nessa linha, alguns autores [15] chegam até a especular que estamos nos aproximando do fim da história, visto que o mundo parece estar atingindo um equilíbrio final na universalização da democracia e do capitalismo. Outros, como Toynbee, acham que existem ciclos regulares de crescimento e declínio em todas as civilizações. Outra hipótese é a história ser completamente aleatória, sem nenhum padrão perceptível. A este respeito, H. A. L. Fisher observou (citado por Buchanan [7]) que há apenas uma regra segura para o historiador: aceitar que o desenvolvimento humano é governado pela contingência e pelo acaso.

Entretanto, ainda parece haver padrões indiscutíveis na história, sendo um exemplo óbvio o aumento de nosso conhecimento científico e tecnológico. Talvez a história seja caótica, no sentido dado pela teoria dos sistemas dinâmicos: aparenta ser dada pelo acaso em seu funcionamento, embora não seja genuinamente estocástica. Ferguson [11] argumentou que este ponto-de-vista reconcilia as noções de causalidade e contingência.

A história pode ser ainda um sistema em estado crítico. Em uma "história crítica", eventos locais e imediatos controlam um suposto destino. A contingência adquire um papel muito importante. De fato, a contingência é a marca do estado crítico [1]. Nessa linha, Kennedy [20] sugeriu que o ritmo histórico das interações entre grandes potências é governado pela quantidade de estresse acumulado nos interesses nacionais em jogo. Isto força a alteração do equilíbrio geopolítico. Comumente o estresse é äliviado" através de conflitos armados, após os quais a influência de cada nação chega a novo equilíbrio de acordo com o poder econômico real de cada uma. As guerras surgem, então, de acordo com os mesmos padrões estatísticos de avalanches e terremotos. Estatísticas dos últimos cinco séculos revelam uma lei de potência na distribuição de guerras [24]. Sempre que o número de mortes dobra, guerras deste tamanho são 2.62 vezes menos comuns (Fig. 6).



Outro aspecto interessante aqui é que, quando um conflito é iniciado, não há como prever o seu tamanho. Aparentemente não há nada especial que torne um conflito em uma grande guerra. Tem sido sugerido que o mesmo modelo matemático utilizado na descrição de incêndios florestais consegue explicar os elementos cruciais de como um conflito se espalha [44]. Uma guerra começaria de modo similar a um incêndio florestal.

13. Sobre a História da Ciência

Um dos maiores feitos de Thomas Khun [23] foi mostrar que a ciência é capaz de funcionar apesar do fato de os cientistas serem humanos, e não änjos". Pode-se até argumentar que ele descobriu um padrão de mudança universal ainda mais profundo do que ele mesmo pensava. Khun viu a ciência como um sistema de acúmulo e alívio de estresse que influencia sua própria história. Um trabalho científico revela inconsistências e gera certo estresse no mainstream. Quando este desajuste atinge certo nível, a ciência em vigor pode desabar: ocorre uma revolução no sistema. As novas idéias são incorporadas e as outras abandonadas, de modo análogo ao deslocamento das placas continentais. Revoluções científicas seriam parecidas com os terremotos.

Toda nova idéia em ciência é como um grão caindo sobre a pilha de conhecimento. Cada artigo científico é um pacote de idéias que, quando colocado na rede de conhecimento, provoca um certo rearranjo. Para verificar quanto "terremoto" um determinado artigo provoca, podemos checar o número de vezes que este é citado por outros. Novamente, não iremos encontrar nenhuma escala típica de citações para um artigo. A distribuição de citações segue uma lei de potência [39]: toda vez que o número de citações dobra, o número de artigos que recebem citações diminui em oito vezes (Fig. 7).


Se a história da ciência estiver em estado crítico, as conseqüências de uma nova idéia qualquer podem não depender muito de sua profundidade, mas apenas de onde ela cair sobre a pilha de conhecimento.

14. Econofísica

Se os mercados financeiros forem também criticamente organizados, crashes em bolsas de valores não seriam anomalias, mas eventos ordinários (embora raros). Quando oferta e demanda se encontram em mercados eficientes, o preço expressa o valor compatível com os "fundamentos" estruturais da economia. Na ausência de grandes choques de demanda e oferta, teremos que esperar apenas a ocorrência de pequenas flutuações para ajustar excessos de demanda e oferta. Grandes variações de preços seriam altamente improváveis. Em outras palavras, as variações do preço teriam que se comportar de acordo com uma distribuição gaussiana. Seriam um random walk, na linguagem da física estatística.

Não houve nenhum grande choque justificando bruscas alterações nos fundamentos em 19 de outubro de 1987. Mas este foi o dia de um crash financeiro quase duas vezes mais severo do que o colapso de 1929. O índice Dow Jones caiu 22% neste dia, que ficou conhecido como Black Monday (Fig. 8).


É impensável atribuir ao evento uma súbita alteração nos fundamentos da economia que levou, em poucas horas, a uma queda de mais de 20% nos retornos das ações. Embora haja explicações a posteriori que apontam para alterações dos fundamentos, estas são pouco convincentes, dada a magnitude do crash. Há ainda a explicação pitoresca de que o crash foi provocado por erros em programas de computador, que venderam ações ininterruptamente assim que os preços começaram a cair.

Quando Mandelbrot [28] descobriu que não havia distribuição gaussiana nem escala típica nas variações do preço do algodão, isto possibilitou encararmos grandes flutuações de preço como resultado de um arranjo "natural" no funcionamento dos mercados. Ou seja, estes podem oscilar ferozmente de tempos em tempos mesmo que nada de excepcional ocorra nos fundamentos da economia (veja também [30] e [2]).

As funções de distribuição mais adequadas para a análise do problema não podem então decair exponencialmente, como a gaussiana. Eles devem decair seguindo uma lei de potência, caracterizando ausência de escala. As distribuições usadas por Mandelbrot foram as distribuições de Lévy, como observamos anteriormente.

Cada vez mais leis de potência são descobertas, em mercados financeiros, pelos econofísicos. Para enumerar apenas algumas, as flutuações no índice S&P 500 mostraram ser dezesseis vezes menos freqüentes cada vez que dobramos seu valor [19]. Leis de escala neste índice também foram observadas por Mantegna e Stanley [32]. Uma lei de potência similar vale para os preços de ações de companhias individuais [38]. Leis de potência foram observadas na bolsa de Milão [31] e, por nós, na bolsa de São Paulo [17], bem como em taxas de câmbio [12], [36]. Leis de potência foram ainda observadas na volatilidade dos mercados, sugerindo a inexistência de um tamanho típico para os "pânicos financeiros" [25].

A lei de Pareto é uma lei de potência clássica. Graças a isto, algumas vezes as distribuições de Lévy são chamadas de Pareto-Lévy. Bouchaud e Mezard [4] revisitaram a lei de Pareto para observar que, se levarmos em conta o número de pessoas nos Estados Unidos que possuem 1 bilhão de dólares, encontraremos que um número quatro vezes maior de pessoas possuirá meio bilhão, e um número quatro vezes maior que esse possuirá um quarto de bilhão, e assim por diante.

As leis de potência podem conviver pacificamente com a teoria financeira vigente. De fato, os econofísicos propõem uma certa conciliação. Uma vez que não descartam a hipótese de mercados eficientes, eles apenas reduzem a sua significância a um caso limite.

Os economistas da área de finanças internacionais estão entre aqueles que têm mais chance de tratar os mercados financeiros como um sistema crítico. Afinal, como Krugman [21] observa, a maioria dos economistas de hoje acha que os mercados internacionais estão mais para a irracionalidade e instabilidade, descritas por Keynes, do que para o modelo de mercados eficientes de finanças. Aliás, o próprio Krugman já tentou aplicar os conceitos de criticalidade na economia [22].

Resta-nos observar que, se a macroeconomia for um sistema criticamente organizado, um certo choque não pode ser culpado por desestabilizá-la. A maneira como a economia e suas instituições estão desenhadas para responder aos choques seria o fator mais importante.

15. Conclusão

Em que sentido terremotos, incêndios florestais, extinções de espécies e crashes de bolsas de valores são eventos similares? Como um evento tumultuoso como o crash de 1987 chegou sem aviso? Todos esses eventos podem ser grandes flutuações que surgem universalmente em sistemas que se encontram fora do equilíbrio em um estado crítico. A organização destes sistemas não depende da natureza precisa das coisas envolvidas, mas somente da maneira como as influências se propagam de um lugar a outro. Aqui, eventos raros surgem a partir do mero acúmulo e posterior liberação de estresse.

Assim como é tentador buscar grandes causas por trás de terríveis terremotos ou extinções em massa, é também tentador buscar grandes pessoas por trás dos grandes eventos históricos. Entretanto é possível que a única causa geral para tais eventos seja a organização interna de um estado crítico, que faz com que eventos raros sejam não apenas possíveis mas inevitáveis. Os fundamentos de um estado crítico refletem-se em leis estatísticas simples: leis de potência, que não possuem escala característica, revelando a ausência de um "tamanho" esperado para o próximo evento.

Agradecimentos

Agradecemos a Martha Scherer (bolsista do CNPq, UFRGS) pelo apoio logístico.

[2]< Per Bak, K. Chen, José A. Scheinkman e Michael Woodford, Ricerche Economiche 47, 30 (1993).

Recebido em 23/02/04

Aceito em 13/05

  • [1] Per Bak, New Scientist 11 November, 56 (2000).
  • [3] Per Bak, Chao Tang e Kurt Wiesenfeld, Physics Review Letters 59, 381 (1987).
  • [4] Jean-Philippe Bouchaud Marc Mezard, Physica A 282, 536 (2000). Disponível em http://xxx.lanl.gov/abs/cond-mat/0002374
  • [5] Mark Buchanan, New Scientist 19 August, 22 (2000a).
  • [6] Mark Buchanan, Ubiquity: The Science of History... Or Why the World is Simpler than we Think (Weidenfeld & Nicolson, London, 2000b). Disponível em http://www.amazon.com/exec/obidos/ASIN/060960810X/qid=1003852427/sr=2-1/ ref=sr_2_11_1/103-5772439-9275016
  • [7] Mark Buchanan, New Statesman 9 October (2000c).
  • [8] P. Cootner, The Random Character of Stock Market Prices (The MIT Press, Cambridge, 1964) .
  • [9] Sergio Da Silva, Estudos Empresariais 6, 9 (2001). Disponível em http://www.angelfire.com/id/SergioDaSilva/chaosandexch.html
  • [10] J. Doyne Farmer e Andrew W. Lo, Frontiers of Finance: Evolution and Efficient Markets (Santa Fe Institute Working Paper # 99-06-039 1999). Disponível em http://www.santafe.edu/sfi/publications/Working-Papers/99-06-039E.pdf
  • [11] Niall Ferguson, in Virtual History: Towards a "Chaotic" Theory of the Past, editado por Niall Ferguson Virtual History (Picador, London, 1997).
  • [12] Annibal Figueiredo, Iram Gleria, Raul Matsushita, e Sergio Da Silva, Physica A 323, 601 (2003a).
  • [13] Annibal Figueiredo, Iram Gleria, Raul Matsushita e Sergio Da Silva, Physics Letters A 315, 51 (2003b).
  • [14] V. Frette, K. Christensen, A.M. Sorenssen, J. Feder, T. Jossang e P. Meakin, Nature 379, 49 (1996).
  • [15] Francis Fukuyama, The End of History and the Last Man (Penguin, London, 1992).
  • [16] Robert J Geller, Geophysical Journal International 131, 425 (1997).
  • [17] Iram Gleria, Raul Matsushita e Sergio Da Silva, Economics Bulletin 7, 1 (2002) .
  • [18] Marvin Goodfriend e Robert G. King, NBER Macroeconomics Annual 231 (1997).
  • [19] Parameswaran Gopikrishnan, Martin Meyer, Luis A.N. Amaral e H. Eugene Stanley, The European Physical Journal B 3, 139 (1998).
  • [20] Paul Kennedy, The Rise and Fall of the Great Powers (Random House, Inc New York, 1987).
  • [21] Paul R. Krugman, Oxford Review of Economic Policy 5, 61 (1989).
  • [22] Paul R. Krugman, The Self-Organizing Economy (Blackwell, Oxford, 1996).
  • [23] Thomas S. Kuhn, The Structure of Scientific Revolutions (The University of Chicago Press, Chicago, 1996).
  • [24] Jack S. Levy, War in the Modern Great Power System 1495-1975 (University of Kentucky Press, Lexington, 1983).
  • [25] Yanhui Liu, Parameswaran Gopikrishnan, Pierre Cizeau, Martin Meyer, Chung-Kang Peng e H. Eugene Stanley, Physical Review E 60, 1390 (1999).
  • [26] Thomas Lux, e Michele Marchesi, Nature 397, 498 (1999).
  • [27] Bruce Malamud, Gleb Morein, e Donald Turcotte, Science 281, 1840 (1998).
  • [28] Benoit B. Mandelbrot, Journal of Business 36, 394 (1963).
  • [29] Benoit B. Mandelbrot, The Fractal Geometry of Nature (W.H. Freeman and Co, New York, 1982).
  • [30] Benoit B. Mandelbrot, Fractals and Scaling in Finance (Springer-Verlag, New York, 1997) .
  • [31] Rosario N. Mantegna, Physica A 179, 232 (1991).
  • [32] Rosario N. Mantegna, e H. Eugene Stanley, Nature 376, 46 (1995).
  • [33] Rosario N. Mantegna, e H. Eugene Stanley, An Introduction to Econophysics: Correlations and Complexity in Finance (Cambridge University Press, Cambridge, 2000). Disponível em http://www.amazon.com/exec/obidos/ASIN/0521620082/qid= 992110313/104-4526059-4459158
  • [34] Raul Matsushita, Pushpa Rathie e Sergio Da Silva, Physica A 326, 544 (2003).
  • [35] Raul Matsushita, Iram Gleria, Annibal Figueiredo e Sergio Da Silva, Economics Bulletin 7, 1 (2003).
  • [36] Ulrich A. Müller, Michel M. Dacorogna, Richard B. Olsen, Olivier V. Pictet, Matthias Schwarz e Claude Morgenegg, Journal of Banking & Finance 14, 1189 (1990).
  • [37] Heinz-Otto Peitgen, Hartmut Jurgens e Dietmar Saupe, Chaos and Fractals: New Frontiers of Science (Springer-Verlag, New York, 1992).
  • [38] Vasiliki Plerou, Parameswaran Gopikrishnan, Luis A.N. Amaral, Martin Meyer e H. Eugene Stanley, Los Alamos E-Print cond-mat/9907161, 11 July (1999). Disponível em http://arxiv.org/PS_cache/cond-mat/pdf/9907/9907161.pdf
  • [39] Sidney Redner, The European Physical Journal B 4, 131 (1998).
  • [40] Rhodes, Chris J. e Anderson, Roy M. (1996) 'Power laws governing epidemics in isolated populations', Nature 381: 600-2.
  • [41] S.R.A. Salinas, Introdução à Física Estatística (Edusp, São Paulo, 1999).
  • [42] Robert Skidelsky, The Economist 25 November, 83 (2000). Disponível em http://www.economist.com/opinion/displayStory.cfm?Story_ID=431717
  • [43] Ricard V. Solé e Susanna C. Manrubia, Physical Review E 54, R42-5 (1996).
  • [44] Donald L. Turcotte, Reports on Progress in Physics 62, 1377 (1999).
  • [45] Gail Vines, New Scientist 11 December, 1 (1999).
  • [46] Stephen Wolfram, A New Kind of Science (Wolfram Media Inc, Champaign, 2002).
  • [47] Damian Zannete e Susanna Manrubia, Physics Review Letters 79, 523 (1997).
  • Endereço para correspondência
    Sergio Da Silva
    E-mail:
  • Datas de Publicação

    • Publicação nesta coleção
      01 Out 2004
    • Data do Fascículo
      2004

    Histórico

    • Aceito
      13 Maio 2004
    • Recebido
      23 Fev 2004
    Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
    E-mail: marcio@sbfisica.org.br