Acessibilidade / Reportar erro

A probabilidade na mecânica estatística clássica

Probability in classical statistical mechanics

Resumos

Boltzmann foi um dos criadores da mecânica estatística, disciplina que combina, de forma surpreendente, a mecânica, o atomismo e a probabilidade. Neste artigo comemorativo discutimos dois aspectos da interpretação e uso de idéias probabilísticas na mecãnica estatística clássica: o conceito de ensemble a a noção de tipicalidade.

mecânica estatística; probabilidade; ensembles; Boltzmann; tipicalidade


Boltzmann was one of the creators of statistical mechanics, a discipline which combines, in a surprising fashion, mechanics, atomism and probability. This comemorative paper discusses two aspects of the use and interpretation of probabilistic ideas in classical statistical mechanics, namely, the notion of ensemble and of typicality.

statistical mechanics; probability; ensembles; Boltzmann; typicality


SEÇÃO ESPECIAL: CENTENÁRIO DA MORTE DE LUDWIG BOLTZMANN (1844-1906)

A probabilidade na mecânica estatística clássica

Probability in classical statistical mechanics

Sérgio B. Volchan1 1 E-mail: volchan@mat.puc-rio.br.

Departamento de Matemática, Pontifícia Universidade Católica do Rio de Janeiro, Rio de Janeiro, RJ, Brasil

RESUMO

Boltzmann foi um dos criadores da mecânica estatística, disciplina que combina, de forma surpreendente, a mecânica, o atomismo e a probabilidade. Neste artigo comemorativo discutimos dois aspectos da interpretação e uso de idéias probabilísticas na mecãnica estatística clássica: o conceito de ensemble a a noção de tipicalidade.

Palavras-chave: mecânica estatística, probabilidade, ensembles, Boltzmann, tipicalidade.

ABSTRACT

Boltzmann was one of the creators of statistical mechanics, a discipline which combines, in a surprising fashion, mechanics, atomism and probability. This comemorative paper discusses two aspects of the use and interpretation of probabilistic ideas in classical statistical mechanics, namely, the notion of ensemble and of typicality.

Keywords: statistical mechanics, probability, ensembles, Boltzmann, typicality

1. Introdução

A segunda metade do século XIX foi um período de intensas investigações relacionadas à compatibilidade entre as três grandes áreas da Física da época: a mecânica, a termodinâmica e o eletromagnetismo. Assim, o estudo da radiação de corpo negro estava ligado à compatibilidade entre a termodinâmica e o eletromagnetismo; a teoria do elétron de Lorentz foi uma tentativa de reconciliar a mecânica e o eletromagnetismo; e a teoria cinética dos gases de Maxwell-Boltzmann investigava as relações entre a mecânica e a termodinâmica.

Ainda que motivadas por problemas específicos2 2 Por exemplo, a catástrofe ultravioleta, a questão do éter, o problema da violacão da Lei de Dulong-Petit, etc. tais investigações, situadas no entroncamento de duas ou mais disciplinas, usualmente trazem à tona questionamentos mais gerais, de natureza filosófica. De certa forma isto é natural: por exigir uma análise cuidadosa e profunda dos conceitos e da própria estrutura das teorias físicas, se faz mais premente a necessidade de explicitar e examinar os vários pressupostos, que normalmente permanecem em segundo plano. De todo modo é interessante observar como que, para além da consistência interna das teorias, o requisito de coerência interteórica tende a firmar-se como um critério adicional de validação da Física como uma ciência que atingiu sua maturidade3 3 Tal preocupacão unificadora/organizadora também era sentida na Matemática, ligada ao movimento de rigorizacão e das investigacões axiomáticas. Vem à mente o exemplo de Hilbert, um matemático que teve papel crucial no desenvolvimento da axiomática moderna e que tinha profundo interesse na Física [1]. .

Esse tipo de questionamento, longe de ser um mero exercício de especulação, revelou-se imensamente frutífero e as soluções dadas àquelas questões ampliaram enormemente o escopo da Física, atestando cabalmente sua profunda unidade (de uma forma, porém, insuspeitada e surpreendente para alguns daqueles pioneiros). Foi o que se verificou na virada do século, nas revoluções quântica e relativística.

Apesar de não ser própriamente um revolucionário, Boltzmann foi um exemplo emblemático de um físico teórico de renome cuja visão filosófica norteou de forma explícita sua pesquisa. Isto é particularmente claro com respeito a sua investigação (que exerceu forte impacto sobre Planck e Einstein) sobre a compatibilidade entre a mecânica e a termodinâmica, em cujo fulcro estava a antiga controvérsia sobre o atomismo [2].

É preciso lembrar que a teoria atômica da matéria, apesar de muito antiga e bastante difundida, não era universalmente aceita na época. Para alguns, os átomos eram apenas uma ferramenta útil na descrição de certos fenômenos, como as reações químicas. Outros, como os físicos da escola dos ''energeticistas'', negavam a sua existência, afirmando que estava fora do escopo da física lidar com entidades hipotéticas não-observáveis4 4 Os energeticistas achavam que a ''energia'' era o ''princípio'' fundamental. É curioso notar que eles consideravam a termodinâmica como modelo ideal de teoria física; entretanto, a termodiâmica contém, como aliás toda teoria física não-trivial, grandezas não-observáveis, entre as quais a entropia é uma das mais intangíveis. .

A controvérsia sobre a realidade dos átomos (problema ontológico por excelência) estava, portanto, ligada a outra, mais profunda, sobre concepções distintas do que é a ciência Física. Cabe ressaltar que o ponto de vista de Boltzmann, segundo o qual o progresso na Física se faz postulando entidades ''simples'' não-diretamente observáveis5 5 É claro que as entidades físicas postuladas não devem ser inescrutáveis, devendo ser sujeitas a testes experimentais indiretos, requisitos de consistência, etc. a fim de explicar o comportamento de sistemas ''complexos'' é extremamente importante: de fato (e contra a visão positivista) esta é a marca registrada da Ciência moderna, sendo um dos métodos mais comuns de alteração de sua base ontológica6 6 Para um exemplo em Biologia, temos os ''átomos'' ou ''fatores'' hereditários postulados por Mendel (que havia estudado Física) e posteriormente identificados como os genes. Pode também ocorrer que a base ontológica de uma teoria seja alterada descartando certos não-observáveis. Por exemplo, a teoria da relatividade restrita levou ao abandono de uma entidade não-observável, o éter. Porém, ao mesmo tempo, alcou os campos eletromagnéticos ao status de novas entidades físicas independentes, isto é, não-mecânicas. .

Como se sabe, a questão foi finalmente decidida através do brilhante trabalho experimental de Perrin e pelos métodos de mecânica estatística empregados por Einstein e Smoluchowsky em seus trabalhos sobre o movimento browniano. Este último é, ademais, ponto de partida para um tópico central em Teoria da Probabilidade: a teoria dos Processos Estocásticos. De fato, um dos primeiros trabalhos rigorosos sobre o assunto foi feito por Wiener em 1923 que expressamente pretendia dar sentido às ''trajetórias não-diferenciáveis'' das partículas Brownianas observadas por Perrin. Assim, se incluirmos a Teoria Ergódica, Boltzmann esteve ligado (ainda que indiretamente) à criação de pelo menos dois novos ramos da Matemática7 7 Também teve influência em outros dois: a axiomatizacão da probabilidade e a teoria das equacões integro-diferenciais. . Em suma, ainda que não exatamente revolucionária a controvérsia sobre o atomismo foi muito importante e influente, sendo um importante passo na clarificação da estrutura (pré-quântica) da matéria.

Foi em sua tentativa de rebater as profundas críticas dirigidas à teoria cinética e formuladas através dos chamados ''paradoxos da irreversibilidade'' [3] que Boltzmann lançou mão de argumentos e noções probabilísticas e que ainda hoje são fonte de controvérsia e mal-entendidos8 8 Maxwell já havia usado idéias probabilísticas em seu trabalho sobre a distribuicão de velocidades em um gás em equilíbrio, um contexto porém considerado não-controverso. .

A seguir, examinamos alguns aspectos destes argumentos no intuito de tentar clarificar o seu significado e seu status explicativo. Posteriormente focalizamos duas noções fundamentais na mecânica estatística clássica: os ensembles e a tipicalidade.

2. O papel da probabilidade

O estudante de Física, em seu primeiro contato com a mecânica estatística, fica intrigado com sua natureza aparentemente ''esquizofrênica''. Muitos livros-texto começam discutindo um modelo microscópico clássico de um gás, ou seja, um sistema mecânico Hamiltoniano de muitas partículas interagindo sob um potencial do tipo Lennard-Jones e confinado numa caixa isolada. Mas, logo em seguida, introduz-se uma densidade de probabilidade no espaço de fase do sistema (na superfície de energia fixa) e estuda-se sua evolução temporal sob a dinâmica Hamiltoniana, etc. Qual a justificativa dada para invocar tal noção probabilística?

Um argumento tradicional segue a linha operacionalista: ora, é impossível conhecer com precisão a posição e velocidade de todas as partículas do gás9 9 E aqui se acrescenta às vezes comentários sobre a suposta conexão com o princípio de Heisenberg, o que ao mesmo tempo aumenta a confusão e revela a origem quântico-operacionalista a la Copenhage do argumento. ; além do mais, continua o argumento, mesmo que tivéssemos tal informação seria inútil resolver um sistema da ordem de 1023 equações diferenciais; portanto, para estudar tal sistema é necessário lançar mão de outros meios, a saber, métodos estatísticos.

Apesar de conter certos elementos importantes, este argumento é confuso e em última análise, inadequado. Para começar (e dentro da tradição operacionalista) mistura conceitos epistemológicos, ontológicos e metodológicos. Assim, nossa inabilidade em obter com precisão infinita as condições iniciais é um fato inevitável e com importantes conseqüências com respeito à análise experimental de modelos e os limites da predizibilidade em sistemas dinâmicos. Entretanto, não diz respeito diretamente ao sistema físico estudado que não se importa com nossas limitações humanas. Além disso, a imprecisão de medições ocorre mesmo em sistema de poucas partículas, não estando intrínsicamente associado ao grande número delas, como é o caso em mecânica estatística.

Também com respeito à questão da ''resolubilidade'' das equações de movimento, é preciso ter cuidado. Primeiro, trata-se de uma questão talvez mais relevante para os fundamentos da mecânica estatística fora-do-equilíbrio do que em equilíbrio, uma vez que nessa última a dinâmica é de certa forma ''posta sob o tapete''10 10 Supostamente por meio da hipótese ergódica. . É claro que, do ponto de vista matemático, é um tópico muito importante, interessante e difícil. É preciso antes de mais nada clarificar o que se entende por sistema dinâmico ''solúvel'' e existem várias noções: sistemas ''exatamente'' solúveis (por meio de funções especiais ou séries), sistemas Hamiltonianos integráveis, etc. A partir daípode-se então perguntar se um dado sistema é solúvel ou estudar toda uma classe de tais sistemas, etc.

Um ponto importante (e que levou cerca de dois séculos para ser reconhecido) é o fato de que nem sempre a obtenção de soluções ''fechadas'' das equações de movimento é útil para entender o seu comportamento assintótico (i.e., para tempos longos). Mas isto não é privilégio de sistemas com grande número de graus de liberdade. Um exemplo muito esclarecedor é o problema dos três corpos em mecânica celeste: trata-se de um sistema não-integrável (no sentido preciso da mecânica Hamiltoniana) cuja solução analítica (por meio de uma série convergente, obtida por Sundman em 1909 [4]) converge tão lentamente que acaba por não ser muito útil para entender o comportamento assintótico do sistema. Ou seja, soluções ''exatas'' podem ser tanto ''inúteis'' quanto mesmo desnecessárias, filosofia que está na base da teoria qualitativa de sistemas dinâmicos inaugurada por Poincaré no final do século XIX.

Porém mais relevante para a compreensão do uso de conceitos estatísticos em sistemas de muitas partículas seja o fenômeno da ''decimação'' de graus de liberdade, característico da passagem da descrição microscópica para a macroscópica de um sistema. Em outras palavras, na mudança de escalas. Realmente, enquanto que descrição microscópica de um gás requer um grande número de graus de liberdade (todas as posições e velocidades de todas as partículas), o sistema macroscópico correspondente é descrito, em equilíbrio, através de número muito menor de parâmetros, tais como pressão, temperatura e volume11 11 Fora do equilíbrio esta decimacão é de certa forma ilusória, pois então lida-se com campos de pressão, temperatura, etc, que são grandezas em espacos de dimensão infinita. .

Esta constatação sugere que um procedimento de ''promediação'' está em jogo, no qual a estatística serve de ponte entre as descrições micro e macroscópica. Note que a tomada de médias não implica necessariamente que o sistema em pauta tenha algum caráter intrinsecamente ''aleatório'' (em algum sentido): pode ser simplesmente que os detalhes não sejam importantes [6]. Esta é uma interpretação plausível para o conceito de ensemble que revemos em seguida.

3. Ensembles

A noção de ''ensemble estatístico'' parte da seguinte observação crucial. Seja F: WL,N® uma função de estado ''relevante'' (usualmente ligada às grandezas conservadas, como energia, momento, etc) no espaço de fase WL,N de um sistema de N partículas numa região L Ì 3 (e.g., um gás). Então, se F é um valor, em equilíbrio, da grandeza macroscópica associada, então em geral existem vários microestados w no espaço de fase compatíveis com este valor.

Desta forma, é natural esperar que o subconjunto GF = {w Î WL,N:F(w) = F} seja importante na passagem da descrição micro-macro. Sua relevância pode ser avaliada pelo ''tamanho'' relativo deste subconjunto no espaço de fase através, por exemplo, do seu volume relativo, ou mais especificamente, por sua medida de Lebesgue. Pelo teorema de Liouville esta é uma medida invariante do sistema, de forma que esta escolha é de certa forma ''natural'' no estudo de sistemas em equilíbrio, em que as grandezas macroscópicas independem do tempo.

No caso de um sistema isolado é natural restringir-se a superfície de energia fixa U do sistema e a medida de Lebesgue ''reduzida'' a esta superfície segue sendo invariante. O novo espaço de fase WL,N,U tem volume total finito e portanto a medida de Lebesgue pode ser normalizada para obtermos uma medida de probabilidade P no espaço de fase. Desta forma todas as técnicas da teoria da probabilidade se aplicam. Note porém que não há qualquer ''ingrediente estocástico'' intrínseco envolvido aqui, como também nada sobre ''ignorância'' sobre os estados do sistema, etc. Trata-se simplesmente de usar P para estimar o tamanho relativo de subconjuntos de microestados do sistema.

Torna-se então mais plausível12 12 Uma justificativa, digamos dinâmica, deste postulado é, porém, uma outra discussão! o postulado fundamental da mecânica estatística no equilíbrio ou Princípio de Boltzmann-Gibbs: para toda função de estado ''relevante'' F no espaço de fase o correspondente valor macroscópico em equilíbrio é dado pelo valor esperado (ou valor médio) de F com respeito a uma medida de probabilidade ''adequada'' P (talvez quando N ® ¥):

F = < F >p º F(w) P (d w).

Do ponto de vista da física-matemática moderna, um ensemble nada mais é que uma família de medidas de probabilidade invariantes indexadas pelos parâmetros macroscópicos do sistema estudado e satisfazendo o Princípio de Boltzmann-Gibbs. Ademais, exige-se que o ensemble seja ortódico, isto é, que sob variações infinitesimais os parâmetros devem satisfazer as relações usuais da termodinâmica do equilíbrio para o sistema macroscópico dado. No caso de um fluido homogêneo a pressão p, o volume V, a energia U e a temperatura T, definidos como médias de funções de estado microscópicas13 13 Por exemplo, T é a energia cinética média. devem ser tais que

é um diferencial de uma função S = S(U,V) que é naturalmente identificada com a entropia.

Como se sabe, há vários tipos de ensembles demonstravelmente ortódicos (em alguns casos somente no limite termodinâmico), e.g., microcanônico, canônico, gran-canônico, entre outros, adequados a cada tipo de situação do sistema. [5] Um elemento P de um ensemble é as vezes chamado de ''estado estatístico'' do sistema, o que é uma noção equivocada14 14 Provavelmente outra influência da interpretacão tradicional da mecânica quântica. . De fato, um microestado do sistema é um ponto do espaço de fase enquanto que um macroestado, por exemplo, de um fluido homogêneo, é dado por um par de valores de (U,V) ou (p,V). O significado mais adequado de uma tal medida é a de ser um conceito-ponte ou de ligação entre os níveis de descrição macro e micro do sistema. Realmente, por um lado, sendo uma medida de probabilidade no espaço de fase, um elemento do ensemble se refere aos microestados; ao mesmo tempo, sendo indexado pelos parâmetros termodinâmicos do sistema, refere-se também ao nível macro.

4. Tipicalidade

Um outro papel para a probabilidade em mecânica estatística é a de fornecer uma noção de tipicalidade. De forma muito geral, uma propriedade de um sistema é típica quando, apesar de não ser satisfeita para todos os estados (ou parâmetros) do mesmo, é todavia satisfeita para a ''vasta maioria'' deles, de acordo com algum critério de ''tamanho''.

As noções de tamanho de subconjuntos tradicionalmente usadas em matemática são a topológica e a da teoria da medida, sendo as relações entre elas por vezes bastante complexas15 15 A nocão de cardinalidade de conjuntos, que mede o seu tamanho em termos de número de pontos (ou potência), não é tão relevante aqui uma vez que usualmente os conjuntos com os quais se lidam em aplicacões tem pelo menos a cardinalidade do continuum. . A tipicalidade topológica (ou genericidade) é técnicamente complicada e não iremos discutí-la aqui. Apenas observamos que é muito utilizada na teoria de sistemas dinâmicos para obter informações interessantes sobre classes de sistemas ''típicos''. Um exemplo interessante: pode-se mostrar que a vasta maioria dos sistemas Hamiltonianos ''suaves'' não é nem ergódico nem integrável [7].

A tipicalidade em espaços W munidos de uma medida µ16 16 Mais precisamente um espaco de medida é uma tripla (W, , µ), onde W é um conjunto não-vazio qualquer, uma colecão de subconjuntos de W com estrutura de s-álgebra (os conjuntos ditos mensuráveis) e m uma funcão de conjunto não negativa e contavelmente aditiva em . é mais intuitiva, dada nossa experiência com áreas e volumes. Grosso modo, uma propriedade é µ-típica quando o conjunto Ãcº W-Ã = {w Î W: (w)}c das exceções tem medida ''muito'' pequena, isto é, µ(w-Ã) < , para uma tolerância 0 < 1.

Por exemplo, na reta real com a medida usual de Lebesgue (comprimento) a propriedade ''ser um número irracional'' é típica no sentido de que vale exceto em um conjunto de medida zero. Se nos restringirmos ao intervalo [0,1], a medida de Lebesgue torna-se uma medida de probabilidade e costuma se dizer que um número real ''tomado ao acaso'' em [0,1] é irracional com probabilidade um. Mas, apesar da linguagem probabilística, trata-se apenas de dizer que os racionais formam um subconjunto de comprimento zero na reta. Note que apesar de ''vasta maioria'' dos números reais serem irracionais, é não-trivial demonstrar a irracionalidade de um número real específico.

É importante ter em mente que a noção de tipicalidade é relativa à medida utilizada. No exemplo acima se, ao invés da medida de Lebesgue, tomarmos a medida de Dirac µ = , onde x0 é racional17 17 Isto é, se A Ì , tem-se ( A) = 1, se x 0Î A e 0, se x 0 A. , então agora a propriedade ''ser racional'' é que é típica e os irracionais é que são atípicos! É claro que se poderia argumentar aqui que a medida de Lebesgue é ''mais natural'' pois corresponde à intuição geométrica.

Em mecânica estatística do equilíbrio, poderíamos dizer que uma propriedade no espaço de fase é típica se vale para todo w fora de um conjunto de probabilidade zero (ou alternativamente, de probabilidade suficientemente pequena). A motivação desta definição é que a integral de Lebesgue, no nosso caso, valores médios de funções de estado, não se altera se mudarmos a tal função num conjunto de probabilidade zero. Assim, a propriedade de ter energia total U é típica com respeito ao elemento PU,V do ensemble microcanônico.

Foi, porém, no contexto de problemas de mecânica celeste (particularmente o problema da estabilidade do sistema solar [8]) que, na segunda metade do século XIX, surge a noção de que certos conjuntos de condições iniciais que levam a situações ''catastróficas'' (por exemplo, afastamento dos planetas, colisões) são atípicos ou ''raros'' no sentido de terem medida zero. Um exemplo importante é dado pelo o famoso teorema de recorrência de Poincaré, que diz que para sistemas Hamiltonianos em espaços de fase compactos (por exemplo, com energia total fixa e num volume finito) a trajetória (ou órbita) do sistema retorna (infinitas vezes) para uma vizinhança do estado inicial, para quase-toda condição inicial. Isto é, a menos de um subconjunto de volume zero de exceções, o sistema é recorrente.

Se normalizamos o volume a um, temos uma medida de probabilidade (volume relativo) e diz-se que ''com probabilidade um o sistema é recorrente'' ou ainda que, ''tomando uma condição inicial ao acaso'' a trajetória associada é recorrente com probabilidade um. Porém, a rigor, não há nenhum ingrediente estocástico em jogo. Temos um sistema Hamiltoniano clássico e o resultado diz simplesmente que a vasta maioria das condições iniciais é recorrente18 18 Poincaré chama este resultado de ''estabilidade segundo Poisson'' e sua demonstracão não usa teoria da medida que é historicamente posterior. .

O teorema de Poincaré constitui uma formidável objeção à tentativa de deduzir as equações macroscópicas irreversíveis, por exemplo para o movimento de fluidos, a partir de um modelo mecânico microscópico Hamiltoniano. Ele foi usado por Zermelo na sua crítica ao teorema-H.

Boltzmann percebeu, corretamente, que tal dedução deve envolver algum tipo de limite quando o número de partículas tende a infinito. Entretanto ele não dispunha do aparato matemático técnico-formal nem mesmo para formular o problema de forma adequada, quanto mais para lhe dar uma resposta rigorosa. Para se ter uma idéia do tamanho do desafio, basta lembrar que Hilbert o incluiu como parte do sexto problema de sua lista, o de ''tratar da mesma forma [que a geometria], por meio de axiomas, aquelas ciências físicas nas quais a matemática tem importante papel; antes de tudo a teoria da probabilidade e a mecânica''19 19 Note a opinião, bastante comum na época, de que a teoria da probabilidade era parte da Física! . E continua:

Com relação aos axiomas da teoria da probabilidade, me parece desejável que sua investigação lógica seja acompanhada de um desenvolvimento rigoroso e satisfatório do método dos valores médios em física-matemática e em particular na teoria cinética dos gases.

E mais adiante:

Assim, o trabalho de Boltzmann sobre os princípios da mecânica sugere o problema de desenvolver matematicamente os processos de limite, lá meramente indicados, que levam do ponto de vista atomístico às leis do movimento do contínuo.[9]

A resolução rigorosa do problema da irreversibilidade/reversibilidade, seria obtido por uma demonstração da validade das equações fenomenológicas a partir do modelo mecânico microscópico. Em linhas gerais e na linguagem moderna, consistiria no seguinte ''programa'' [10]:

Seja F o estado macroscópico inicial do sistema (e.g., um fluido) e GF a correspondente coleção de microestados associados. Seja Ft o macroestado do sistema no instante t, evoluído de acordo com as equações fenomenológicas com condição inicial F0 = F. Se w(t) = Tt (w(0)) é o microestado obtido pela evolução temporal das equações microscópicas a partir de uma condição inicial w(0) Î GF, mostrar que tipicamente e em um limite adequado, tem-se que w(t) Î GFt.

Ou seja, a ''vasta maioria'' dos microestados iniciais associados ao macroestado dado evolui de forma a respeitar a evolução macroscópica fenomenológica. Este programa ainda está essencialmente em aberto. Há várias dificuldades técnicas ainda intransponíveis: primeiro, ao contrário do que ocorre na mecânica estatística do equilíbrio, não há aqui uma medida de tipicalidade ''natural'' óbvia a ser escolhida. Ademais, como está claro do teorema de recorrência, um resultado deste tipo só deve valer rigorosamente num limite adequado a cada situação e no qual o número N de partículas vai a infinito: limite de Boltzmann-Grad (para a equação de Boltzmann), limite hidrodinâmico (para a equação de Euler), etc.

Um avanço notável nesta direção é o teorema de Lanford [11], obtido em 1976, que é a primeira demonstração rigorosa da validade da equação de Boltzmann,

(r, v, t) + v · Ñf (r, v, t) = Q(f,f),

ao menos para tempos curtos e no limite de Boltzmann-Grad.

Lanford20 20 A propósito, trata-se do mesmo Lanford da equacão DLR (Dobrushin-Lanford-Ruelle), para caracterizacão de medidas de Gibbs. considerou um modelo microscópico de esferas rígidas de raio a > 0 interagindo por colisões elásticas. Ele provou o seguinte:

para condições iniciais ''típicas'' w(0) = (q1(0),v1(0), ..., qN(0),vN(0)), ''próximas'' da condição inicial f(r, v,0) da equação de Boltzmann, o microestado w(t) = Tt(w(0)) = (q1(t),v1(t), ...,qN(t), vN(t)) evoluído sob a dinâmica microscópica, estará ''próximo'' da solução f(r, v,t) da equação de Boltzmann, no limite de Boltzmann-Grad (gás infinitamente diluído), i.e., para N ® ¥ e a ® 0 com Na2® l.

Dizer que uma configuração w = (q1,v1, ...,qN,vN) está ''próxima'' de f(r, v) significa dizer que a fração das partículas num paralelepípedo D Ì L × 3,

FD(w) = IID (qi, vi),

está próxima de

f(r, v)d3r d3v,

à medida que N ® ¥ (trata-se da passagem discreto-contínuo).

A idéia então é provar que a ''vasta maioria'' de configurações iniciais próximas de f(r, v,0) permanece próxima de f(r, v,t). Ou seja, para uma certa seqüência de medidas de probabilidade {PN}N> 1 em LN × 3N, tem-se, para todo d > 0 que:

PN[w : |FD (Tt(w)) - f(r, v, t)d3r d3v| . d] ® 0,

no limite de Boltzmann-Grad e para t > 0 suficientemente pequeno, supondo que o limite acima vale para t = 0.

Note então que o teorema de Lanford pode ser visto como uma Lei (fraca) dos Grandes Números, mostrando que a equação de Boltzmann não prediz simplesmente o que ocorre ''em média'' mas para a ''vasta maioria'' das condições iniciais [13], com relação à seqüência de medidas de probabilidade {PN}N> 1.

A demonstração é bastante técnica [14] e depende de várias hipóteses sobre a seqüência {PN}N> 1, chamada ''seqüência aproximante'' para f21 21 Ela é uma espécie de análogo da prescricão microcanônica e embute a chamada ''hipótese do caos molecular''. . Uma limitação particularmente severa do teorema é que ele vale apenas para tempos extremamente curtos, da ordem de 20% do tempo entre colisões. Uma prova para todo t > 0 foi obtida para certas condições iniciais especiais da equação de Boltzmann (ver [14]). O caso geral ainda está em aberto, além do problema ainda mais difícil de obter resultado análogo para o caso mais realista de um gás de densidade finita (ou invés de infinitamente diluído).

5. Conclusão

Nesse artigo discutimos uma interpretação para o papel da probabilidade na mecânica estatística clássica. Vimos que, por um lado, as medidas de probabilidade servem de conceito-ponte entre os níveis micro-macro levando, por meio de valores médios, da descrição com grande número de graus de liberdade, característico do ponto de vista micro para uma descrição com poucos parâmetros macroscópicos.

Por outro lado, as medidas de probabilidade aparecem como generalizações do volume ou tamanho relativo de subconjuntos do espaço de fase. Dessa forma permitem fazer uma análise do comportamento ''típico'' de um sistema, obtendo, por exemplo, informação sobre o que ocorre com a evolução temporal da ''vasta maioria'' das condições iniciais vis-a-vis o comportamento macroscópico observado.

Desta forma, e lembrando que o conjunto das condições iniciais é parte integrante de um sistema dinâmico, a probabilidade, vista como tipicalidade neste conjunto, aparece de forma bastante natural como método de estudo de tais sistemas e não como um ingrediente ''extra-mecânico'' de caráter estocástico.

Este ponto de vista, apesar de não ser particularmente novo22 22 Por exemplo, Truesdell diz num artigo de 1961 [15] que o aspecto estatístico da mecânica estatística seria de ''a assercão das circunstâncias que podem ser desprezadas'', ou seja, circunstâncias ''atípicas''. vem sendo utilizado há muito tempo e com sucesso na teoria de sistemas dinâmicos e foi por muito tempo negligenciado como alternativa a outras interpretações da mecânica estatística clássica.

É claro que há várias questões não resolvidas. Por exemplo, o fato da tipicalidade ser relativa à medida utilizada levanta a questão de saber qual é a medida mais adequada ou ''natural'' em cada caso. Ademais, geralmente quando se fala de ''vastas maiorias'', há grande dificuldade em saber o que ocorre com um caso particular daquela maioria. Finalmente, há poucos resultados rigorosos e, menos ainda, que sejam fisicamente realistas, na linha do programa esboçado acima. Mas, levantar problemas desafiadores e de grande importância para o entendimento da natureza talvez seja o que há de mais típico no legado deixado por Boltzmann.

Agradecimento

O autor agradece ao apoio da FAPERJ.

  • [1] L. Corry, Arch. Hist. Exact Sci. 51, 83 (1997).
  • [2] C. Cercignani, Ludwig Boltzmann, the Man who Trusted Atoms (Oxford University Press, New York, 1998).
  • [3] S.B. Volchan, Rev. Bras. Ens. Fís. 31, 19 (2001).
  • [4] M. Henkel, Philosophia Scientiae 5, 161 (2001).
  • [5] G. Gallavotti, Statistical Mechanics: A Short Treatise (Texts and Monographs in Physics) (Springer, New York, 1999).
  • [6] M. Bunge, in The Problem of Reductionism in Science, edited by E. Agazzi (Kluwer Academic Publishers, Dordrecth, 1991), p. 31.
  • [7] D. Szász, Studia Sci. Math. Hung. 31, 299 (1996).
  • [8] J. von Plato, Creating Modern Probability, (Cambridge University Press, Cambridge, 1994).
  • [9] A.S. Wightman, in Proceedings of Symposia in Pure Mathematics, v. 28 (AMS, 1976), p 147-240.
  • [10] F. Guerra, Reversibilidade/Irreversibilidade, Enciclopédia Einaudi, v. 24, Física (Imprensa Nacional, Casa da Moeda, 1993), p. 345-384.
  • [11] O.E. Lanford, in Nonequilibrium Phenomena I, edited by J.L. Lebowitz and E.W. Montroll (North-Holland Publishing Company, Amsterdam, 1983).
  • [12] J. Bricmont, D. Dürr, M.C. Gallavotti, G. Ghirardi, F. Petruccione and N. Zhangí, (eds) Chance in Physics (Springer-Verlag, Berlim, 2001).
  • [13] O.E. Lanford, Physica 106A, 70 (1981).
  • [14] C. Cercignani, R. Illner e M. Pulvirenti, The Mathematical Theory of Dilute Gases (Springer-Verlag, Nova York, 1994).
  • [15] C. Truesdell, in Six Lectures on Modern Natural Philosophy (Springer-Verlag, New York, 1961).
  • 1
    E-mail:
  • 2
    Por exemplo, a catástrofe ultravioleta, a questão do éter, o problema da violacão da Lei de Dulong-Petit, etc.
  • 3
    Tal preocupacão unificadora/organizadora também era sentida na Matemática, ligada ao movimento de rigorizacão e das investigacões axiomáticas. Vem à mente o exemplo de Hilbert, um matemático que teve papel crucial no desenvolvimento da axiomática moderna e que tinha profundo interesse na Física [1].
  • 4
    Os energeticistas achavam que a ''energia'' era o ''princípio'' fundamental. É curioso notar que eles consideravam a termodinâmica como modelo ideal de teoria física; entretanto, a termodiâmica contém, como aliás toda teoria física não-trivial, grandezas não-observáveis, entre as quais a entropia é uma das mais intangíveis.
  • 5
    É claro que as entidades
    físicas postuladas não devem ser inescrutáveis, devendo ser sujeitas a testes experimentais indiretos, requisitos de consistência, etc.
  • 6
    Para um exemplo em Biologia, temos os ''átomos'' ou ''fatores'' hereditários postulados por Mendel (que havia estudado Física) e posteriormente identificados como os genes. Pode também ocorrer que a base ontológica de uma teoria seja alterada
    descartando certos não-observáveis. Por exemplo, a teoria da relatividade restrita levou ao abandono de uma entidade não-observável, o éter. Porém, ao mesmo tempo, alcou os campos eletromagnéticos ao status de novas entidades físicas independentes, isto é, não-mecânicas.
  • 7
    Também teve influência em outros dois: a axiomatizacão da probabilidade e a teoria das equacões integro-diferenciais.
  • 8
    Maxwell já havia usado idéias probabilísticas em seu trabalho sobre a distribuicão de velocidades em um gás em equilíbrio, um contexto porém considerado não-controverso.
  • 9
    E aqui se acrescenta às vezes comentários sobre a suposta conexão com o princípio de Heisenberg, o que ao mesmo tempo aumenta a confusão e revela a origem quântico-operacionalista
    a la Copenhage do argumento.
  • 10
    Supostamente por meio da hipótese ergódica.
  • 11
    Fora do equilíbrio esta decimacão é de certa forma ilusória, pois então lida-se com
    campos de pressão, temperatura, etc, que são grandezas em espacos de dimensão infinita.
  • 12
    Uma
    justificativa, digamos dinâmica, deste postulado é, porém, uma outra discussão!
  • 13
    Por exemplo,
    T é a energia cinética média.
  • 14
    Provavelmente outra influência da interpretacão tradicional da mecânica quântica.
  • 15
    A nocão de cardinalidade de conjuntos, que mede o seu tamanho em termos de número de pontos (ou potência), não é tão relevante aqui uma vez que usualmente os conjuntos com os quais se lidam em aplicacões tem pelo menos a cardinalidade do continuum.
  • 16
    Mais precisamente um
    espaco de medida é uma tripla (W,
    , µ), onde W é um conjunto não-vazio qualquer,
    uma colecão de subconjuntos de W com estrutura de s-álgebra (os conjuntos ditos mensuráveis) e m uma funcão de conjunto não negativa e contavelmente aditiva em
    .
  • 17
    Isto é, se
    A Ì
    , tem-se
    (
    A) = 1, se
    x
    0Î
    A e 0, se
    x
    0
    A.
  • 18
    Poincaré chama este resultado de ''estabilidade segundo Poisson'' e sua demonstracão não usa teoria da medida que é historicamente posterior.
  • 19
    Note a opinião, bastante comum na época, de que a teoria da probabilidade era parte da Física!
  • 20
    A propósito, trata-se do mesmo Lanford da
    equacão DLR (Dobrushin-Lanford-Ruelle), para caracterizacão de medidas de Gibbs.
  • 21
    Ela é uma espécie de análogo da prescricão microcanônica e embute a chamada ''hipótese do caos molecular''.
  • 22
    Por exemplo, Truesdell diz num artigo de 1961 [15] que o aspecto estatístico da mecânica estatística seria de ''a assercão das circunstâncias que podem ser desprezadas'', ou seja, circunstâncias ''atípicas''.
  • Datas de Publicação

    • Publicação nesta coleção
      06 Nov 2006
    • Data do Fascículo
      2006
    Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
    E-mail: marcio@sbfisica.org.br