Acessibilidade / Reportar erro

Formalismo de Hamilton-Jacobi à la Carathéodory. Parte 2: sistemas singulares

The Hamilton-Jacobi formalism à la Carathéodory. Part 2: singular systems

Resumos

Na segunda parte do artigo publicado na Revista Brasileira de Ensino de Física 29, 393 (2007) trataremos do formalismo de Hamilton-Jacobi para sistemas singulares. Mostraremos como é possível generalizar o procedimento de Carathéodory para Lagrangianas cuja matriz Hessiana é singular e construir um procedimento de análise de vínculos a partir desse formalismo.

equação de Hamilton-Jacobi; sistemas singulares; vínculos


In the second part of the paper published on Revista Brasileira de Ensino de Física 29, 393 (2007) we will show how the Hamilton-Jacobi formalism works for singular systems. We will bring the generalization of the Carathéodory's method for Lagrangians whose Hessian matrix is singular. We will also build a procedure of constraint analysis of such systems based on the formalism.

Hamilton-Jacobi equation; singular systems; constraints


ARTIGOS GERAIS

Formalismo de Hamilton-Jacobi à la Carathéodory. Parte 2: sistemas singulares

The Hamilton-Jacobi formalism à la Carathéodory. Part 2: singular systems

M.C. BertinI; B.M. PimentelI,1 1 E-mail: pimentel@ift.unesp.br. ; P.J. PompeiaII

IInstituto de Física Teórica, Universidade Estadual Paulista "Júlio de Mesquita Filho", São Paulo, SP, Brasil

IITheoretical Physics Institute, University of Alberta, Edmonton, Alberta, Canada

RESUMO

Na segunda parte do artigo publicado na Revista Brasileira de Ensino de Física 29, 393 (2007) trataremos do formalismo de Hamilton-Jacobi para sistemas singulares. Mostraremos como é possível generalizar o procedimento de Carathéodory para Lagrangianas cuja matriz Hessiana é singular e construir um procedimento de análise de vínculos a partir desse formalismo.

Palavras-chave: equação de Hamilton-Jacobi, sistemas singulares, vínculos.

ABSTRACT

In the second part of the paper published on Revista Brasileira de Ensino de Física 29, 393 (2007) we will show how the Hamilton-Jacobi formalism works for singular systems. We will bring the generalization of the Carathéodory's method for Lagrangians whose Hessian matrix is singular. We will also build a procedure of constraint analysis of such systems based on the formalism.

Keywords: Hamilton-Jacobi equation, singular systems, constraints.

1. Introdução

Na primeira parte deste trabalho [1], mostramos como o formalismo de Hamilton-Jacobi (HJ) emerge de forma natural a partir do princípio de Hamilton com o método de Lagrangianas equivalentes de Carathéodory. O que fizemos foi tentar encontrar uma função S(q, t) tal que = L -dS/dt seja um extremo em uma trajetória dinâmica C no espaço de configuração. Se essa função existe ela deve obedecer à equação2 2 Neste trabalho empregaremos a convenção de soma, em que índices repetidos representam soma sobre os valores desses índices. Por exemplo, na expressão (1), pi i deve ser compreendido por = 1 pi i.

em que pi = ∂S/∂qi e as velocidades i devem ser escritas em função das coordenadas e dos momentos, a partir da definição dos momentos conjugados

Devemos ser capazes de inverter essas relações para encontrar as velocidades, mas isso pode ser feito apenas se a condição Hessiana,

for satisfeita. O formalismo de HJ que desenvolvemos então exige que essa condição se cumpra. Por fim, a função S deve obedecer à equação diferencial parcial (EDP) de primeira ordem

ou seja, a equação de Hamilton-Jacobi. Os sistemas que obedecem à condição Hessiana são sistemas regulares e, como vimos, muitos sistemas mecânicos de interesse são desse tipo, como a partícula livre e o oscilador harmônico. Na mecânica clássica escrevemos a função Lagrangiana como a diferença entre a energia cinética e potencial, de modo que sempre que a energia cinética for quadrática nas velocidades em todas as coordenadas vemos claramente que a relação (2) será inversível.

Contudo, existem sistemas na natureza, tanto na mecânica quanto em teorias de campos, cujas Lagrangianas violam a condição (3). Esses são sistemas singulares. À primeira vista a violação da condição Hessiana impede que uma equação de HJ possa ser escrita a partir da relação (1), em razão da não existência de uma função Hamiltoniana, em (4), que seja única em todo o espaço de configuração. Nosso objetivo é, portanto, encontrar uma generalização do formalismo de HJ para lidar com o problema da violação da condição Hessiana.

Na primeira parte vimos também que o formalismo Hamiltoniano emerge naturalmente do formalismo de Hamilton-Jacobi: as equações canônicas de Hamilton são parte das equações características relacionadas à equação de HJ. Portanto, a questão da existência de um formalismo canônico para sistemas de Hessiana singular é intimamente ligada ao problema da existência de uma formulação de HJ. Dirac [2], na década de 1950, foi o primeiro a mostrar que o formalismo Hamiltoniano pode ser obtido para teorias singulares, com a introdução do método Hamiltoniano que levou seu nome. Com esse método uma questão ainda mais fundamental começou a ser discutida e ainda hoje é objeto de estudo: como quantizar esses sistemas? Desde que a quantização de um sistema envolve o conhecimento de sua estrutura canônica, o estudo de sistemas singulares torna-se fundamental.3 3 Outros trabalhos relevantes no início do desenvolvimento da análise de sistemas singulares podem ser lidos em Anderson and Begmann [3], Dirac [4], Bergmann and Goldberg [5], Dirac [6] e DeWitt (não publicado. Veja a Ref. [11], p. 7.), trabalhos que ajudaram a esclarecer e a refinar diversos aspectos do método original. Na década seguinte um tratamento expandido de sistemas Hamiltonianos singulares foi estabelecido por Dirac, [7]. Outros aspectos foram tratados por diversos autores desde então, como Kundt [8] e Shanmugadhasan [9] e [10]. Boas referências para iniciar o estudo ao método Hamiltoniano são as Refs. [7], [11], [12] e [13].

Nessa segunda parte traremos a versão de Hamilton-Jacobi desse problema, ou seja, como tratar classicamente os vínculos a partir desse formalismo. A princípio introduziremos a noção de Lagrangianas singulares e a razão pela qual sistemas com vínculos pressupõem redução de graus de liberdade. Em seguida traremos o desenvolvimento de Carathéodory, tal como mostrado na primeira parte, desta vez adaptado a sistemas singulares. Com isso encontraremos que sistemas vinculados obedecem não só a uma, mas a um conjunto de equações diferenciais parciais (EDP). Deduziremos as equações características desse sistema e nos preocuparemos em mostrar sua integrabilidade. Mostraremos como analisar as condições de integrabilidade e como encontrar equações de movimento a partir de três aplicações.

2. Lagrangianas singulares

Nosso primeiro passo será tentar compreender melhor o papel da condição Hessiana na resolução de um sistema dinâmico e as conseqüências de sua quebra. Vamos começar com as equações de Euler-Lagrange (EL)

A princípio, vamos supor que a Lagrangiana seja independente do tempo, mas uma estensão imediata pode ser vista se t estiver explicitamente presente. Vamos reescrever essas equações expandindo o termo da derivada temporal:

Podemos ver por essa forma que as equações de EL são equações diferenciais ordinárias (EDO) de segunda ordem nas coordenadas. Podemos, ainda, colocar essa equação em forma análoga às equações da segunda lei de Newton. De fato, as equações de EL são as equações de Newton escritas em função das coordenadas generalizadas.4 4 As Eqs. (5) pressupõem que as forças generalizadas possam ser escritas a partir do gradiente de um potencial. Assim, as equações dinâmicas de Newton, Fi = Σ imiai, são mais gerais que as equações de EL pois as primeiras admitem forças não conservativas. No entanto, há uma versão das equações de EL que admite forças generalizadas não conservativas. Neste trabalho, contudo, consideraremos apenas sistemas cujas forças sejam derivadas de potenciais. Veja Ref. [14], cap. 9, Ref. [15], caps. 1 e 2, Ref. [16], cap. 5 e Ref. [17], cap. 2. Isso pode ser observado se escrevermos

Essa última equação sugere uma relação matricial,

na qual à esquerda figura a matriz Hessiana W. A condição Hessiana implica na existência da inversa da matriz W. Se ela for satisfeita, basta resolver o sistema de equações

No geral precisaremos de expressões para as velocidades

i em Fi para desacoplar as equações, mas podemos mostrar que se a condição Hessiana for satisfeita isso sempre é possível sem a imposição de condições extras.5 5 O leitor pode se convencer disso por um exemplo geral de uma Lagrangiana do tipo L[ qi, ( i) 2].

Agora vamos considerar um sistema singular cuja Lagrangiana é da forma L(x,y,), que depende da coordenada x, da velocidade , mas apenas da coordenada y [18]. A Hessiana desse sistema é singular. Coordenadas como y, que aparecem explicitamente na Lagrangiana sem que suas respectivas derivadas superiores apareçam, são chamadas coordenadas degeneradas.6 6 Também chamadas ignoráveis. Para este exemplo temos as equações de EL

A primeira equação é uma equação dinâmica para x, mas para resolvê-la precisamos de duas condições. A primeira é que ∂2L/∂ 2 seja não nulo. A segunda é uma expressão para em termos de x e . É possível notar que não existem equações dinâmicas para y neste caso, ou seja, não há uma equação em que apareça uma derivada segunda de y. Temos apenas a segunda equação, que não fornece uma equação dinâmica e tampouco oferece a expressão para que precisamos. Contudo, essa equação deve ser satisfeita pelo sistema. Ela é um vínculo Lagrangiano. O fato de o sistema ser vinculado pode ser também atestado pela matriz Hessiana

Essa matriz é singular e não possui, portanto, uma inversa. De fato, ela possui um, ou talvez dois autovalores nulos dependendo do valor de ∂2L/∂2. Caso este seja nulo, o sistema possuirá dois vínculos em vez de apenas um.

Sistemas singulares, cuja Hessiana não é inversível, têm a característica de serem sistemas com vínculos. Para resolver a Lagrangiana acima, por exemplo, precisamos de um meio para descobrir uma expressão para , ou reformular o sistema para que não precisemos dessa expressão. Outros exemplos, existentes na natureza, mostram-se ainda mais complexos: exigem formalismos capazes de lidar com a singularidade da matriz Hessiana. Adiante veremos como o formalismo de HJ abriga naturalmente esse tipo de sistema.

3. O sistema de EDP de Hamilton-Jacobi

O quadro completo de Carathéodory, aquele que nos diz que uma função S(q, t) capaz de extremizar representa uma família de superfícies ortogonal a uma congruência de curvas, solução de um sistema de equações diferenciais ordinárias, continua válido quando o sistema é singular. Vamos impor esse cenário como ponto de partida do formalismo. Assim, vamos partir das condições [1]

Queremos analisar sistemas que violam a condição Hessiana. Então, vamos supor que nossa Lagrangiana viole a condição Hessiana, ou seja,

A matriz Hessiana é simétrica e, portanto, sempre diagonalizável. Vamos supor que ela possua um número m de autovalores não nulos e um número k de autovalores nulos, tal que m + k = n, a dimensão do espaço de configuração. Dizemos que uma matriz nessas condições tem posto m. Existirá, neste caso, uma submatriz m ×m contida na Hessiana que terá determinante não nulo e, por conseqüência, será inversível. Com essa situação temos uma divisão entre as coordenadas. O primeiro conjunto é aquele referente à parte inversível da Hessiana. Para estes é possível encontrar uma expressão para as velocidades em termos das posições e dos momentos

O segundo conjunto de coordenadas é aquele que se refere ao setor nulo da matriz. Para estes não é possível encontrar expressões para as respectivas velocidades pois as equações

não podem ser invertidas. As Eq. (13) serão consideradas vínculos da teoria. Escreveremos esses vínculos da seguinte forma

Assumiremos que a Lagrangiana é bem comportada, no sentido que as funções Hz não dependam de z, embora essa dependência possa existir sem que seja possível uma Hessiana inversível. Com essa divisão entre as coordenadas {} e {qz} podemos analisar a Eq. (10), que toma a forma

O problema das velocidades

z ainda persiste, mas apenas aparentemente. Vamos analisar a derivada

Ou seja, se os vínculos forem respeitados, os termos na Eq. (15), que dariam origem à função Hamiltoniana Canônica

não dependerão das velocidades não inversíveis. Isso quer dizer que na região em que os vínculos são satisfeitos essa Hamiltoniana é bem definida. A Eq. (10) pode ser escrita, então, por

Ora, podemos definir como p0 a derivada de S com relação a t e substituir as expressões para as funções η. Assim, temos as equações

Podemos escrever de forma unificada

Como ainda devem valer as condições pi = ∂S/∂qi, essas equações formam um conjunto de EDP. Esse sistema de equações é chamado de sistema de EDP de Hamilton-Jacobi.7 7 De fato, podemos formular a dinâmica de modo que um sistema regular seja um caso particular de um sistema singular. Para isso basta uma reparametrização arbitrária e a introdução do tempo como variável dinâmica. Nesse caso um sistema regular torna-se singular e seu vínculo vem a ser a equação de HJ, ∂ S/∂ t + H 0 = 0. Esse tipo de sistema é sempre singular pois o tempo torna-se uma coordenada degenerada. É natural, sob este ponto de vista, escrever de forma unificada os vínculos da Eqs. (14) e (17).

4. Equações características

Novamente somos capazes, a partir do procedimento de Cauchy [19, 20], de encontrar equações diferenciais totais (EDT), cuja solução nos fornece uma congruência de curvas no espaço de configuração, a partir das EDP de Hamilton-Jacobi. Este sistema pode ser escrito na forma

A princípio vamos supor que este sistema seja o mais geral possível. Em conjunto com este sistema está implícito que as condições

são satisfeitas. Vamos tomar as diferenciais

Devemos guardar essas equações e tomar a derivada da Eq. (19) com relação a

Agora vamos particularizar o sistema. Estamos interessados no caso em que øα sejam funções lineares dos momentos pα, assim como mostra a Eq. (18). Assim, ∂ø α/∂pβ = . Com essa constatação podemos escrever as equações

Substituindo essas equações na Eq. (21)

Também devemos preservar essas últimas equações. A partir da definição da Hamiltoniana canônica temos

Podemos usar os vínculos pz = -Hz e derivar essa expressão com relação aos momentos pb

Vamos reordenar essa equação introduzindo o termo

0, que nada mais é que 1. Assim

Na Eq. (24), vamos substituir a Eq. (25)

Como pb = ∂S/∂qb, temos que ∂pb/∂ = ∂pa/∂qb. Com isso

Também podemos tomar a diferencial da função S(qª, qα)

Usando a Eq. (25)

que em forma integral nos fornece a equação

em que empregamos a Eq. (25) novamente.

Por fim, temos por equações características do sistema

Essas equações definem um espaço de fase de dimensão 2m cujas coordenadas são as variáveis (, pa). Como solução dessas equações temos uma congruência de curvas nesse espaço e as curvas são parametrizadas pelas variáveis qα. Isso indica que, no espaço de configuração, as trajetórias dinâmicas restringem-se ao espaço das variáveis . A menos de condições iniciais a solução do sistema no espaço de configuração consiste em trajetórias cujas equações paramétricas são do tipo = (qz, t) e, portanto, as variáveis qz são parâmetros em condições de igualdade a t.

Observáveis físicos devem, por consistência, ser funções desse espaço de fase reduzido. A evolução de um observável agora não é ditada apenas por um parâmetro de evolução, mas por um conjunto deles. Chamaremos o conjunto de parâmetros qα de variáveis independentes do sistema. A evolução de um observável F(, pa, ) é dada por

Com o auxílio das equações características,

Note que podemos definir um Parênteses de Poisson (PP) em termos de todas as variáveis do problema

com o qual podemos escrever a diferencial

Este parênteses obedece às mesmas propriedades de um PP para um sistema regular, particularmente a antissimetria, a bilinearidade e a identidade de Jacobi. A forma da Eq. (34) é simples por conter em sua estrutura de PP os parâmetros da teoria. Contudo, só podemos definir verdadeiramente um espaço de fase para o conjunto de varíáveis (, pa).8 8 Esta questão tem origem no fato de um espaço de fase dever possuir uma operação inversa ao Parênteses de Poisson que seja única. No caso do parênteses da Eq. (33) essa inversa não existe ou, na melhor das hipóteses, não será única. É possível mostrar, contudo, que sendo possível a separação entre as variáveis qª e q α, o parênteses definido por possui uma inversa e esta é única. Contudo, este tópico foge ao escopo deste trabalho. Essas são chamadas variáveis dependentes, pois serão funções das variáveis independentes. O espaço de fase construído com as variáveis dependentes é chamado espaço de fase reduzido.

Este quadro já poderia ser elucidado por uma análise da Eq. (28), que é uma ação canônica referente a um sistema com várias variáveis independentes. Um caso particular dessa ação é o caso em que apenas o tempo é tido como parâmetro, ou seja

Esta é a ação canônica da mecânica clássica. Já é bem conhecido o fato de que, igualada a zero a variação dessa ação com relação às variáveis (qi, pi), encontramos as equações de Hamilton. Se aplicarmos o princípio de ação estacionária na Eq. (28), fazendo a variação com relação às variáveis (, pa), encontraremos as equações características (29) e (30). Assim, a princípio, sistemas singulares são sistemas com várias variáveis independentes e, como já dissemos, sistemas regulares são apenas um caso particular de sistemas vinculados.

Dissemos "a princípio" porque há um detalhe que negligenciamos até agora. Assumimos o quadro de que existe uma família de superfícies sempre ortogonal a uma congruência de curvas no espaço de configuração, ou seja, dadas as Eqs. (18), não nos perguntamos se sempre existem soluções completas e, caso a resposta seja negativa, quais as condições necessárias para que exista pelo menos uma solução desse tipo.

5. O quadro completo e condições de integrabilidade

Precisamos analisar melhor o quadro geométrico desse formalismo e o faremos com um sistema simples em \mathbbR3. Vamos supor que exista uma congruência de curvas C em uma região de 3 que seja ortogonal a uma família de superfícies bidimensionais S(x) = σ. Em particular, vamos começar analisando o que ocorre na vizinhança de um ponto x0, em que passam uma curva C0 e uma superfície S = σ0 (Fig. 1).


Em x0 podemos definir um vetor v0, tangente à curva C0. Esse vetor é membro de um campo vetorial v = v(x) que é tangente à congruência em todo ponto da região. No mesmo ponto passa a superfície σ0. Sendo de duas dimensões, podemos definir em x0 outros dois vetores linearmente independentes χα, em que {α} = {1,2}, tangentes à superfície.

Os vetores χα podem ser usados como base para um espaço vetorial tangente à superfície σ0 e, como estamos tratando de um caso em 3, eles definem um plano Γ0 tangente à superfície em x0. Se, partindo do ponto x0, caminharmos para um outro ponto x1, encontraremos uma outra superfície, por exemplo S = σ1, bem como uma outra curva C1 e, sobre este ponto, encontramos um vetor v1 tangente a C1 e, também, podemos construir analogamente um plano tangente a σ1, Γ1.

Podemos mostrar que qualquer base escolhida para Γ1 é combinação linear dos vetores de base de Γ0 e a razão é que C0 e C1 fazem parte da mesma congruência, bem como σ0 e σ1 fazem parte da mesma família.9 9 O fato de ambas as curvas serem da mesma congruência garante que dois vetores, pertencentes a cada curva, sejam membros de um mesmo campo vetorial. O mesmo ocorre com vetores tangentes a duas superfícies de uma mesma família. Assim, em todos os pontos da região, cada superfície da família σ possui um plano tangente e a base vetorial para cada plano é univocamente determinada se conhecemos a base de um deles. Isso equivale a dizer que χα também são membros de campos vetoriais χα(x).

Dizemos que esse conjunto de planos forma uma distribuição,10 10 Não confundir com os objetos da teoria das distribuições. que chamaremos Γ. Trataremos essa distribuição como o espaço tangente à família de superfícies. Assim, os campos vetoriais χα(x) serão tratados como base para toda a distribuição. Para que C0 e σ0 sejam transversos em x0 o produto escalar entre o vetor tangente à curva e os vetores tangentes à superfície deve ser nulo. Em uma afirmação um pouco mais geral, as equações

são as condições para que a congruência de curvas C seja ortogonal à distribuição Γ.

No formalismo de HJ vimos que as componentes do momento conjugado são proporcionais ao gradiente da função S que define a família de superfícies. Para este exemplo a afirmação equivalente é estabelecer

e, neste caso, as Eqs. (36) resumem-se a

Essas equações garantem a transversalidade entre a congruência C e a família de superfícies S = σ.

No caso de sistemas dinâmicos o quadro é análogo. Todo sistema de EDP de primeira ordem, como é o caso das equações de HJ, pode ser escrito na forma

em que são as m componentes de k vetores linearmente independentes Xα. Podemos verificar que as características desse sistema formam as equações

Neste caso as soluções possuem a forma = (xα), sendo x as variáveis independentes do sistema. Uma função S(y, x), solução das Eqs. (39), representa uma família S(y, x) = σ de superfícies em uma região do espaço cujas coordenadas são as variáveis dependentes y. Essa família é, em todo ponto onde ela possa ser definida, transversal a uma congruência de curvas = (xα), solução das Eqs. (40). Os vínculos, na forma do sistema de EDP de HJ, são as equações que garantem a transversalidade entre a congruência de trajetórias e a família de superfícies. Os vetores Xα, cujas componentes são , formam a base para a distribuição Γ neste caso.

Para que este quadro se cumpra os vetores Xα devem formar uma base vetorial completa e linearmente independente (LI). Essa condição garante que os parâmetros xα sejam independentes entre si. Caso nosso problema singular seja caracterizado por EDP que não formem uma base completa, a solução dessas equações também não será completa, no sentido que não dependerá de tantos parâmetros quantos forem as variáveis dependentes do sistema. Isso também afeta as equações características, no sentido que estas não serão completamente integráveis.

Para a análise de integrabilidade é conveniente tratar os vetores tangentes ao espaço como operadores diferenciais. Esses operadores agem sobre funções e resultam em outras funções do espaço de origem. Podemos escrever os vetores de base da distribuição como os operadores

Agindo sobre funções do espaço de configuração esses vetores reultam em outras funções. Particularmente,

são as equações de HJ.

A estrutura de colchetes definida por

é chamada colchetes de Lie.11 11 Os colchetes de Lie são operadores bilineares que agem em vetores e levam a outros vetores. Eles dizem como um campo vetorial varia com relação a uma curva gerada por outro campo vetorial. Por exemplo, considere dois vetores X = α i(x)∂ i e Y = β i(x)∂ i, em que α i e β i são as componentes dos campos dado um sistema de coordenadas retangular xi. Tanto X quanto Y podem ser usados para gerar curvas dinâmicas no espaço. Essas curvas seriam soluções das equações i = α i(x) e i = β i(x). Se quisermos saber como varia o campo X sobre a curva gerada por Y basta resolver [ X, Y]. Por ser antissimétrico, o resultado nos dá a negativa da variação de Y com relação à curva de X. Este é um tópico de geometria diferencial referente à derivada de Lie, que pode ser estudado, não sem antes passar por tópicos introdutórios, Refs. [21, 22] e também na Ref. [1], cap. 3. Na distribuição Γ os colchetes de Lie tomados com quaisquer dois de seus membros deve ser também um membro da distribuição. Essa condição é chamada condição de integrabilidade de Frobenius. Se Xα constitui um conjunto completo de vetores LI, temos automaticamente satisfeita a equação

ou seja, os vetores de base formam uma álgebra de Lie em que são as constantes de estrutura.

Especificamente no caso de sistemas Lagrangianos singulares, o sistema de EDP são as equações de Hamilton-Jacobi

relacionadas às características

Portanto, as componentes dos vetores de base da distribuição pertinentes a esse sistema vêm a ser

Com essas componentes temos, sendo F uma função do espaço de configuração

Por outro lado

Isso nos permite escrever o seguinte resultado para os colchetes de Lie (usando a identidade de Jacobi para os PP)

Com isso temos, a partir das condições de integrabilidade,

Portanto, os vínculos também devem obedecer a uma álgebra de Lie, desta vez com os parênteses de Poisson. Na mecânica clássica dizemos que os vínculos formam um sistema em involução. Todo sistema dinâmico é integrável se formos capazes de encontrar um conjunto de funções dinâmicas invariantes ao movimento que formem um conjunto involutivo.

Se um dado sistema de EDP não obedece identicamente as condições (51) podemos escolher forçar a integrabilidade do sistema. Essa ação equivale a assumir a existência de um subespaço em que a integrabilidade seja cumprida ou mesmo assumir que as variáveis independentes não sejam realmente independentes entre si. As próprias condições de integrabilidade, como equações impostas sobre o sistema original, podem revelar novos vínculos que completem o sistema de equações e/ou revelar a dependência entre as variáveis independentes. Nesse caso é melhor reformular as condições de integrabilidade de modo que

em que assumimos a validade das equações øα = 0. Portanto, as equações døα = 0 também devem ser tomadas como condições sobre o sistema. Essas condições exigem que os vínculos sejam mantidos inalterados durante a trajetória dinâmica e garantem a existência de soluções completas para o sistema de HJ, bem como a integrabilidade das equações características. Formuladas com essa interpretação, a condição de integrabilidade de Frobenius nos garante um meio de encontrar um conjunto involutivo de integrais de movimento.

O procedimento a seguir agora depende fortemente do sistema em estudo, especificamente da existência ou não de um conjunto ou subconjunto de vínculos em involução. O melhor agora é analisarmos alguns exemplos. Vamos começar com a aplicação da partícula livre em uma esfera, que nos fornecerá um exemplo em que o conjunto de vínculos não é involutivo.

6. Partícula livre em uma esfera

Na mecânica clássica o exemplo mais geral de um sistema vinculado é a partícula livre restrita a uma superfície. De fato, sistemas regulares bem conhecidos também podem ser descritos dessa forma, como por exemplo o pêndulo simples, que consiste em uma partícula livre no potencial gravitacional cujo comprimento da haste é constante. É possível um tratamento bastante geral deste problema, mas visando a clareza do formalismo vamos nos concentrar em resolvê-lo no espaço

3, sendo a superfície uma esfera.

Consideraremos um sistema no espaço euclidiano

3, que consiste de uma partícula livre restrita à superfície de uma esfera. Essa superfície é definida, no sistema cartesiano, pela equação ψx2 + y2 + z2 - r2 = 0. Em nossa notação, x representa um ponto em 3 cujas coordenadas são o conjunto de números coordenados (x, y, z). Como estamos tratando de um espaço euclidiano, x pode também representar um vetor posição. A Lagrangiana da partícula livre consiste apenas da energia cinética, mas devemos implementar o vínculo ψ = 0 usando multiplicadores de Lagrange, de modo que a Lagrangiana do sistema se escreve por

na qual v ≡ representa o vetor velocidade da partícula.

Vamos escrever o vetor momento conjugado a partir dessa função

E com estes, as equações de Euler-Lagrangre desse sistema, - ∇ L = 0

em que ∇ representa o operador gradiente e a o vetor aceleração (a = ). A expressão uyé reconhecida como a força que mantém o sistema sobre a superfície. No entanto, como o parâmetro u se mantém indeterminado, essa força é parametrizada, ou seja, várias configurações são permitidas.12 12 É desejável este fato, desde que, assumindo que a superfície não se mova com o tempo, componentes tangentes à superfície não contribuem para mantê-la nessa configuração.

Para utilizar o formalismo de HJ construiremos um espaço de configuração estendido em que as variáveis dinâmicas serão as posições x e também o parâmetro u. Vimos que existem 3 momentos conjugados às posições, dados pelas expressões inversíveis p = mv. O momento referente à variável u, pu, é nulo, pois a Lagrangiana não depende da velocidade relativa a essa variável. Assim, da definição dos momentos encontramos 3 velocidades e 1 vínculo

Com essas equações podemos construir a Hamiltoniana canônica do sistema

Portanto, além do vínculo (57), o sistema obedece a uma equação de HJ que envolve a Hamiltoniana canônica (58), de modo que o sistema consiste nas equações diferenciais parciais

Esse sistema tem como variáveis dependentes as posições x e como variáveis independentes os parâmetros (qα) = (u, t). A evolução de uma função dinâmica qualquer F(x, p, u, pu) é dada, portanto, pela diferencial

Para o cálculo dos PP, usaremos os parênteses fundamentais

em que I é a matriz identidade 3×3.

O sistema de Eqs. (59) e (60) não é integrável, pois os vínculos não estão em involução. Isso pode ser visto pelo cálculo do PP

que não é identicamente nulo, a princípio. Neste caso usaremos a diferencial (61) para verificar as condições de integrabilidade. Com relação à equação ø1 = 0,

Portanto, para que o sistema seja integrável há que se obedecer mais uma equação,

Esta equação é aquela que define a esfera. A existência dessa condição indica que, ao sistema de equações (59) e (60), deve ser acrescida a equação

Contudo, o sistema que engloba os vínculos ø0, ø1 e ø2 permanece não integrável, pois além do PP não nulo entre ø1 e ø0, temos

que também não é identicamente nulo. Exige-se, por conseqüência, uma nova análise de integrabilidade, que neste caso seria dø2 = 0

Surge, então, o vínculo

O sistema permanece não integrável e ainda temos o acréscimo dos PP não nulos

Temos, então, que calcular

Assim, aparece outro vínculo

Este último também tem PP não nulos

Neste procedimento devemos testar a integrabilidade de ø4

Contudo, algo novo aparece. Não é uma expressão do tipo f(x, p, u, pu) = 0, mas sim uma relação entre as diferenciais de u e t, as variáveis independentes do sistema. As condições de integrabilidade anteriores haviam nos mostrado que a imposição de novos vínculos era necessária para que o sistema fosse integrável. A partir do quadro completo de Carathéodory essa situação indica que o conjunto original, formado pelas equações ø0 = 0 e ø1 = 0, não consistia em um conjunto completo de EDP, ou seja, a base de vetores tangentes à família de superfícies S = σ não estava completa. As condições de integrabilidade nos mostram uma forma de completar o sistema, tomando como vínculos as expressões (59), (60), (66), (69) e (73). No entanto, ao considerarmos esses vínculos parte do formalismo devemos expandir o espaço de parâmetros para relacionar novas variáveis independentes a esses vínculos. Já temos as variáveis t e u referentes a ø0 e ø1, mas não existem parâmetros na teoria que possam se relacionar com os demais. Somos, portanto, obrigados a impor parâmetros adicionais na teoria, que neste caso serão chamadas ω, τ e θ. As novas variáveis independentes são, em princípio, arbitrárias. Assim, temos o conjunto de vínculos e suas respectivas variáveis independentes

No entanto, este conjunto, a princípio completo em função das condições de integrabilidade, permanece não integrável, como mostram os PP entre eles, apresentados na Tabela 1.

A novidade contida na condição sobre ø4 é a de que é possível encontrar uma dinâmica na qual o sistema de equações (78) seja integrável, ou seja, se as condições de integrabilidade construídas a partir da diferencial (61) não são identicamente satisfeitas, uma redefinição da diferencial pode resolver o problema. Tendo em mente essa idéia vamos considerar

As variáveis independentes ω, τ e θ são arbitrárias a princípio. Com esta, vamos reverificar as condições de integrabilidade

Temos, portanto, uma equação diferencial total que nos dá a dependência de θ com relação a t. Com ø2 escrevemos

Usando a relação (80),

Com o vínculo ø3,

Novamente usando (80),

Resta apenas o vínculo ø4

Usaremos, agora, as Eqs. (81) e (82):

Assim, cada condição de integrabilidade resultou em uma relação entre as variáveis independentes e o parâmetro t, indicando que o problema da integrabilidade não estava na completeza das equações diferenciais parciais, mas sim em assumir independência dos parâmetros. Na linguagem do quadro completo, precisamos que os vetores tangentes definidos pelos vínculos não sejam LI para que a integrabilidade se cumpra. O fato de du = 0 não deve ser uma surpresa nesse caso, já que u é uma coordenada degenerada. A diferencial que procuramos vem a ser

O leitor pode verificar que, com essa diferencial, as condições de integrabilidade serão identicamente satisfeitas. Podemos proceder às equações de movimento, que consistem em equações para as diferenciais dx e dp. Temos

Com as Eqs. (80) e (81),

Nesse estágio podemos implementar os vínculos nas equações de mzovimento

De fato, essas equações nos dizem muito sobre o sistema. As duas primeiras são esperadas pois a equação da esfera x2 - r2 = 0 é inclusa na Lagrangiana original como um vínculo, enquanto pu, o momento conjugado a u, é nulo devido à degenerescência de sua coordenada. A terceira equação nos diz que o vetor velocidade é sempre tangente à esfera. Se ψ = 0 representa a equação de uma superfície, seu gradiente ∇ ψ representa um campo vetorial ortogonal à superfície em cada ponto. A condição x · p = 0 também pode ser escrita por v .∇ψ = 0, ou seja, v é ortogonal a ∇ ψ e, por conseqüência, tangente à superfície. Note que

usando-se a terceira equação de (88). Ocorre, portanto, que a superfície, no caso a esfera, não pode se deformar com o tempo. Se a superfície se move com o tempo, essa condição já não será satisfeita e, nesse caso, a velocidade da partícula não será tangente à superfície. A última dessas condições nos fornece o parâmetro de Lagrange u

Da Eq. (87), usando também as equações x2 = r2 e x·p = 0, temos a equação de movimento

já esperada em razão da Eq. (56). Mas a verdadeira equação dinâmica vem de

Vamos utilizar nesta última expressão as diferenciais (80), (81) e (82) em conjunto com a Eq. (88)

A composição das Eqs. (90) e (91), derivando a primeira com relação ao tempo e usando a segunda, resulta nas equações de Euler-Lagrange para este problema

Outro resultado importante vem a ser

com o auxílio das equações de movimento e da condição x·p = 0. Assim, conserva-se a energia cinética da partícula. Vale dizer que, se a superfície se mover com o tempo, essa energia não será mais uma constante de movimento e a partícula trocará energia com a própria superfície.

Segundo as equações de movimento a aceleração da partícula repousa na direção do raio da esfera, já que o vetor posição também aponta nessa direção, e o sentido é para o centro do sistema de coordenadas. A intensidade da aceleração também é conhecida, v2/r, e é a expressão que conhecemos para a aceleração centrípeta. Como o problema refere-se a uma partícula livre, não encontraremos componentes da aceleração em outras direções. As soluções dessas equações também são bem conhecidas: são as soluções para um oscilador harmônico em três dimensões com freqüência angular ω = |v|/r.

Note que a diferencial (86) resulta em du = dω = dτ = dθ = 0, mostrando que não há dinâmica efetiva para as variáveis independentes. Neste exemplo podemos escrever

em que

A estrutura acima é uma particularização de uma estrutura mais geral, os Parênteses Generalizados (PG), que definem a dinâmica no espaço de fase reduzido e podem ser definidos para todo sistema cujos vínculos resultam ser não involutivos após a exaustão das condições de integrabilidade [38]. Com isso, aprendemos que a existência de um conjunto final de vínculos não integráveis implica na redução efetiva dos graus de liberdade do sistema mediante uma refedinição da dinâmica do movimento.

7. Um exemplo artificial

Vamos considerar uma partícula livre em uma dimensão sujeita a um potencial que depende apenas de sua posição, cuja Lagrangiana é dada por L = 1/2 mv2 - V(x), em que v = . Este é um sistema obviamente regular, o que pode ser facilmente verificado pela construção de sua matriz Hessiana. Contudo, vamos redefinir esta variável tal que x x1+x2 e a Lagrangiana tome a forma [24]

Note que o sistema permanece inalterado, mas ao usarmos a Lagrangiana (95) estamos inserindo no sistema um grau de liberdade desnecessário. É este grau de liberdade a mais que introduzirá o que chamaremos "liberdade de gauge" ao sistema.

Os momentos conjugados são dados por

que nos fornecem a matrix Hessiana

singular de posto 1.

Ao tentarmos escrever as velocidades em função dos momentos encontramos o vínculo

p1 – p2 = 0.

Vamos calcular a Hamiltoniana canônica em função de p1

Assim, temos o sistema de HJ formado pelos vínculos

O parâmetro de evolução que corresponde ao vínculo ø0 é, como já sabemos, o tempo. Já o parâmetro de evolução que corresponde ao vínculo ø1 pode ser escolhido de acordo com as variáveis da Hamiltoniana. Como decidimos escrever a Hamiltoniana em função de p1 o parâmetro deve ser x2. Assim, a evolução do sistema é dada de acordo com a diferencial

Note que

visto que V depende apenas da soma x1+x2. Assim, o sistema de HJ é um conjunto de vínculos já em involução, o que, como conseqüência, implica na satisfação das condições de integrabilidade dø0 = 0 e dø1 = 0.

Se o sistema é integrável tal como se apresenta, não há mais nada a fazer a não ser calcular as equações de movimento a partir de (100)

em que a velocidade v2 é arbitrária.

Note que a equação de movimento (102) é uma equação canônica puramente cinemática. A equação que define a dinâmica do sistema é dada pela Eq. (103), que não depende da velocidade v2. A interpretação deste fato é que o grau de liberdade extra, representado pela variável x2 por nossa escolha, não interfere na dinâmica do sistema.

Teorias de gauge, como o eletromagnetismo, apresentam um ou mais do mesmo tipo de vínculo dado por ø1 acima, ou seja, vínculos que se encontram em involução, satisfazendo identicamente suas condições de integrabilidade. Nesses sistemas as velocidades relativas às variáveis independentes são arbitrárias. Contudo, a dinâmica relativa a essas variáveis, chamadas variáveis de gauge, não interferem na evolução temporal do sistema.

8. O campo eletromagnético livre

Vamos para um caso real em que aparecem vínculos em involução. O campo eletromagnético livre é o exemplo mais simples de liberdade de gauge encontrado na natureza. Sistemas em teoria de campos são diferentes dos sistemas em mecânica clássica essencialmente por possuírem infinitos graus de liberdade: as coordenadas do espaço de configuração são campos que são funções de parâmetros contínuos, no geral pontos do espaço-tempo. No caso do campo eletromagnético existem quatro campos A0(x) e Ai(x), o primeiro chamado campo escalar e os demais componentes do potencial vetor. Denominaremos por letras latinas x um ponto (x0, x1, x2, x3) do espaço-tempo. A métrica é a de Minkowski ηαβ = diag(η00η11η22η33).

Diferentemente da mecânica clássica, a mecânica de campos é independente do parâmetro, ou seja, as curvas que representam a dinâmica no espaço de configuração são funções de um parâmetro arbitrário. No geral, o tempo próprio, ou mesmo o comprimento de arco, é usado para parametrizar as soluções. Contudo, para que o formalismo que desenvolvemos até aqui não precise ser modificado para permitir escolhas livres, vamos fazer opção pela coordenada13 13 Usaremos c = 1 neste exemplo. x0 = ct como parâmetro de evolução.

A ação do campo EM sem fontes vem a ser o funcional

Em nossa notação ≡ ∂/∂xα é a derivada parcial aplicada no ponto x. Temos, assim, a função Lagrangiana

Podemos escrever

em que identificamos a densidade Lagrangiana

Vamos encontrar os momentos conjugados às variáveis Aα. Como o parâmetro escolhido é a coordenada x0, as velocidades relativas às variáveis são dadas por α = ∂0Aα. Assim, temos as equações

Usaremos o símbolo δ para derivadas funcionais, além de representar as deltas de Kroenecker e Dirac. Derivando novamente esses momentos com relação às velocidades podemos construir a matriz Hessiana

Essa matriz é singular e possui três autovalores diferentes de zero, ou seja, tem posto 3. Uma das velocidades não pode ser invertida. É o caso da velocidade

0 e, por essa razão, temos o vínculo

Por outro lado as velocidades

i podem ser escritas em função das variáveis e dos momentos14 14 A partir deste ponto passaremos a omitir o ponto de aplicação das funções no espaço-tempo sempre que este for trivial. :

A singularidade da Hessiana indica a separação entre as variáveis dependentes (Ai) e as independentes (A0, t). Além da Eq. (109) o sistema obedece à equação

com a qual temos a função Hamiltoniana canônica

Podemos escrever a densidade Hamiltoniana canônica

Existem, portanto, duas equações

uma para cada variável independente.

Precisamos impor condições de integrabilidade a esses vínculos pois eles claramente não estão em involução. Para que o formalismo de teoria de campos tenha sentido devemos definir os PP pela estrutura

A dinâmica é dada pela diferencial

Vamos começar por ø0

que resulta na expressão ∂iπi = 0, formulada como um novo vínculo

A condição dø1 = 0 resulta em

A expressão à direita é identicamente nula pois Fij é antissimétrico15 15 ∂ i∂ j Fji = 1/2∂ i∂ j[ Fji - Fij] = 1/2∂ i∂ j Fji - 1/2∂ i∂ jFij = 1/2∂ i∂ jFji - 1/2∂ j∂ iFij = 1/2∂ i∂ jFji - 1/2∂ i∂ jFji = 0. . Nesse caso não há outros vínculos a descobrir. Ficamos, por fim, com o conjunto

Não precisamos impor a condição sobre øt pois podemos ver claramente que o conjunto acima está em involução. Da mesma forma que no exemplo da partícula livre na esfera, devemos adicionar uma nova variável independente, desta vez arbitrária, ao conjunto (t, A0). Relacionaremos a variável ω ao vínculo ø1. Nesse caso a diferencial de uma função dinâmica é dada por

Assim, temos como variáveis dependentes os campos Ai e como variáveis independentes t, A0 e ω, este último um parâmetro arbitrário. As equações de movimento são dadas por

Da teoria de distribuições [23]

Temos, com este resultado,

resultado que já conhecemos.

O segundo par de equações características vem a ser

Essa última expressão podemos escrever por

Se usarmos a Eq. (123) temos

Assim, temos as equações de movimento (126) em conjunto com as Eqs. (123). Se usarmos a expressão ∂iπi = 0,

Note que podemos unificar as Eqs. (126) e (127)

Essas equações formam o primeiro par de equações de Maxwell sem fontes.

O campo eletromagnético é o mais simples exemplo de teoria com liberdade de gauge, caracterizado pela presença de um conjunto final de vínculos em involução. Note que o procedimento, diferentemente do caso da partícula livre restrita a uma superfície, não foi capaz de reduzir os graus de liberdade da teoria. Em vez disso, a dinâmica dos graus de liberdade referentes às variáveis A0 e ω permanece arbitrária.

9. Considerações finais

Nas duas partes deste trabalho fomos capazes de analisar o formalismo de Hamilton-Jacobi sob o geometricamente rico escopo de Carathéodory. Vimos que a existência de uma equação diferencial parcial é natural nos sistemas dinâmicos que obedecem ao princípio de ação estacionária e que as soluções, que são famílias de superfícies no espaço de configuração do sistema, estão relacionadas às trajetórias dinâmicas no espaço de fase a partir das equações características. No caso de sistemas regulares as equações características são as já conhecidas equações de Hamilton. Já no caso de sistemas singulares, a análise de equações de movimento passa pela definição dos vínculos da teoria, já que a singularidade da matriz Hessinana vem da existência de relações entre coordenadas e momentos que restringem, a princípio, os graus de liberdade do sistema.

Nessa segunda parte nos preocupamos em analisar como o formalismo de HJ é capaz de lidar de forma natural com a existência de vínculos em sistemas Lagrangianos. Neste contexto, a análise de sistemas singulares é relativamente nova: os primeiros trabalhos estendendo a formulação desenvolvida por Carathéodory para o tratamento de sistemas singulares foram feitos por Güler em 1992 [25, 26]. Outras extensões foram realizadas por outros autores e, hoje, é bem estabelecido como são descritos em HJ os sistemas singulares com derivadas de ordem superior [34-36], sistemas singulares descritos por variáveis de Berezin [37], sistemas descritos por ações de primeira ordem [38], entre outros. Desde o desenvolvimento inicial feito por Güler, diversas aplicações a sistemas singulares têm sido realizadas, [27-33]. Vamos resumir o que vimos nesse estudo.

Vínculos em sistemas singulares surgem da definição dos momentos conjugados às coordenadas. A singularidade da matriz Hessiana implica na impossibilidade de se escrever certas velocidades, senão todas, em função das coordenadas e dos momentos, comprometendo, a princípio, a definição de uma equação de HJ para o sistema. Contudo, uma equação de HJ pode ser definida univocamente para uma região do espaço de configuração em que os vínculos sejam impostos como condições sobre o sistema. Além disso, os próprios vínculos se tornam equações diferenciais parciais. Um conjunto de equações, que abrange os vínculos e a equação de HJ, pode ser definido como o conjunto de EPD de HJ e é sobre este conjunto que as equações características são construídas. As características definem, por si, um conjunto de variáveis dependentes relacionados ao espaço de fase reduzido (, pa), onde a dinâmica do sistema ocorre de fato, e um conjunto de variáveis independentes qα ≡ (t,qz), que são os parâmetros da teoria. No espaço de fase reduzido podemos definir parênteses de Poisson que geram univocamente a dinâmica do sistema.

Contudo, as considerações acima são válidas considerando um conjunto completo de EDP, cujas características são completamente integráveis, condição que, em geral, não é satisfeita em princípio nos sistemas físicos. Condições de integrabilidade devem ser testadas e elas exigem que os vínculos estejam em involução com os PP para que o conjunto seja completo. Do teste das condições de integrabilidade døα = 0 três situações podem ocorrer. Uma delas é que o conjunto de vínculos, ou um subconjunto deles, esteja realmente em involução, resultando em relações do tipo 0 = 0 ou em vínculos já existentes. Neste caso o conjunto em involução é completo. Pode ocorrer também que um conjunto, ou a totalidade dos vínculos, não se encontrem em involução. Como resultado as condições de integrabilidade tornam-se relações algébricas entre as diferenciais das variáveis independentes. Se este conjunto de equações algébricas tiver solução única, podemos redefinir a dinâmica deste sistema. A terceira possibilidade é o caso em que as condições de integrabilidade resultem em relações entre as variáveis dinâmicas. Essas relações devem ser impostas na teoria como novos vínculos, adicionadas ao conjunto original e condições de integrabilidade sobre esses vínculos devem também ser impostas.

Os exemplos que trabalhamos servem para clarificar como proceder com o formalismo a partir da análise das condições de integrabilidade. A partícula livre na esfera nos fornece um exemplo em que as condições impõem novos vínculos na teoria. Depois que todos os vínculos são encontrados é necessário considerá-los como condições sobre o sistema, o que é feito introduzindo novas variáveis independentes e uma nova diferencial fundamental (79). No caso deste exemplo os vínculos não formam um sistema em involução e as condições de integrabilidade nos mostram que uma redefinição da dinâmica, de acordo com a diferencial (86), torna o sistema completamente integrável. Um grande resultado desse formalismo é o fato de que essa redefinição na dinâmica implica na definição de parênteses generalizados [38], que possuem as mesmas propriedades dos PP e que definem a dinâmica no espaço de fase reduzido.

No exemplo da seção 7 introduzimos artificialmente um grau de liberdade desnecessário ao sistema de partícula unidimensional com potencial dependente da posição. Este é o mais simples exemplo concebível de sistema mecânico com liberdade de gauge. Nessa teoria temos dois vínculos, ø0 e ø1, que estão automaticamente em involução e, portanto, já formam um sistema completo com equações características integráveis. Neste caso a análise não é capaz de eliminar a variável independente x2 do sistema, o que seria esperado se o conjunto resultasse ser não involutivo em razão do aparecimento de uma expressão do tipo dx2 = g(x, p)dt. Contudo, a dinâmica na direção desta variável não é física: qualquer evolução na direção desse grau de liberdade não muda a evolução temporal do sistema, o que é característica de teorias de gauge.

O exemplo mais simples de teoria de gauge que sabemos existir na natureza é o campo eletromagnético. Como vimos, a condição de integrabilidade sobre o vínculo p0 = 0 resulta na imposição da lei de Gauss ∂iπi = ∂iFi0 = ∇ · E = 0 como novo vínculo. O conjunto completo é involutivo e, portanto, tem equações características completamente integráveis. A evolução de um observável físico é dada pela diferencial (122), que não resolve os graus de liberdade físicos, a exemplo do caso anterior. Contudo, a evolução na direção das variáveis independentes A0 e ω não pode ser considerada física. Essas duas variáveis são chamadas variáveis de gauge.

Do campo eletromagnético, sabemos que apesar de ser descrito por quatro variáveis, A0 e Ai, apenas dois graus de liberdade são físicos. Para resolver esses graus de liberdade é necessária uma fixação de gauge, o que foge ao escopo deste trabalho. Mas sabemos desde o início que A0 não é um grau de liberdade físico, já que é uma variável ignorável na Lagrangiana. Já ω, contudo, é um parâmetro arbitrário e não saberemos qual é o seu significado físico até que um gauge seja escolhido para resolver os graus de liberdade. Podemos deduzir que, dependendo da escolha, ω pode assumir a identidade de uma das variáveis restantes ou mesmo de uma combinação linear delas.

O passo natural para o estudo do formalismo de HJ em sistemas vinculados a partir desse ponto é estudar as relações entre sistemas com vínculos em involução e simetrias, tanto no aspecto clássico quanto no aspecto quântico dessas teorias.

Agradecimentos

M.C. Bertin agradece à CAPES pelo suporte integral. B.M. Pimentel agradece ao CNPq pelo suporte parcial. P.J. Pompeia agradece ao CNPq pelo suporte e ao CTA pelo apoio.

Recebido em 15/2/2008; Aceito em 11/3/2008; Publicado em 8/10/2008

  • [1]M.C. Bertin, B M. Pimentel and P.J. Pompeia, Revista Brasileira de Ensino de Física 29, 393 (2007).
  • [2]P.A.M. Dirac, Canad. J. Math. 2, 129 (1950).
  • [3]J.L. Anderson and P.G. Bergmann, Phys. Rev. 111, 965 (1951).
  • [4]P.A.M. Dirac, Canad. J. Math. 3, 1 (1951).
  • [5]P.G. Bergmann and I. Goldberg, Phys. Rev. 98, 531 (1955).
  • [6]P.A.M. Dirac, Proc. Roy. Soc. A246, 326 (1958).
  • [7]P.A.M. Dirac, Lectures in Quantum Mechanics (Yeshiva University, New York, 1964).
  • [8]W. Kundt, Springer Tracts in Modern Physics 40, 107 (1966).
  • [9]S. Shanmugadhasan, Proc. Camb. Philos. Soc. 59, 743 (1963).
  • [10]S. Shanmugadhasan, J. Math. Phys. 14, 667 (1973).
  • [11]A. Hanson, T. Regge and C. Teitelboim, Constrained Hamiltonian Systems (Acc. Naz. dei Licei, Roma, 1976).
  • [12]K. Sundermeyer, Constrained Dynamics, Lecture Notes in Physics n. 169 (Springer, Nova York, 1982).
  • [13]D.M. Gitman and I.V. Tyutin, Quantization of Fields with Constraints (Springer-Verlag, New York/Berlin, 1990).
  • [14]K.R. Symon, Mecânica (Editora Campos Ltda, Rio de Janeiro, 1982).
  • [15]H. Goldstein, Classical Mechanics (Addison-Wesley, Cambridge, 1950).
  • [16]C. Lanczos, The Variational Principles of Mechanics (Dover, Nova York, 1986), 4th ed.
  • [17]J.V. José and E.J. Saletan, Classical Dynamics, A Contemporary Approach (Cambridge Univ. Press, Cambridge, 1998).
  • [18]D.M. Gitman and I.V. Tyutin, Nucl. Phys. B, 630 509 (2002).
  • [19]R. Courant and D. Hilbert, Methods of Mathematical Physics, v. II (John Wiley and Sons, Nova York, 1962).
  • [20]C. Carathéodory, Calculus of Variations and Partial Differential Equations of the First Order - Part I, II (Holden Day, Inc, San Francisco, 1967).
  • [21]T. Frankel, The Geometry of Physics, an Introduction (Cambridge Univ. Press, Cambridge, 1997).
  • [22]B. Schutz, Geometrical Methods of Mathematical Physics (Cambridge Univ. Press, Cambridge, 1980).
  • [23]C.L.R. Braga, Notas de Física Matemática - Equaçőes Diferenciais, Funçőes de Green e Distribuiçőes (Editora Livraria da Física USP, Săo Paulo, 2006).
  • [24]H. Matschull, Dirac's Canonical Quantization Programme, quant-ph/9606031 (1996).
  • [25]Y. Güler, Il Nuovo Cimento B 107, 1398 (1992).
  • [26]Y. Güler, Il Nuovo Cimento B 107, 1143 (1992).
  • [27]Y. Güler, Il Nuovo Cimento B 109, 341 (1994).
  • [28]Y. Güler, Il Nuovo Cimento B 111, 513 (1996).
  • [29]Y. Güler and D. Baleanu, Il Nuovo Cimento B 114, 1023 (1999).
  • [30]Y. Güler and D. Baleanu, Il Nuovo Cimento B 115, 319 (2000).
  • [31]Soon-Tae Hong, Yong-Wan Kim, Young-Jai Park and K.D. Rothe, Mod. Phys. Lett. A 17, 435 (2002).
  • [32]B.M. Pimentel, P.J. Pompeia, J.F. da Rocha-Neto and R.G. Teixeira, Gen. Rel. Grav. 35, 877 (2003).
  • [33]B.M. Pimentel, P.J. Pompeia and J.F. da Rocha-Neto, Il Nuovo Cimento B 120, 981 (2005).
  • [34]B.M. Pimentel and R.G. Teixeira, Il Nuovo Cimento B 111, 841 (1996).
  • [35]B.M. Pimentel and R.G. Teixeira, Il Nuovo Cimento B 113, 805 (1998).
  • [36]M.C. Bertin, B.M. Pimentel and P.J. Pompeia, Ann. Phys. 323, 527 (2008).
  • [37] B.M. Pimentel, R.G. Teixeira and J.L. Tomazelli Ann. Phys. 267, 75 (1998).
  • [38]M.C. Bertin, B.M. Pimentel and P.J. Pompeia, Mod. Phys. Lett. A 20, 2873 (2005).
  • 1
    E-mail:
  • 2
    Neste trabalho empregaremos a convenção de soma, em que índices repetidos representam soma sobre os valores desses índices. Por exemplo, na expressão (1),
    pi
    i deve ser compreendido por
    = 1
    pi
    i.
  • 3
    Outros trabalhos relevantes no início do desenvolvimento da análise de sistemas singulares podem ser lidos em Anderson and Begmann [3], Dirac [4], Bergmann and Goldberg [5], Dirac [6] e DeWitt (não publicado. Veja a Ref. [11], p. 7.), trabalhos que ajudaram a esclarecer e a refinar diversos aspectos do método original. Na década seguinte um tratamento expandido de sistemas Hamiltonianos singulares foi estabelecido por
    Dirac, [7]. Outros aspectos foram tratados por diversos autores desde então, como Kundt [8] e Shanmugadhasan [9] e [10]. Boas referências para iniciar o estudo ao método Hamiltoniano são as Refs. [7], [11], [12] e [13].
  • 4
    As Eqs. (5) pressupõem que as forças generalizadas possam ser escritas a partir do gradiente de um potencial. Assim, as equações dinâmicas de Newton,
    Fi = Σ
    imiai, são mais gerais que as equações de EL pois as primeiras admitem forças não conservativas. No entanto, há uma versão das equações de EL que admite forças generalizadas não conservativas. Neste trabalho, contudo, consideraremos apenas sistemas cujas forças sejam derivadas de potenciais. Veja Ref. [14], cap. 9, Ref. [15], caps. 1 e 2, Ref. [16], cap. 5 e Ref. [17], cap. 2.
  • 5
    O leitor pode se convencer disso por um exemplo geral de uma Lagrangiana do tipo
    L[
    qi, (
    i)
    2].
  • 6
    Também chamadas ignoráveis.
  • 7
    De fato, podemos formular a dinâmica de modo que um sistema regular seja um caso particular de um sistema singular. Para isso basta uma reparametrização arbitrária e a introdução do tempo como variável dinâmica. Nesse caso um sistema regular torna-se singular e seu vínculo vem a ser a equação de HJ, ∂
    S/∂
    t +
    H
    0 = 0. Esse tipo de sistema é sempre singular pois o tempo torna-se uma coordenada degenerada. É natural, sob este ponto de vista, escrever de forma unificada os vínculos da Eqs. (14) e (17).
  • 8
    Esta questão tem origem no fato de um espaço de fase dever possuir uma operação inversa ao
    Parênteses de Poisson que seja única. No caso do parênteses da Eq. (33) essa inversa não existe ou, na melhor das hipóteses, não será única. É possível mostrar, contudo, que sendo possível a separação entre as variáveis
    e
    q
    α, o parênteses definido por
    possui uma inversa e esta é única. Contudo, este tópico foge ao escopo deste trabalho.
  • 9
    O fato de ambas as curvas serem da mesma congruência garante que dois vetores, pertencentes a cada curva, sejam membros de um mesmo campo vetorial. O mesmo ocorre com vetores tangentes a duas superfícies de uma mesma família.
  • 10
    Não confundir com os objetos da teoria das distribuições.
  • 11
    Os colchetes de
    Lie são operadores bilineares que agem em vetores e levam a outros vetores. Eles dizem como um campo vetorial varia com relação a uma curva gerada por outro campo vetorial. Por exemplo, considere dois vetores
    X =
    α
    i(x)∂
    i e
    Y =
    β
    i(x)∂
    i, em que
    α
    i e
    β
    i são as componentes dos campos dado um sistema de coordenadas retangular
    xi. Tanto
    X quanto
    Y podem ser usados para gerar curvas dinâmicas no espaço. Essas curvas seriam soluções das equações
    i =
    α
    i(x) e
    i =
    β
    i(x). Se quisermos saber como varia o campo
    X sobre a curva gerada por
    Y basta resolver [
    X,
    Y]. Por ser antissimétrico, o resultado nos dá a negativa da variação de
    Y com relação à curva de
    X. Este é um tópico de geometria diferencial referente à derivada de
    Lie, que pode ser estudado, não sem antes passar por tópicos introdutórios, Refs. [21, 22] e também na Ref. [1], cap. 3.
  • 12
    É desejável este fato, desde que, assumindo que a superfície não se mova com o tempo, componentes tangentes à superfície não contribuem para mantê-la nessa configuração.
  • 13
    Usaremos
    c = 1 neste exemplo.
  • 14
    A partir deste ponto passaremos a omitir o ponto de aplicação das funções no espaço-tempo sempre que este for trivial.
  • 15
    i
    j
    Fji = 1/2∂
    i
    j[
    Fji -
    Fij] = 1/2∂
    i
    j
    Fji - 1/2∂
    i
    jFij = 1/2∂
    i
    jFji - 1/2∂
    j
    iFij = 1/2∂
    i
    jFji - 1/2∂
    i
    jFji = 0.
  • Datas de Publicação

    • Publicação nesta coleção
      22 Out 2008
    • Data do Fascículo
      Set 2008

    Histórico

    • Recebido
      15 Fev 2008
    • Aceito
      11 Mar 2008
    Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
    E-mail: marcio@sbfisica.org.br