Acessibilidade / Reportar erro

Doze maneiras de resolver o oscilador harmônico simples

Twelve ways to solve the simple harmonic oscillator

Resumos

Ao longo do curso de graduação em Física, o(a) estudante frequentemente se depara com problemas envolvendo oscilações. O principal modelo usado para investigar fenômenos oscilatórios é o oscilador harmônico simples. À medida que os(as) estudantes avançam em sua formação acadêmica, eles(as) também aprendem vários métodos para resolver equações diferenciais. É padrão empregar essas novas técnicas em problemas cuja solução é previamente conhecida, para testar a qualidade do método e para fins didáticos. Juntando essas duas linhas, apresento doze maneiras diferentes de resolver o conhecido problema do oscilador harmônico simples. Elas se enquadram em três categorias: básicas, intermediárias e avançadas. Essa divisão é baseada no nível de conhecimento necessário para resolver o problema, progressivamente adquirido ao longo da formação acadêmica do(a) aluno(a). Portanto, este material serve de referência para estudantes em diferentes etapas de sua formação.

Palavras-chave:
Oscilador harmônico simples; Soluções de equações diferenciais


Throughout the undergraduate course in Physics, the student frequently encounters problems involving oscillations. The primary model used to investigate oscillatory phenomena is the simple harmonic oscillator. As students advance in their academic education, they also learn various methods for solving differential equations. It is standard to employ such novel techniques in problems whose solution is previously known, to test the method’s quality and for didactic purposes. Placing these two lines together, I present twelve different ways to solve the well-known simple harmonic oscillator problem. They fall into three categories: basic, intermediate, and advanced. This division is based on the level of knowledge necessary to solve the problem, progressively acquired throughout the student’s academic education. Therefore, this material serves as a reference for students at distinct stages of their education.

Keywords:
Simple harmonic oscillator; Differential equation solutions.


1. Introdução

O oscilador harmônico simples (OHS) é um sistema ideal de grande importância na Física e Matemática. Serve como primeira aproximação para modelar a dinâmica de sistemas como massa-mola, pêndulo simples, sistemas dinâmicos próximos à configuração de equilíbrio, oscilações de circuitos, interações moleculares [1[1] S.T. Thornton e J.B. Marion, Dinâmica clássica de partículas e sistemas (Cengage Learning, São Paulo, 2011)., 2[2] H.M. Nussenzveig, Curso de Física Básica: Eletromagnetismo (Blucher, São Paulo, 2015), v. 3, 4 ed., 3[3] C. Kittel, Introdução à Física do Estado Sólido (LTC, Rio de Janeiro, 2011), 8 ed.] etc. Elementos mais realistas como amortecimentos, anarmonicidades ou campos externos podem ser inseridos [1[1] S.T. Thornton e J.B. Marion, Dinâmica clássica de partículas e sistemas (Cengage Learning, São Paulo, 2011).], mas não fazem parte do escopo deste texto. O objetivo é resolver o problema do OHS usando uma grande variedade de métodos, que serão expostos nas próximas seções. Por enquanto vamos nos ater somente à equação de movimento e sua solução geral.

A equação diferencial do OHS é definida por

(1) x ¨ + ω 0 2 x = 0

em que o símbolo x¨=d2xdt2 e ω0 é a frequência (angular) do OHS. Trata-se de uma equação diferencial linear homogênea de segunda ordem. A solução geral, x(t), de (1) é amplamente conhecida como

(2) x ( t ) = a cos ( ω 0 t ) + b sen ( ω 0 t )

sendo a e b constantes arbitrárias. Vale ressaltar que as funções cosseno e seno são linearmente independentes e que cada uma é individualmente solução da equação (1). Assim, de acordo com o princípio da superposição [4[4] D.G. Zill e M.R. Cullen, Equações Diferenciais. (Pearson, São Paulo, 2000), v. 1, 3 ed.], a solução (2) constitui uma família de soluções expressas como combinação linear das funções linearmente independentes, uma propriedade das soluções gerais das equações diferenciais homogêneas [4[4] D.G. Zill e M.R. Cullen, Equações Diferenciais. (Pearson, São Paulo, 2000), v. 1, 3 ed.]. Uma substituição direta de (2) em (1) garante ao(à) leitor(a) a veracidade da solução caso ainda não esteja habituado(a) com esta. A solução (2) é única, mas pode ser reescrita explorando relações trigonométricas pertinentes, conduzindo a formas totalmente equivalentes à (2) como

(3) x ( t ) = A cos ( ω 0 t - δ ) = A sen ( ω 0 t + ϕ )

onde A, δ e ϕ também são constantes arbitrárias que se relacionam com a e b através de

a = A cos ( δ ) = A sin ( ϕ ) , b = A sen ( δ ) = A cos ( ϕ )

sendo que todas essas constantes arbitrárias podem ser relacionadas facilmente com as condições iniciais x(0)=x0 e x.(0)=v0.

As doze maneiras diferentes de se resolver o problema do OHS apresentadas aqui são:

  1. Equação característica;

  2. Série de Taylor;

  3. Método de Picard;

  4. Método da potência;

  5. Transformada de Fourier;

  6. Transformada de Laplace;

  7. Método matricial;

  8. Equações canônicas de Hamilton;

  9. Parênteses de Poisson;

  10. Equação característica de Hamilton;

  11. Variáveis de ação-ângulo;

  12. Métodos numéricos.

Esses métodos estão classificados de acordo com o grau de elaboração e do avanço médio de um(a) estudante do curso de Física, tomando como base o currículo aplicado na universidade que leciono. Cada método é apresentado independente do outro, ou seja, o(a) leitor(a) pode selecionar apenas o método de seu interesse para verificar a solução do problema do OHS.

2. Soluções Usando Métodos Básicos

Os métodos exibidos nesta seção necessitam apenas de um conhecimento elementar de cálculo diferencial e integral, equações diferenciais e série de Taylor. Disciplinas com conteúdo envolvendo cálculo de uma variável geralmente são suficientes para embasar o(a) leitor(a).

Alguns desses métodos básicos, como a série de Taylor e de potências, são chamados métodos locais, e sua existência está relacionada com propriedades de continuidade e diferenciabilidade das funções.

2.1. Equação característica

O método mais elementar de solução da equação do OHS é utilizando a equação característica [5[5] K.D. Machado, Equações Diferenciais Aplicadas (Todapalavra, Ponta Grossa, 2012), v. 1.]. Consiste em propor que a solução x(t) seja escrita na forma

(4) x ( t ) e r t

sendo r uma constante complexa não arbitrária pois deve ser escrita a partir dos parâmetros físicos presentes em (1), a saber, ω0, para que a forma proposta em (4) seja solução de (1). Fazendo a substituição de (4) em (1), o termo exponencial fica repetido, gerando (r2+ω02)x(t)=0. Como estamos buscando uma solução não-trivial, x(t)0, temos a condição r2+ω02=0, determinando r como

(5) r = ± i ω 0

onde i=-1 é a unidade imaginária. Com dois valores possíveis para r em (5), a solução geral se constroi a partir da combinação linear das duas soluções individuais dadas em (4):

(6) x ( t ) = α e i ω 0 t + β e - i ω 0 t

onde α e β são constantes complexas arbitrárias. Usando a representação exponencial de um número complexo, conhecido como fórmula de Euler, eiθ= cos(θ)+i sen(θ), a solução mostrada em (6) fica escrita em termos de funções trigonométricas

x ( t ) = ( α + β ) cos ( ω 0 t ) + i ( α - β ) sen ( ω 0 t )

que são equivalentes à solução mostrada em (2) com a=α+β e b=i(α-β).

2.2. Série de Taylor

Qualquer função bem comportada pode ser expandida em série de Taylor em torno de um ponto [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]. Assumindo que a solução x(t) do OHS seja dessa forma, podemos expandi-la em torno de um instante onde as propriedades do sistema sejam conhecidas. Fisicamente é interessante escolher esse instante como t=0 e determinar a solução em termos das condições iniciais.

Assim, derivando múltiplas vezes (1) e avaliando os resultados em t=0 obtemos

(7) { x ¨ ( 0 ) = - ω 0 2 x ( 0 ) = - ω 0 2 x 0 x ˙˙˙ ( 0 ) = - ω 0 2 x . ( 0 ) = - ω 0 2 v 0 x ( 4 ) ( 0 ) = - ω 0 2 x ¨ ( 0 ) = ω 0 4 x 0 x ( 5 ) ( 0 ) = - ω 0 2 x ˙˙˙ ( 0 ) = ω 0 4 v 0 x ( 6 ) ( 0 ) = - ω 0 2 x ( 4 ) ( 0 ) = - ω 0 6 x 0 x ( 7 ) ( 0 ) = - ω 0 2 x ( 5 ) ( 0 ) = - ω 0 6 v 0

em que x(n) indica a n-ésima derivada de x. A série de Taylor para a solução x(t) escreve-se

(8) x ( t ) = x ( 0 ) + x . ( 0 ) t + x ¨ ( 0 ) 2 ! t 2 + x ˙˙˙ ( 0 ) 3 ! t 3 +

e recolhendo os termos calculados em (7), temos, após uma organização conveniente de (8):

(9) x ( t ) = x 0 ( 1 - ω 0 2 t 2 2 ! + ω 0 4 t 4 4 ! - ω 0 6 t 6 6 ! + ) + v 0 ω 0 ( ω 0 t - ω 0 3 t 3 3 ! + ω 0 5 t 5 5 ! - ω 0 7 t 7 7 ! + )

onde é possível reconhecer as séries de Taylor de cos(ω0t) e sen(ω0t) no primeiro e segundo parênteses de (9), respectivamente, recaindo exatamente sobre a solução geral (2) com as constantes arbitrárias dadas em termos das condições iniciais.

2.3. Método de Picard

O método de Picard é um método iterativo (também chamado autoconsistente) para se obter a solução de uma equação diferencial [4[4] D.G. Zill e M.R. Cullen, Equações Diferenciais. (Pearson, São Paulo, 2000), v. 1, 3 ed.]. Originalmente é apresentado como um método para se resolver equações diferenciais de primeira ordem [4[4] D.G. Zill e M.R. Cullen, Equações Diferenciais. (Pearson, São Paulo, 2000), v. 1, 3 ed.], mas a convergência da solução iterativa para equações diferenciais de segunda ordem é garantida convertendo o problema original dado em (1) em dois problemas equivalentes de primeira ordem [7[7] J.I. Ramos, Appl. Math. Comput. 203, 238 (2008).].

A partir de uma proposta simples para a solução na forma de uma função linear, integra-se a equação diferencial obtendo uma nova função, que servirá de entrada para uma nova substituição na equação diferencial que fornecerá uma saída e assim por diante [4[4] D.G. Zill e M.R. Cullen, Equações Diferenciais. (Pearson, São Paulo, 2000), v. 1, 3 ed.].

Para o problema do OHS descrito em (1), sabendo que x¨=dx./dt, temos

d x . ( t ) = - ω 0 2 x ( t ) d t 0 t d x . ( t ) = - ω 0 2 0 t x ( t ) d t

realizando a integração do lado esquerdo:

x . ( t ) = d x ( t ) d t = v 0 - ω 0 2 0 t x ( t ) d t

onde foi usada a condição inicial x.(0)=v0. Esse último resultado leva a

d x ( t ) = v 0 d t - ω 0 2 ( 0 t x ( t ) d t ) d t

que pode ser integrada para retornar finalmente

(10) x ( t ) = x 0 + v 0 t - ω 0 2 0 t 0 t x ( t ′′ ) d t ′′ d t

onde usou-se a outra condição inicial x(0)=x0.

Para encontrar a solução do problema x(t), é necessário já conhecê-la, como mostra o lado direito de (10). Uma forma de resolver é transformando a equação (10) em uma fórmula de iteração, onde o passo j serve de entrada para o passo j+1:

(11) x j + 1 ( t ) = x 0 + v 0 t - ω 0 2 0 t 0 t x j ( t ′′ ) d t ′′ d t

e a escolha conveniente para a primeira iteração é x1(t)=x0+v0t. A solução é obtida quando um grande número de iterações é realizada, ou seja:

x ( t ) = lim j x j ( t ) .

O esquema iterativo do método de Picard para o problema do OHS pode ser resumido de acordo com a Figura 1.

Figura 1:
Esquema iterativo do método de Picard para o oscilador harmônico simples. Nas iterações, x0 e v0 são a posição e velocidade iniciais, respectivamente, enquanto que os xj(t) são as sucessivas iterações.

Assim, partindo da proposição linear x1(t)=x0+v0t, a fórmula de iteração (11) fornece a aproximação

x 2 ( t ) = x 0 + v 0 t - ω 0 2 0 t 0 t ( x 0 + v 0 t ′′ ) d t ′′ d t

fazendo a primeira integração em t′′ temos

x 2 ( t ) = x 0 + v 0 t - ω 0 2 0 t ( x 0 t + v 0 t 2 2 ) d t

com a integração em t e uma organização conveniente dos termos, encontramos

x 2 ( t ) = x 0 ( 1 - ω 0 2 t 2 2 ) + v 0 ω 0 ( ω 0 t - ω 0 3 t 3 3 ! ) .

Usando esse último resultado como entrada na fórmula de iteração (11), encontramos a aproximação x3(t) para a solução:

x 3 ( t ) = x 0 ( 1 - ω 0 2 t 2 2 + ω 0 4 t 4 4 ! ) + v 0 ω 0 ( ω 0 t - ω 0 3 t 3 3 ! + ω 0 5 t 5 5 ! )

e os termos da expansão em série de Taylor do cosseno e seno começam a surgir no primeiro e segundo parênteses da equação anterior, respectivamente, levando à mesma solução mostrada em (9), que por conseguinte, é equivalente à (2). Um método iterativo alternativo ao de Picard explorando propriedades combinatórias/fatoriais e série de Taylor pode ser encontrado em [8[8] B.R. Segatto, Rev. Bras. Ensino Fís. 42, e20180346 (2020).], onde as expressões combinatórias convergem para as conhecidas funções trigonométricas quando o número de iterações é muito grande.

2.4. Série de potências

Um terceiro método envolvendo potências para resolver a equação (1) consiste em propor a solução x(t) como escrita na forma de um polinômio de grau infinito [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]:

(12) x ( t ) = c 0 + c 1 t + c 2 t 2 + = n = 0 c n t n

com os coeficientes reais cn devem ser determinados em termos de ω0. A principal diferença entre esse método e de Taylor é que agora vamos derivar a proposta de solução (12), em vez da equação diferencial. Derivando (12) duas vezes:

x ¨ ( t ) = n = 2 n ( n - 1 ) c n t n - 2

onde o início do somatório mudou para n=2 porque os dois primeiros termos com n={0,1} são identicamente nulos. Substituindo esse último resultado na equação (1), temos

n = 2 n ( n - 1 ) c n t n - 2 + ω 0 2 n = 0 c n t n = 0 .

O primeiro somatório deste último resultado pode ser reescrito usando n=j+2:

j = 0 ( j + 2 ) ( j + 1 ) c j + 2 t j + ω 0 2 n = 0 c n t n = 0

e, como o índice do somatório é livre, podemos retornar a usar n:

n = 0 [ ( n + 2 ) ( n + 1 ) c n + 2 + ω 0 2 c n ] t n = 0 .

Para que a expressão acima seja nula, todos os coeficientes de tn devem ser identicamente nulos, o que leva à chamada relação de recorrência

(13) c n + 2 = - ω 0 2 ( n + 2 ) ( n + 1 ) c n .

Pela forma de (13), os coeficientes {c2,c4,c6,} são dados em termos de c0, enquanto que os coeficientes {c3,c5,c7,} em termos de c1 calculados a seguir

(14) { n = 0 c 2 = - ω 0 2 2 ! c 0 n = 1 c 3 = - ω 0 2 3 ! c 1 n = 2 c 4 = - ω 0 2 4 3 c 2 = ω 0 4 4 ! c 0 n = 3 c 5 = - ω 0 2 5 4 c 3 = ω 0 4 5 ! c 1 n = 4 c 6 = - ω 0 2 6 5 c 4 = - ω 0 6 6 ! c 0 n = 5 c 7 = - ω 0 2 7 6 c 5 = - ω 0 6 7 ! c 1

Com os coeficientes dados em (14), a proposta de solução (12) fica, após um arranjo conveniente dos termos:

(15) x ( t ) = c 0 ( 1 - ω 0 2 t 2 2 ! + ω 0 4 t 4 4 ! - ω 0 6 t 6 6 ! + ) + c 1 ω 0 ( ω 0 t - ω 0 3 t 3 3 ! + ω 0 5 t 5 5 ! - ω 0 7 t 7 7 ! + )

que é a mesma solução (9) obtida usando o método de Taylor com c0=x0 e c1=v0, o que, consequentemente, é equivalente à forma (2).

Um outro método bastante interessante envolvendo a solução do problema escrita como uma série de potências é o método de Frobenius [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed., 9[9] E. Butkov, Física Matemática (LTC, Barueri, 1978).], particularmente indicado para problemas que possuem pontos singulares, o que não é o caso do OHS. Um ponto singular é reconhecido a partir da forma geral de uma equação diferencial homogênea de segunda ordem [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]:

x ¨ + P ( t ) x . + Q ( t ) x = 0 .

Se P(t) e Q(t) são finitas em t=t0 então o ponto t0 é dito ordinário [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]. Caso contrário, t=t0 é um ponto singular [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]. Note, pela equação de movimento (1), que o OHS não possui pontos singulares para 0t<[6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]. Dessa forma, o método de Frobenius, que propõe uma solução na forma de uma série

x ( t ) = t λ ( c 0 + c 1 t + c 2 t 2 + ) = n = 0 c n t λ + n ,

quando aplicado no prolema do OHS, recai exatamente sobre o método da série de potências, pois o expoente λ da expressão anterior torna-se inteiro [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed., 9[9] E. Butkov, Física Matemática (LTC, Barueri, 1978).].

3. Soluções Usando Métodos Intermediários

Os métodos mostrados nesta seção precisam de conhecimentos mais elaborados que os da seção anterior. Normalmente disciplinas envolvendo física matemática apresentam os assuntos que servem de fundamento para as resoluções mostradas aqui.

Uma observação importante acerca dos métodos das transformadas de Fourier e Laplace: eles são chamados de métodos integrais pois a solução é obtida a partir da transformada integral usando um núcleo (também chamado kernel ) que, juntamente com os limites de integração, caracterizam a transformada em si. Esses métodos, diferentemente dos métodos locais anteriores necessitam condições de existência envolvendo a integrabilidade das funções.

3.1. Transformada de Fourier

A transformada de Fourier tem uma vasta aplicação na Física. Sua principal característica é converter um problema que esteja no domínio do tempo (ou comprimento de onda) para o domínio da frequência (ou número de onda) [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.].

Dada uma função f(t), sua transformada de Fourier g(ω)={f(t)}(ω) é obtida a partir de [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]

(16) g ( ω ) = 1 2 π - + f ( t ) e i ω t d t

onde i é a unidade imaginária. A transformada inversa é completamente análoga:

(17) f ( t ) = 1 2 π - + g ( ω ) e - i ω t d ω .

Uma propriedade muito útil da transformada de Fourier é converter as operações derivadas em funções do tempo em operações de multiplicação nas funções das frequências correspondentes. Para o caso particular da derivada segunda [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.],

(18) { d 2 f ( t ) d t 2 } = - ω 2 g ( ω ) .

Aplicando a transformada de Fourier na equação do OHS (1), temos

{ x ¨ } + ω 0 2 { x } = 0

que, usando (18), fica na forma

( - ω 2 + ω 0 2 ) { x } = 0 .

Este último resultado mostra que, se ω=±ω0, então {x} é arbitrário e, se ω±ω0, então {x} é identicamente nulo. Como ω só pode assumir um dos valores +ω0 ou -ω0 por vez, podemos dividir a equação anterior em um sistema

{ ( ω + ω 0 ) { x } = 0 ( ω - ω 0 ) { x } = 0

produzindo duas possibilidades para a transformada de Fourier. Usando a propriedade da função de distribuição delta de Dirac zδ(z)=0[9[9] E. Butkov, Física Matemática (LTC, Barueri, 1978)., 10[10] A.S. Castro, Rev. Bras. Ensino Fís. 45, e20220318 (2023).], podemos identificar cada possibilidade de {x} do sistema anterior em uma função delta conveniente:

{ x } = { δ ( ω + ω 0 ) δ ( ω - ω 0 ) .

Assim, baseado na linearidade da transformada de Fourier, vamos propor que {x} possa ser escrita com uma combinação linear das possíveis funções delta de Dirac dadas no último resultado:

(19) { x } ( ω ) = α δ ( ω + ω 0 ) + β δ ( ω - ω 0 )

com α e β constantes arbitrárias. Aplicando a transformada inversa de Fourier (17) em (19), temos

x ( t ) = 1 2 π - [ α δ ( ω + ω 0 ) + β δ ( ω - ω 0 ) ] e - i ω t d ω

e, pela definição da principal propriedade da função delta de Dirac, -+f(z)δ(z-z0)dz=f(z0), a expressão acima reduz-se a

(20) x ( t ) = 1 2 π [ α e i ω 0 t + β e - i ω 0 t ] .

Convertendo a forma exponencial de um número complexo para a trigonométrica usando a fórmula de Euler eiθ= cos(θ)+i sen(θ), a expressão mostrada em (20) fica

x ( t ) = 1 2 π [ ( α + β ) cos ( ω 0 t ) + i ( α - β ) sen ( ω 0 t ) ]

que é formalmente idêntica à solução (2).

3.2. Transformada de Laplace

A transformada de Laplace {f(t)}(s) de uma função f(t) é dada por [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]

(21) { f ( t ) } ( s ) = 0 f ( t ) e - s t d t .

A transformada inversa, conhecida como integral de Bromwich, não é única, contudo, para fins práticos, pode-se considerar que existe apenas uma transformada inversa [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]. Também é comum recorrer a tabelas de transformadas para resgatar uma transformada inversa [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]. Para o problema o OHS, as duas transformadas de interesse são das funções trigonométricas cosseno e seno:

(22) { cos ( ω t ) } = s s 2 + ω 2 , { sen ( ω t ) } = ω s 2 + ω 2

válidas para s>0. Uma propriedade importante da transformada de Laplace é que, quando aplicada em derivadas de uma função, explicita as condições iniciais [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]. Para o problema do OHS, a transformada de interesse refere-se à da derivada segunda de x(t):

(23) { x ¨ ( t ) } ( s ) = s 2 { x ( t ) } ( s ) - s x ( 0 ) - x . ( 0 ) .

Assim, aplicando a transformada de Laplace à equação (1), temos {x¨}+ω02{x}=0, que, usando a equação (23), escreve-se

s 2 { x ( t ) } - s x 0 - v 0 + ω 0 2 { x ( t ) } = 0

onde x0=x(0) e v0=x.(0) são as condições iniciais. Resolvendo a última equação para {x(t)}:

(24) { x ( t ) } = x 0 s s 2 + ω 0 2 + v 0 ω 0 ω 0 s 2 + ω 0 2

onde identifica-se imediatamente as transformadas do cos(ω0t) e sen(ω0t), dadas em (22). Assim, podemos colocar

{ x ( t ) } = x 0 { cos ( ω 0 t ) } + v 0 ω 0 { sen ( ω 0 t ) }

e usando a linearidade da transformada de Laplace, temos

{ x ( t ) } = { x 0 cos ( ω 0 t ) + v 0 ω 0 sen ( ω 0 t ) }

e, portanto;

x ( t ) = x 0 cos ( ω 0 t ) + v 0 ω 0 sen ( ω 0 t )

que é idêntica à forma (2) com as constantes a e b dadas em termos das condições iniciais.

3.3. Método matricial

A equação de movimento (1) é equivalente ao sistema de equações [11[11] I.A.C. Melnik, Rev. Bras. Ensino Fís. 44, e20220077 (2022).]

(25) { x . = v v . = - ω 0 2 x

que pode ser reescrito de forma matricial definindo a matrizes coluna F e quadrada M como

(26) F = [ x v ] , M = [ 0 1 - ω 0 2 0 ]

transformando o sistema de equações (25) em uma única equação matricial:

(27) F . = M F

cuja solução é dada por

(28) F ( t ) = exp ( M t ) F ( 0 )

onde F(0) é a matriz das condições iniciais x(0)=x0 e x.(0)=v0. A exponencial de uma matriz é definida a partir de uma expressão semelhante à expansão em série de Taylor da função exponencial [6[6] G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.]:

(29) exp ( M t ) = n = 0 1 n ! M n t n .

O cálculo das potências de M é facilmente determinado, encontrando-se

{ M 2 = - ω 0 2 I M 3 = - ω 0 2 M M 4 = ω 0 4 I M 5 = ω 0 4 M

sendo I a matriz identidade. Observa-se o padrão que potências pares de M são proporcionais à matriz identidade I e potências ímpares são proporcionais à própria matriz M. Com esses resultados, a exponencial dada em (29) fica, após uma fatoração apropriada:

exp ( M t ) = I ( 1 - ω 0 2 t 2 2 ! + ω 0 4 t 4 4 ! - ω 0 6 t 6 6 ! + ) + 1 ω 0 M ( 1 - ω 0 3 t 3 3 ! + ω 0 5 t 5 5 ! - ω 0 7 t 7 7 ! + )

onde é possível identificar as expansões em série de Taylor do cos(ω0t) e sen(ω0t) nos parênteses do último resultado. Assim:

exp ( M t ) = I cos ( ω 0 t ) + M sen ( ω 0 t ) ω 0

e substituindo esta última exponencial na solução matricial dada em (28), temos

F ( t ) = F ( 0 ) cos ( ω 0 t ) + M F ( 0 ) sen ( ω 0 t ) ω 0

que, explicitando as matrizes F e M tais como dadas em (26), retornam

(30) [ x ( t ) v ( t ) ] = [ x 0 v 0 ] cos ( ω 0 t ) + [ v 0 - ω 0 2 x 0 ] sen ( ω 0 t ) ω 0 .

Assim, tomando a primeira linha de (30), temos a solução x(t) dada em termos das condições iniciais x0 e v0:

x ( t ) = x 0 cos ( ω 0 t ) + v 0 ω 0 sen ( ω 0 t )

que é a mesma solução dada em (2) com as condições iniciais explicitamente dadas. Note que a segunda linha de (30) fornece imediatamente a expressão para a velocidade x.(t)=v(t)=v0 cos(ω0t)-ω0x0 sen(ω0t) sem precisar derivar diretamente x(t).

4. Soluções Usando Métodos Avançados

Nesta seção veremos técnicas ainda mais elaboradas para a resolução do problema do OHS. São métodos cuja gênese está essencialmente na Mecânica propriamente dita, diferentemente dos anteriores, que vinham do cálculo diferencial integral ou ainda física matemática. Normalmente o conhecimento que fundamenta esta seção é visto nas disciplinas onde a Mecânica Clássica é abordada na formulação hamiltoniana e seus desdobramentos.

Uma ressalva deve ser feita antes de prosseguir: normalmente o estudo é realizado adotando-se coordenadas generalizadas em sistemas multidimensionais. Aqui fiz a simplificação de utilizar apenas o problema unidimensional original com a coordenada cartesiana x.

4.1. Equações canônicas de Hamilton

Como o potencial harmônico não depende explicitamente do tempo e a coordenada generalizada é a própria coordenada cartesiana x, o hamiltoniano H pode ser obtido diretamente pela energia mecânica total E desde que a energia cinética seja escrita em termos do momento linear p=mx.. Em símbolos, o hamiltoniano do OHS é dado por [1[1] S.T. Thornton e J.B. Marion, Dinâmica clássica de partículas e sistemas (Cengage Learning, São Paulo, 2011)., 12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.]

(31) H = E = p 2 2 m + m ω 0 2 x 2 2 .

As variáveis canônicas x e p, tratadas como independentes uma da outra, são definidoras do estado do sistema. De acordo com a formulação hamiltoniana da mecânica, as equações canônicas de movimento são [1[1] S.T. Thornton e J.B. Marion, Dinâmica clássica de partículas e sistemas (Cengage Learning, São Paulo, 2011)., 12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.]

(32) x . = H p , p . = - H x

que, para o hamiltoniano dado em (31), tornam-se

(33) x . = p m ; p . = - m ω 0 2 x .

A partir de (33), dividindo p. por x. temos

p . x . = d p d x = - m 2 ω 0 2 x p .

Daqui há dois caminhos equivalentes para resolver a equação acima. Podemos fazer (a) uma integração indefinida e inserir uma constante arbitrária, que é fácil mostrar que esta é dada a partir da energia total do sistema ou (b) calcular uma integral definida das condições iniciais x(0)=x0 e p(0)=p0 até valores arbitrários. Optando pela rota (b) de resolução, temos que o último resultado integra-se na forma

p 0 p p d p = - m 2 ω 0 2 x 0 x x d x .

Realizando a integração com um rearranjo conveniente dos termos:

p 2 2 m + m ω 0 2 x 2 2 = p 0 2 2 m + m ω 0 2 x 0 2 2 = E .

A partir do último resultado, resolvendo para p e substituindo na primeira equação diferencial de (33), encontramos

x . = d x d t = 2 E m - ω 0 2 x 2 = 2 E m 1 - m ω 0 2 x 2 2 E .

Separando as variáveis de acordo com as diferenciais:

d x 1 - m ω 0 2 x 2 2 E = 2 E m d t .

A expressão do lado esquerdo pode ser simplificada valendo-se de uma mudança de variáveis mω02/(2E)x= sen(θ). Assim, após alguns cálculos

d θ = ω 0 d t

e integrando das condições iniciais θ(0)=θ0 até um ponto arbitrário, tem-se imediatamente

θ - θ 0 = ω 0 t sen ( θ ) = sen ( ω 0 t + θ 0 ) .

Voltando para x usando a mudança de variáveis anterior mω02/(2E)x= sen(θ), chega-se finalmente ao resultado esperado

x ( t ) = 2 E m ω 0 2 sen ( ω 0 t + θ 0 )

que é idêntica à solução mostrada em (3) com a amplitude dada por 2E/(mω02).

4.2. Parênteses de Poisson

Dentro da formulação hamiltoniana da Mecânica, há uma representação matemática elegante das equações de movimento de Hamilton em termos dos parênteses de Poisson [12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.].

Dadas duas funções dinâmicas F(x,p,t) e G(x,p,t) o parênteses de Poisson {F,G} é definido como [12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.]

{ F , G } = F x G p - F p G x .

Assim, para o hamiltoniano do OHS dado em (31), temos (x e p são independentes entre si)

(34) { x , H } = p m , { p , H } = - m ω 0 2 x .

A solução do problema do OHS por essa técnica pode ser feita reescrevendo a expansão em série de Taylor de uma função bem comportada u(t) em termos de vários parênteses de Poisson. Para isso, vamos supor que u=u(x,p) seja uma função dinâmica que não depende explicitamente do tempo. Assim, para a derivada total de u em relação a t:

d u d t = u x d x d t + u p d p d t = u x H p - u p H x = { u , H }

onde usou-se as equações canônicas de Hamilton (32). Para a derivada segunda, já aplicando o parênteses de Poisson:

d 2 u d t 2 = { d u d t , H } = { { u , H } , H } .

Na vez da derivada terceira:

d 3 u d t 3 = { d 2 u d t 2 , H } = { { { u , H } , H } , H } .

De forma que podemos generalizar para qualquer derivada:

(35) d n u d t n = { { { { u , H } , H } , H } , , H }

onde a quantidade de parênteses de Poisson presentes no lado direito de (35) é n. Assim, u(t) pode ser escrito em série de Taylor em termos dos parênteses de Poisson na forma [12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.]

u ( t ) = u ( 0 ) + { u , H } 0 t + { { u , H } , H } 0 t 2 2 ! + { { { u , H } , H } , H } 0 t 3 3 ! + { { { { u , H } , H } , H } , H } 0 t 4 4 ! +

onde o índice representa a avaliação do parênteses de Poisson mais externo em t=0. Para x(t), a expressão acima converte-se para

x ( t ) = x 0 + p 0 m t + 1 m { p , H } 0 t 2 2 ! + 1 m { { p , H } , H } 0 t 3 3 ! + 1 m { { { p , H } , H } , H } 0 t 4 4 ! +

onde foi usada a primeira equação de (34), x(0)=x0 e p(0)=p0. Como m é constante, pode sair de todos os parênteses de Poisson. A equação anterior, após aplicar a segunda equação de (34), fica

x ( t ) = x 0 + p 0 m t - ω 0 2 x 0 t 2 2 ! - ω 0 2 { x , H } 0 t 3 3 ! - ω 0 2 { { x , H } , H } 0 t 4 4 ! +

Mais dois passos nesse processo de substituição usando as equações em (34) conduzem a equação anterior para

x ( t ) = x 0 + p 0 m t - ω 0 2 x 0 t 2 2 ! - ω 0 2 p 0 m t 3 3 ! + ω 0 4 x 0 t 4 4 ! +

que organizando convenientemente, retorna

x ( t ) = x 0 ( 1 - ω 0 2 t 2 2 ! + ω 0 4 t 4 4 ! - ) + p 0 m ω 0 ( ω 0 t - ω 0 3 t 3 3 ! + ω 0 5 t 5 5 ! - )

onde reconhecemos a expansão em série de Taylor do cos(ω0t) e sen(ω0t) no primeiro e segundo parênteses, respectivamente, deixando a solução formalmente idêntica à (9) e, por conseguinte, equivalente à (2).

4.3. Equação característica de Hamilton

Através de uma transformação inversível de coordenadas {x,p}{x,p} é possível simplificar um problema dinâmico de hamiltoniano H=H(x,p) para um equivalente com hamiltoniano mais simples K=K(x,p). Se tal transformação resultar em equações de movimento para {x,p} na mesma forma que as originais para {x,p}, ou seja:

{ x . = H p p . = - H x { x . = K p p . = - K x

então tem-se uma chamada transformação canônica [12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.]. Os hamiltonianos H e K estão relacionados entre si por [12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.]

K = H + F t

onde F é uma função geradora da transformação canônica que pode aparecer em quatro tipos, dependendo do conjunto de variáveis naturais de F.

O novo hamiltoniano mais simples possível é identicamente nulo: K=0, o que deixa a equação anterior na forma

H + S t = 0

onde é costume renomear F para S (somente para o caso do novo hamiltoniano identicamente nulo), sendo S chamada de função principal de Hamilton [13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.] e as novas variáveis {x,p} são constantes de movimento. Esta é a base da teoria de Hamilton-Jacobi.

Quando o hamiltoniano H não depende explicitamente do tempo, a teoria de Hamilton-Jacobi conduz à equação característica de Hamilton, que para uma dimensão escreve-se [12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.]

(36) H ( x , d W d x ) = E

onde p=dW/dx e W é chamada função característica de Hamilton. Com isso, é possível definir uma função geradora S=W(x)-Et onde E é a energia total (constante) e a solução do problema dinâmico é dada resolvendo-se para x a equação

(37) W E = t + β

sendo β constante de movimento.

Para o hamiltoniano do OHS dado em (31), a equação característica de Hamilton (36) fica

1 2 m ( d W d x ) 2 + m ω 0 2 x 2 2 = E .

Essa equação pode ser facilmente separada e

W = 2 m E - m 2 ω 0 2 x 2 d x

que não precisa ser resolvida por causa de (37), o que é uma vantagem do método. Substituindo esta última equação em (37), como a derivada é em relação a E, pode entrar na integração:

m d x 2 m E - m 2 ω 0 2 x 2 = t + β

que, resolvendo por substituição de variáveis usando x=2E/(mω02) sen(θ) chega-se facilmente ao resultado

d θ = ω 0 ( t + β ) θ = ω 0 ( t + β )

onde a constante de integração pode ser desprezada sem perda de informação. Definindo θ0=ω0β como uma nova constante, retomamos à variável original x na forma:

x ( t ) = 2 E m ω 0 2 sen ( ω 0 t + θ 0 )

que assume a mesma forma exibida em (3), com a amplitude dada em termos da energia total.

4.4. Variáveis de ação-ângulo

O método das variáveis de ação-ângulo é baseado na teoria de Hamilton-Jacobi e é especificamente desenvolvido para sistemas periódicos [12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.]. O objetivo principal do método é obter as frequências do movimento [12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.], mas é possível também obter as soluções da equação de movimento.

Definimos a variável de ação, J, como sendo [12[12] N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007)., 13[13] H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.]

(38) J = 1 2 π p d x

onde a integral é fechada para um período do movimento. A partir de (38) é possível encontrar o hamiltoniano do sistema como função de J, ou seja, H=H(J) e determinar a frequência (angular) do movimento, ω, por meio de

(39) ω = H J

que é uma constante de movimento. Ou seja, a frequência de oscilação pode ser determinada sem sequer precisar das equações de movimento.

Essa frequência está relacionada com a variável de ângulo, φ, cuja equação de movimento é φ.=ω e definida a partir de

(40) φ = W J = φ 0 + ω t

onde W é a função característica de Hamilton, obtida a partir da solução da equação característica de Hamilton (36) e φ0=φ(0) é uma constante. A equação (40) deve ser resolvida para x=x(t), o que determina finalmente a solução do problema.

Para o OHS, o hamiltoniano (31) descreve uma elipse centrada na origem do espaço de fase (x,p) cujos semieixos são

(41) x m = 2 E m ω 0 2 ; p m = 2 m E

representada na Figura 2. Um ponto no espaço de fase evolui temporalmente no sentido horário de rotação. Portanto, a quantidade 2πJ calculada em (38) é igual à área da elipse formada no espaço de fase. Para calcular a variável de ação J para o OHS, podemos então usar a área da elipse 2πJ=πxmpm com xm e pm dados em (41) e encontrar que

J = E ω 0 .

Figura 2:
Espaço de fase do oscilador harmônico simples. A curva formada é uma elipse centrada na origem com semieixos medindo 2E/(mω02) e 2E/m para os eixos x e p, respectivamente. A trajetória descrita por um ponto no espaço de fase percorre a elipse no sentido horário.

Logo, como pela (31) H=E, temos que H=ω0J e a frequência de oscilação do sistema é, pela (39):

ω = H J = ω 0

o que não é surpresa.

A função característica de Hamilton é obtida a partir da equação (36), que para o OHS fica

1 2 m ( d W d x ) 2 + m ω 0 2 x 2 2 = E = ω 0 J

resolvendo para W:

W = 2 m ω 0 J - m 2 ω 0 2 x 2 d x

que não precisa ser revolvida ainda, pois o objetivo é encontrar a variável de ângulo φ, definida em (40). Portanto:

φ = W J = m ω 0 d x 2 m ω 0 J - m 2 ω 0 2 x 2 = φ 0 + ω t

que pode ser resolvida pela substituição de variáveis x=2J/(mω0) sen(θ):

θ = φ 0 + ω t

onde a constante arbitrária de integração foi desprezada por não acrescentar nada de novo. Retornando para a variável x, sabendo que a frequência do movimento é ω=ω0, temos finalmente

x ( t ) = 2 J m ω 0 sen ( ω 0 t + φ 0 )

que é formalmente idêntica à (3) com a amplitude dada em termos da variável de ação J.

5. Menção Honrosa: Métodos Numéricos

Todos os métodos apresentados nas seções anteriores são analíticos. Contudo, técnicas numéricas são importantes em contextos onde não é possível ou desejável se obter uma solução analítica. Como o próprio nome sugere, os métodos numéricos precisam que se forneça o valor numérico das variáveis, especificamente de x(0)=x0 e x.(0)=v0. Isto significa que uma “solução geral” não é possível de ser obtida, mas apenas uma única válida somente para o conjunto numérico {x0,v0} fornecido.

De modo geral, os métodos numéricos dividem a variável contínua t em uma malha tn e avaliam x nos pontos dessa malha. A solução xn=xn(tn) é construída a cada passo, ou seja, depende do histórico do método numérico em particular. A confiabilidade (grosso modo o quanto a solução numérica difere da analítica) do método depende de vários fatores, como o espaçamento da malha, a ordem de precisão e como são contadas as contribuições dos pontos da malha para a construção da solução [14[14] S.C. Chapra e R.P. Canale, Métodos Numéricos para Engenharia (AGMH, Porto Alegre, 2008), 5 ed.]. Vários métodos numéricos podem ser aplicados para se resolver o problema do OHS. O mais utilizado por apresentar um ótimo custo-benefício em termos de implementação e confiança nos resultados é o método de Runge-Kutta clássico de quatro estágios [14[14] S.C. Chapra e R.P. Canale, Métodos Numéricos para Engenharia (AGMH, Porto Alegre, 2008), 5 ed.].

O problema geral de uma equação diferencial de primeira ordem com valor inicial pode ser reduzido à forma

(42) u ( t ) = f ( t , u ) ; u ( 0 ) = u 0

onde t é a variável independente, u é a dependente e f(t,u) é a inclinação de u em t. Equações de ordem superior podem ser reduzidas à forma anterior definindo funções auxiliares para as sucessivas derivadas e fazendo uma abordagem matricial. A criação da malha em t é feita na forma

t n = n h , n = { 0 , 1 , 2 , }

onde h representa o espaçamento da malha. Portanto, integrando (42) entre dois pontos consecutivos da malha n e n+1:

u n + 1 = u n + t n t n + h f ( t , u ) d t

e a qualidade dos métodos numéricos está na avaliação numérica da integral acima, que depende essencialmente da inclinação f(t,u). O método de Runge-Kutta clássico de quatro estágios avalia a inclinação em quatro pontos: tn, tn+h/2 (com duas estimativas diferentes) e tn+h. No jargão do método, cada inclinação é chamada k, sendo definidas como [14[14] S.C. Chapra e R.P. Canale, Métodos Numéricos para Engenharia (AGMH, Porto Alegre, 2008), 5 ed.]

(43) { k 1 = f ( t n , u n ) k 2 = f ( t n + h / 2 , u n + 1 2 h k 1 ) k 3 = f ( t n + h / 2 , u n + 1 2 h k 2 ) k 4 = f ( t n + h , u n + h k 3 )

e a avaliação de un+1 é feita com pesos específicos para cada inclinação. No método de Runge-Kutta clássico de quatro estágios esses pesos são tais que

(44) u n + 1 = u n + h 6 ( k 1 + 2 k 2 + 2 k 3 + k 4 )

o que configura uma estratégia chamada preditor-corretor [14[14] S.C. Chapra e R.P. Canale, Métodos Numéricos para Engenharia (AGMH, Porto Alegre, 2008), 5 ed.].

Geometricamente, o método de Runge-Kutta clássico de quatro estágios é representado pela Figura 3, que mostra o primeiro passo do algoritmo.

Figura 3:
(Cor online.) Interpretação geométrica do método de Runge-Kutta clássico de quatro estágios. A curva cheia representa a solução exata enquanto que as setas coloridas referem-se às inclinações avaliadas em instantes diferentes. As linhas tracejadas coloridas tem as mesmas inclinações das setas de mesma cor. A estimativa de u para o próximo passo da iteração é feita com pesos específicos do método para cada inclinação k. O ponto magenta corresponde à estimativa do método numérico em t=t1. O detalhe mostra uma ampliação da região em torno de t=t1 para fins de comparação entre o valor exato u(t1) e a estimativa u1 obtida pelo método de Runge-Kutta.

Para o caso do OHS, converte-se a equação diferencial de segunda ordem em um sistema na forma

x ¨ = - ω 0 2 x { x . = v v . = - ω 0 2 x

com condições iniciais convertidas para x(0)=x0 e x.(0)=v0 com x0 e x0 definidos numericamente. A solução fica determina graficamente ou numa tabela de valores, dependendo da saída definida no algoritmo.

6. Conclusões

Por meio de uma apresentação concisa, as soluções do problema do oscilador harmônico simples foram realizadas de doze maneiras diferentes neste texto.

Uma gradação em termos do nível de elaboração do método resolutivo foi estabelecida de acordo com o esperado para o avanço em uma graduação em Física, apresentando os métodos mais elementares primeiro e os mais avançados no final.

Relativamente ao nível de elaboração dos métodos, estes foram divididos em três categorias, a depender da natureza do conhecimento necessário para se apreender os conteúdos e técnicas abordadas em cada método. Para os métodos básicos, apenas noções de cálculo diferencial e integral de uma variável. Nos métodos intermediários foi necessário abordar temas expostos em física matemática, como transformações integrais. Por fim, os métodos avançados de resolução possuem a mesma característica: são totalmente embasados na formulação de Hamilton e Hamilton-Jacobi da Mecânica.

Este texto é um compilado de métodos para se resolver o oscilador harmônico simples, e pode ser usado como consulta rápida para se verificar determinado método de resolução. Além disso, pode ser usado como fonte para a resolução de outros problemas similares em Física.

Referências

  • [1]
    S.T. Thornton e J.B. Marion, Dinâmica clássica de partículas e sistemas (Cengage Learning, São Paulo, 2011).
  • [2]
    H.M. Nussenzveig, Curso de Física Básica: Eletromagnetismo (Blucher, São Paulo, 2015), v. 3, 4 ed.
  • [3]
    C. Kittel, Introdução à Física do Estado Sólido (LTC, Rio de Janeiro, 2011), 8 ed.
  • [4]
    D.G. Zill e M.R. Cullen, Equações Diferenciais (Pearson, São Paulo, 2000), v. 1, 3 ed.
  • [5]
    K.D. Machado, Equações Diferenciais Aplicadas (Todapalavra, Ponta Grossa, 2012), v. 1.
  • [6]
    G.B. Arfken e H.J. Weber, Mathematical Methods for Physicists: international edition (Academic Press, Cambridge, 2005), 6 ed.
  • [7]
    J.I. Ramos, Appl. Math. Comput. 203, 238 (2008).
  • [8]
    B.R. Segatto, Rev. Bras. Ensino Fís. 42, e20180346 (2020).
  • [9]
    E. Butkov, Física Matemática (LTC, Barueri, 1978).
  • [10]
    A.S. Castro, Rev. Bras. Ensino Fís. 45, e20220318 (2023).
  • [11]
    I.A.C. Melnik, Rev. Bras. Ensino Fís. 44, e20220077 (2022).
  • [12]
    N.A. Lemos, Mecânica Analítica (Livraria da Física, São Paulo, 2007).
  • [13]
    H. Goldstein, C. Poole e J. Safko, Classical Mechanics (Pearson, New York, 2001), 3 ed.
  • [14]
    S.C. Chapra e R.P. Canale, Métodos Numéricos para Engenharia (AGMH, Porto Alegre, 2008), 5 ed.

Datas de Publicação

  • Publicação nesta coleção
    18 Ago 2023
  • Data do Fascículo
    2023

Histórico

  • Recebido
    01 Mar 2023
  • Revisado
    27 Jun 2023
  • Aceito
    30 Jun 2023
Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
E-mail: marcio@sbfisica.org.br