Acessibilidade / Reportar erro

O método de Galerkin estocástico e a equação ao diferencial de transporte linear com dados de entrada Aleatórios

Resumos

Apresentamos o método de Garlekin estocástico para resolver equações diferenciais com dados de entrada aleatórios. O método de Galerkin estocástico produzido é uma extensão simples do método de Galerkin clássico usado em problemas determinísticos. Especificamente, o método consiste em projetar a solução estatística sobre o espaço gerado pelos Polinômios de Caos generalizados que formam uma base para o espaço de funções aleatórias. Introduziremos o método sobre uma equação de transporte linear aleatória. Faremos o tratamento numérico e comparamos com as simulações de Monte Carlo.

quantificação de incertezas; método de Galerkin estocástico; Polinômios de Caos generalizados


We use the stochastic Garlekin method to solve a linear transport equation with random data. Following the ideias of the method, the statiscal solution is projected on the space generated by generalized Polynomials Chaos, a basis for the space of random functions. Numerical simulations compare our results with the Monte Carlo simulations.

quantification of uncertainty; stochastic Galerkin method; generalized Polynomials Chaos


O método de Galerkin estocástico e a equação ao diferencial de transporte linear com dados de entrada Aleatórios

A.M. RochaI,* * Autor correspondente: Adson Mota Rocha ; F.A.A. de CamposII; M.C.C. CunhaIII

IProfessor Assistente no Centro de Ciências Exatas e Tecnológicas, UFRB, 44380-000 Cruz das Almas, BA, Brasil. E-mail: adsonmot@gmail.com

IIBolsista de Doutorado - CNPQ. E-mail: fcampos111@gmail.com

IIIDepartamento de Matemática Aplicada, IMECC, UNICAMP, 13083-859 Campinas, SP, Brasil. E-mail: cunha@ime.unicamp.br

RESUMO

Apresentamos o método de Garlekin estocástico para resolver equações diferenciais com dados de entrada aleatórios. O método de Galerkin estocástico produzido é uma extensão simples do método de Galerkin clássico usado em problemas determinísticos. Especificamente, o método consiste em projetar a solução estatística sobre o espaço gerado pelos Polinômios de Caos generalizados que formam uma base para o espaço de funções aleatórias. Introduziremos o método sobre uma equação de transporte linear aleatória. Faremos o tratamento numérico e comparamos com as simulações de Monte Carlo.

Palavras-chave: quantificação de incertezas, método de Galerkin estocástico, Polinômios de Caos generalizados.

ABSTRACT

We use the stochastic Garlekin method to solve a linear transport equation with random data. Following the ideias of the method, the statiscal solution is projected on the space generated by generalized Polynomials Chaos, a basis for the space of random functions. Numerical simulations compare our results with the Monte Carlo simulations.

Keywords: quantification of uncertainty, stochastic Galerkin method, generalized Polynomials Chaos.

1 INTRODUÇÃO

Atualmente há um interesse crescente em estudar métodos numéricos eficientes para resolver equações diferenciais com entradas aleatórias. Em geral incertezas aparecem nas condições iniciais, condições de contorno ou nos coeficientes do problema e podem ser melhor modeladas quando consideradas como dados estat ísticos usando variáveis aleatórias e processos estocásticos. Para resolver estas equações diferenciais com dados aleatórios os métodos baseados em polinômios do caos (PC) tem se destacado. A representação dos polinômios de caos foi desenvolvido por R. Ghanem, em [6], inspirado por expansões de polinômios de caos de Wiener, que empregou polinômios de Hermite como uma base ortonormal para representar processos aleatórios, ver [5]. Esta aproximação foi estendida para Polinômios de Caos generalizados (gPCs) onde os polinômios ortogonais gerais são adotados para a representação de processos aleatórios mais gerais [3]. Posteriormente, os gPCs foram utilizados para aproximar soluções diferenciais com dados incertos. Umas destas técnicas é o método de Galerkin Estocástico. A partir da escolha da base ortogonal gPCs, estendemos o método de Galerkin clássico projetando a solução estocástica sobre o espaço gerado pelos gPCs, resultando num sistema de equações determin ísticas, ver [1], [2] e [4].

Organizamos o trabalho da seguinte forma. Na Seção 2 apresentamos o problema considerado neste trabalho, que é a equação do transporte linear com coeficiente de velocidade e condições iniciais aleatórias, e a parametrização deste problema em termos de um conjunto finito de variáveis aleatórias mutuamente independentes. Na Seção 3 fizemos uma breve introdução aos Polinômios de Caos generalizados e aplicamos o método de Galerkin Estocástico obtendo uma aproximação numérica da solução escrita como combinação linear dos gPCs. Na ultima seçao mostramos os resultados de um experimento numérico a um caso univariante da equação problema, onde a condição inicial é considerada parametrizada em termos da velocidade aleatória A = Z0.

2 EQUAÇÃO DO TRANSPORTE LINEAR ESTOCÁSTICA

Neste trabalho consideremos o problema de valor inicial

no qual a velocidade A é uma variável aleatória e a condicao inicial Q0 (x) um processo éstocástico, definidos sobre o mesmo espaço amostral Ω e seja Q0 estocástico contínuo, (Q0(x, ω), x, ω ∈ Ω).

Definamos solução do problema (2.1) o processo estocástico

Q(x, t, ω) : × [ 0, ∞) × Ω → .

Entendemos que o problema advectivo (2.1) é bem-posto quando a solução Q(x, t, ω) existe, é única e depende continuamente de A(ω) e Q0(x, ω), ω ∈ Ω, quase sempre em Ω

2.1 Parametrização do Problema

Um passo importante na quantificação de incertezas é a caracterização conveniente do espaço de probabilidade por um conjunto finito de variáveis aleatórias mutuamente independentes através de uma parametrização dos dados de entrada aleatórios.

Normalmente as entradas aleatórias da equação (2.1), A(ω) e Q0(x, ω), são independentes. De início fazemos A(ω) = Z0 como um dos parâmetros aleatórios. Os outros parâmetros dependem do processo inicial Q0(x, ω). Uma forma para parametrizarmos Q0(x, ω) e usando sua expansão de Karhunen-Loève (KL). Dado a média do processo Q0(x), µQ0 (x), e sua covariância, CQ0 (x, y), definimos a expansão KL do processo Q0(x, ω)por

onde (ψ i (x), λi) são as auto funções e auto valores do problema (2.3)

e {Zi} são variáveis aleatórias mutuamente não correlacionadas, satisfazendo

E[Zi] = 0, E[ZiZj] = δij,

determinadas por

(Q0(x) - µQ0(x)) ψi (x)dx, i = 1, 2, ....

Para uma melhor leitura sobre expansão KL ver a referência [6].

Tomando o truncamento da expansão no termo d da série (2.2), aproxima-se o processo estocástico inicial Q0(x, ω) escrito por uma combinação finita das variáveis aleatórias, Z1, ..., Zd

Desta forma, vamos considerar a aproximação do problema (2.1) pelo seguinte problema: encontrar Q(x, t, Z): × [0, ∞) ×d+1 tal que

3 MÉTODO DE GALERKIN ESTOCÁSTICO

Vamos inicialmente apresentar os aspectos gerais dos gPCs. A teoria de expansão usando gPCs é análoga à teoria da aproximação de funções por polinômios ortogonais.

Seja Z uma variável aleatória com função distribuição FZ (z) = P(Z < z) e momentos finitos, isto é,

onde N = 0 = {0, 1, ...} ou N = {0, 1, ..., n} com n um número inteiro não negativo.

Definimos as funções gPCs, {Φj(Z)} jN , como sendo um conjunto de funções polinomiais definidas sobre Z, tais que

onde

são as constantes de normalização não nulas e δij é o delta de Kronecker.

Quando Z é uma variável contínua com sua função densidade de probabilidade (que utilizaremos a sigla PDF – Probability Density Function durante o texto), fZ (z), temos que d FZ (z) = fZ (z) dz e podemos reescrever a condição de ortogonalidade (3.1) da forma

Denotamos por

o espaço de todas funções aleatórias definidas em IZ integráveis na média-quadrada com norma || f ||L2dFZ , onde IZ é o domínio da variável aleatória Z. Temos que L2dFZ é um espaço de Hilbert. Neste espaço, tomemos o subespaço finito gerado pelas funções gPCs,

Pn(Z) = spank(Z), k = 0, 1, ..., n},

e aqui dim (Pn(Z)) = n + 1. Dado gL2dFZ , definimos a projeção ortogonal de n-ésimo grau de g sobre Pn(Z),

onde

Em [1, Teor. 3.35, pag. 33], temos o resultado:

|| g - Png ||L2dFZ → 0, n → ∞

que garante a convergência da projeção.

Podemos estender as definições acima para um vetor aleatório Z = (Z1, ..., Zd), com componentes mutuamente independentes e função distribuição

FZ(z1, ..., zd) = (PZ1<z1, ..., Zd<zd),

conforme foi feito em [1] pp. 64-66.

Exemplo 3.1 (Polinômios de Hermite). A partir de alguns modelos usuais de distribuições de probabilidade, as funções gPCs sãoconstruídas. Um conjunto importante de funções são os gPCs de Hermite por sua relação com uma variável Gaussiana padrão Z ~ N (0, 1). Sabemos que a PDF desta variável Gaussiana padrão é dada por

Pela construção dos polinômios de Hermite clássico, {Hk(Z)}k0, pode-se obter a relação de ortogonalidade (3.3) dada por

E[Hi(Z)Hj (Z)] =Hi(z)Hj (z) fZ (z) dz = jij.

Desta forma, o conjunto {Hk (Z)}k∈0 forma uma base de funções gPCs que naturalmente denomina- se gPCs de Hermite. Temos que

H0(Z) = 1, H1(Z) = Z, H2(Z) = Z2 -1, H3(Z) = Z3 - 3Z, ...

que podem ser obtidos pela fórmula de recorrência

Hn+1(Z) = ZHn(Z) - nHn-1(Z).

3.1 Aplicando Galerkin Estocástico sobre a Equação do Transporte Linear Estocástica

O método de Galerkin estocástico é uma extensão do método de Galerkin clássico para equações diferenciais com entradas aleatórias: calcula soluções aproximadas em subespaços de dimensão finita do espaço das funções aleatórias (3.4), L2dFZ (IZ). Consideramos em particular os subespaços gerados por polinômios ortogonais. Por simplicidade apresentamos uma abordagem estocástica para o caso unidimensional considerando a projeção da solução e dados do problema, sobre os espaços dos polinômios univariáveis, isto é, o problemas erá parametrizado numa única variável aleatória Z0. Desta forma, a equação do transporte linear aleatória (2.5) é reescrita da forma:

onde Z0 é a velocidade de transporte aleatório do problema de valor inicial (2.1) e o processo estocástico inicial, Q0(x), também está parametrizado por Z0.

Consideremos as funções gPCs para a variável aleatória Z0, {Φk (Z0)}kN .No método de Galerkin estocástico a solução, Q(x, t, Z0), é projetada sobre Pn(Z0)

e tomamos o produto escalar entre equação diferencial (3.5) e um elemento arbitrário ΦPn(Z0). Em particular, escolhemos Φ = Φk, 0 < k < n :

Substituindo a expressão (3.6) em (3.7),

pela ortogonalidade das funções gPCs (propriedades (3.1) e (3.2)) obtemos para cada k = 0, . . . , n,

onde eik = E [Z0Φi(Z0)Φk(Z0)], i, k = 0, ..., n. Desta forma, em (3.8) temos n + 1 equações lineares, que podemos escrever na forma vetorial

onde = [0 ... n]T, Γ = diag(γ0, γ1, ..., γn) e B = (eik), i, k = 0, ..., n é uma matriz (n + 1) × (n + 1) real e simétrica. Se as funções gPCs estão normalizadas, então γk = 1, ∀k, o sistema (3.9) terá a forma

onde B = BTé uma matriz hiperbólica, ou seja, os autovalores são números reais.

Para completar o método de Galerkin estocástico, devemos projetar também a condição inicial no espaço Pn(Z0):

Qºn(x, Z0) =

onde ºk(x) = E[Q0(x, Z0)Φk(Z0)] .

Notemos que para calcular ºk(x) é necessário uma expressão para Q0 parametrizada em função Z0. Caso contrário pode ser usada a expansão KL truncada conforme vimos em (2.4),

Q0(x, Z1, ..., Zd) ≈0(x, Z1, ..., Zd) = µQ0 (x) +

e obtemos a parametrização de cada nova variável aleatória Zi em função de Z0.

Conhecidos os coeficientes ºk(x), k = 0, ..., n, da projeção da condição inicial, o método de Galerkin para (3.5) reduz-se a resolver um sistema de (n + 1) equações diferenciais determinísticas acopladas

onde º = ...0nT.

Como vimos anteriormente, a aplicação do método de Galerkin resulta numa matriz B real e simétrica. Portanto B tem seus autovalores, λj, j = 0, 1, ..., n, reais e existe a fatoração: BU = UD, onde D = diag(λ0, λ1, ..., λn) e U é unitária. Logo o sistema (3.10) pode ser transformado por meio desta fatoração e da mudança de variável:

obtendo o sistema desacoplado

ou ainda,

onde Uk = U0k ... UnkT é a k-ésima coluna da auto matriz U.

Pelo método das características, cada equação tem solução da forma

Wk(x, t) = º(x - λkt), k = 0, 1, ..., n.

Portanto

W(x,t) =

e por (3.11) a solução para o problema de valor inicial (3.10) é dada por

Vimos que é possivél obter uma aproximação da solução de um sistema determinístico com o método de Galerkin estocástico. Notemos que (3.12) é a solução analítica do sistema de Galerkin não tendo erros numéricos, no entanto erros computacionais podem surgir na diagonalização da matriz do sistema (3.10). Os erros esperados na implementação deste método são devidos ao truncamento da expansão gPCs da solução. Este método édefácil implementação computacional, conforme será ilustrado na próxima seção.

Outra facilidade no uso do método de Galerkin Estocástico é na determinação dos momentos da solução. Em particular, é fácil provar que a média da projeção Qn(x, t, Z0), µQn(x, t), no ponto (x, t) é justamente a função coeficiente 0 (x, t), isto é

e a variância é dada por

4 EXPERIMENTO NUMÉRICO

Em todas simulações consideramos a variável de transporte A = Z0 com distribuição Gaussiana e o processo estocástico inicial Q0(x) estando parametrizado na variável Z0.

Visto que Z0 ~ N (0, 1) temos a PDF

fZ0 (z) = exp(-x2/2),

então escolhemos a base de polinômios de Hermite gPCs, {Hk(Z0)}k0, para fazer a projeção da solução pelo método de Galerkin. Lembramos que esta base está normalizada, ou seja, γk = E[Hk(Z0)] = 1.

Para facilitar na implementação dos dados, vamos considerar que o processo inicial, Q0(x, Z0), já esteja no espaço gerado pelos gPCs de Hermite. Supomos que o processo inicial é uma expansão de primeira ordem dos polinômios gPCs

onde os polinômios Hk(Z0) são os polinômios de Hermite.

Para comparar a convergência da solução de Galerkin estocástico, aplicamos o método de Monte Carlo ao problema com número de simulações m = 100000. Neste caso, a cada (x, t) fixado e para cada simulação em Z0, construímos a solução aleatória

Q(x, t, Z0) = Q0(x - Z0t, Z0) = H0(Z0) + (x - Z0t)H1(Z0).

Neste exemplo é possível obter uma solução analítica:

Q(x, t, Z0) = 1 + xZ - t

e portanto seus momentos. Em particular, a média e variância são, respectivamente, µQ(x, t) = 1 - t e σQ2 (x, t) = x2 + 2t2.

Nas Figuras 1 e 2 apresentamos os gráficos das PDFs das soluções Qn(x, t, Z0), sendo que as linhas tracejadas representam o método de Galerkin Estocástico (GE) e as linhas preenchidas representam as simulações de Monte Carlo (MC). Na Figura 1 variamos apenas o maior grau dos gPCs que formam a solução pelo método de Galerkin estocástico (fizemos n = 1, 3, 8, 50). Utilizando (3.13) e (3.14) montamos a Tabela 1 abaixo com a média e o desvio-padrão das soluções:



Na Figura 2 variamos a variável temporal entre t = 0.05 e t = 5 para analisar o comportamento da solução ao longo do tempo. Neste caso, temos os resultados para os momentos na Tabela 2.

Com base na Figura 1 notamos que a solução de Galerkin atinge um bom resultado com o maior grau n dos gPCs relativamente baixo, justificando assim sua eficiência, apesar de possuir etapas computacionalmente caras, como encontrar autovalores de uma matriz de ordem (n+1) × (n+1). Na Figura 2, percebemos uma outra característica da convergência da solução do método de Galerkin estocástico que diz que quanto maior a proximidade da variável t de 0, mais rapidamente ométodo irá convergir para solução verdadeira [1].

5 CONCLUSÕES

Vimos neste artigo que o método de Galerkin estocástico pode ser usado para resolver equações diferenciais com dados de entrada aleatórios. Em particular, na equação de transporte linear aleatória (3.5) o método transforma o problema de quantificação de incertezas num problema de sistema de equações diferenciais acopladas determinísticas (3.10), que desacoplado fornece a solução analítica (3.12) para este sistema.

Assim, dado (x, t), a solução aleatória da equação do transporte é aproximada pela soma (3.6), onde os coeficientes k(x, t), k = 0, 1, ..., n são obtidos por (3.12). Os dados estatísticos desta solução podem ser aproximados usando (3.13) e (3.14). Na Seção 4 apresentamos os resultados da implementação computacional do método. Observamos (Tabelas 1 e 2) que a aproximação para os momentos obtidos pelo método de Monte Carlo é da ordem de 10-3. Na Figura 1 notamos a convergência da PDF da solução no ponto fixado (x, t). Na Figura 2 verificamos que quando o tempo cresce a convergência do método será mais lenta, resultado coerente com a estimativa para o erro da projeção, encontrada em [1]:

E

onde || ∙ || é a norma em L2, C é uma constante independente de n, t é o tempo, e m > 0 é uma constante real que depende da suavidade de Q em termos de Z0.

Com estes resultados verificamos a eficiência do método de Galerkin estocástico na determinação da solução para o problema (3.5). Uma extensão deste trabalho é tomar a velocidade de transporte também sendo um processo estocástico, ou seja, A = A(x, t, ω).Também podemos considerar um sistema hiperbólico, sendo A uma matriz com entradas aleatórias. Trabalhos nestas direções estão sendo desenvolvidos pelos autores.

Recebido em 7 março, 2013

Aceito em 19 agosto, 2013

  • [1] D. Xiu. "Numerical Metholds for Stochastic Computations: A Spectral Method Approach", Princeton University Press, (2010).
  • [2] D. Xiu. Efficient collocational approach for parametric uncertainty analysis. Commun. Comput. Phys., 2(2007),293-309.
  • [3] D. Xiu & G.E. Karniadakis. The Wiener-Askey Polynomial Chaos for Stochastic Diferencial Equations. SIAM J. Sci. Comput., 24(2002),619-644.
  • [4] D. Xiu & G.E. Karniadakis. Modeling uncertainty in flow simulations via generalized polynomial chaos. J. Comput. Phys, 18(2003),137-167.
  • [5] N. Wiener. The homogeneous chaos. Amer.J.Math., 60(1938),897-936.
  • [6] R.G. Ghanem & P. Spanos. "Stochastic Finite Elements: A Spectral Approach". Springer-Verlag, New York, (1991).
  • *
    Autor correspondente: Adson Mota Rocha
  • Datas de Publicação

    • Publicação nesta coleção
      11 Out 2013
    • Data do Fascículo
      Ago 2013

    Histórico

    • Recebido
      07 Mar 2013
    • Aceito
      19 Ago 2013
    Sociedade Brasileira de Matemática Aplicada e Computacional Rua Maestro João Seppe, nº. 900, 16º. andar - Sala 163 , 13561-120 São Carlos - SP, Tel. / Fax: (55 16) 3412-9752 - São Carlos - SP - Brazil
    E-mail: sbmac@sbmac.org.br