SciELO - Scientific Electronic Library Online

 
vol.28 issue5Postharvest conservation of mangaba (Hancornia speciosa Gomes)Dynamics of the convoy of vehicles parking at Lavras, MG city center author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

Share


Ciência e Agrotecnologia

Print version ISSN 1413-7054

Ciênc. agrotec. vol.28 no.5 Lavras Sept./Oct. 2004

http://dx.doi.org/10.1590/S1413-70542004000500022 

ESTATÍSTICA E EXPERIMENTAÇÃO AGROPECUÁRIA

 

Ajuste de modelos autorregressivos, na forma de modelos lineares dinâmicos, via inferência Bayesiana

 

Autorregresive models fitting with a dynamic linear models approach via Bayesian inference

 

 

Marcelo Costa SouzaI; Thelma SáfadiII

IMestre em Estatística e Experimentação Agropecuária - Universidade Federal de Lavras/UFLA - Caixa Postal 3037 - Lavras, MG, mcsouza@uflanet.com.br
IIDra. em Estatística - Profa. Adjunta do DEX/UFLA, safadi@ufla.br

 

 


RESUMO

Os modelos autorregressivos têm sido utilizados para as mais diversas aplicações, a maioria pela análise clássica, na qual os parâmetros são quantidades fixas, não podendo assumir variações ao longo do tempo. Com este trabalho objetivou-se a compreensão de modelos autorregressivos de ordem 2, AR(2), representados na forma de modelos lineares dinâmicos, utilizando como processo de estimação a inferência Bayesiana. O método de Cadeias de Markov Monte Carlo (MCMC) foi utilizado para o cálculo das estimativas a partir da implementação dos algoritmos amostrador de Gibbs e "Forward Filtering, Backward Sampling - FFBS". Com base nos modelos AR(2), apresentaram-se o cálculo e a obtenção das distribuições condicionais completas para todos os parâmetros do modelo. Para avaliar o comportamento e a qualidade do ajuste, utilizaram-se duas cadeias de valores, cada uma com 8000 iterações, para três diferentes tamanhos de séries geradas, com 200, 500 e 800 observações. Como parte da aplicação, ajustou-se a série Canadian Lynx (NICHOLLS e QUIN, 1982) para diferentes fatores de desconto (0,90, 0,95 e 0,99), sendo o erro quadrático médio resultante utilizado para a comparação com o ajuste da mesma série, via inferência clássica. Um melhor ajuste para o modelo com fator de desconto igual a 0,99 foi observado. Considerando-se as estimativas obtidas tanto no caso simulado quanto para dados reais, obtiveram-se as previsões um passo à frente para as séries atualizada e "amostrada para trás", e para essa última, o ajuste e o erro quadrático médio comportaram-se bem melhor. Com base nos resultados obtidos, observou-se um bom ajuste dos modelos AR(2) na forma de modelos dinâmicos, via inferência Bayesiana, além de se obter uma melhor compreensão em relação à qualidade do ajuste em diferentes situações, simuladas e reais.

Termos para indexação: FFBS, inferência bayesiana, modelos lineares dinâmicos, séries temporais.


ABSTRACT

The autoregressive models have been widely used in applications, mostly through a classical viewpoint, in which the parameters are regarded as fixed quantities, not assuming changes in time. This work aimed at fitting of autoregressive models with order 2, AR(2), specified in the form of dynamic linear models using Bayesian inference. Monte Carlo Markov Chain (MCMC) was used to obtain the estimates, via Gibbs Sampler and Forward Filtering Backward Sampling (FFBS). To evaluate the fitting, two chains with 8000 iterations each, and three different series sizes, with 200, 500 and 800 observations were sampled. The Canadian lynx series (NICHOLLS and QUIN, 1982), was fitted with different discount factors (0.90, 0.95 and 0.99), and the resulting mean square error was used to compare to the fitting using classical inference. A better fit for the model with discount equal to 0.99 was observed. One-step ahead forecasts were done to check the estimates obtained for the updated and the backward sampled series. To the latter, the fitting was better and mean square error lower. In general, it was observed a good fit of the AR(2) dynamic models via Bayesian inference, and this gives a better understanding of the fitting in different situations, both simulated and real.

Index terms: Bayesian inference, dynamic linear models, FFBS, time series.


 

 

INTRODUÇÃO

Os modelos autorregressivos têm sido utilizados em estudos envolvendo previsão nas mais diversas áreas, como, por exemplo, Economia, Geologia, Ciências Agrárias, Biologia, entre outras. A literatura apresenta diversas aplicações, assim como métodos para sua estimação e formas para se modelar os dados.

Wakefield et al. (1994) apresentam uma análise Bayesiana completa aplicada a modelos populacionais lineares e não-lineares. Segundo os autores, o amostra dor parece oferecer o método mais flexível e poderoso disponível atualmente para análises de problemas envolvendo modelos populacionais. West (1995) apresenta uma revisão de variações de Modelos Lineares Dinâmicos, mencionando aspectos práticos para tratar de dados omissos, observações adicionais, erros amostrais, "outliers" e decomposição da série para investigar possíveis componentes latentes. Há uma discussão sobre cadeias de Markov Monte Carlo (MCMC) para a simulação da posteriori em modelos de espaços de estados, utilizados na análise de registros de isótopos de oxigênio no fundo de oceanos. Como aplicação, Glickman e Stern (1998) utilizam modelos de espaço de estados para desenvolver um modelo preditivo para os scores da Liga Nacional de Futebol Americano (NFL). Com a utilização de tais modelos, os parâmetros de interesse, como a medida da força de um time, podiam variar com o tempo, sendo assumido que esses parâmetros comportavam-se como um processo autorregressivo.

Apresenta-se neste trabalho o ajuste de um con-junto de observações tomadas em tempos eqüidistantes, por meio de modelos autorregressivos na forma de modelos de espaço de estados, ou modelos dinâmicos. A característica principal desses modelos reside na possibilidade de os parâmetros estarem sujeitos a variações ao longo do tempo. Tem-se ainda que os parâmetros, como quantidades desconhecidas, possuem distribuição, e que essas podem ser obtidas a partir da inferência Bayesiana, com base no conhecimento da distribuição a posteriori. A distribuição marginal para os parâmetros do modelo é obtida com base em resultados de simulação, utilizando o algoritmo amostrador de Gibbs e o "Forward Filtering Backward Sample - FFBS".

Este artigo está organizado da seguinte maneira: Material e Métodos, onde são apresentados os conceitos de Modelos Lineares Dinâmicos (MLD). A definição das equações de observação e evolução, juntamente com os procedimentos para a atualização do modelo no tempo, mostram uma relação direta com os conceitos da estatística Bayesiana. Em seguida, são apresentados os modelos autorregressivos na forma de MLD. Também é apresentada uma descrição detalhada do algoritmo "FFBS" para o caso geral. Nos Resultados e Discussão, são apresentados os resultados obtidos. Primeiramente, são apresentados os cálculos necessários para a obtenção das distribuições condicionais completas para todos os parâmetros. Como parte das aplicações, na Aplicação com base em dados Simulados, há um exemplo realizado, considerando-se dados simulados, para, em seguida, na Aplicação com Dados Reais, apresentar uma aplicação com base na série apresentada por Nicholls e Quinn (1982).

 

MATERIAL E MÉTODOS

Para a análise, foi considerado o modelo autorregressivo de ordem 2, AR(2), na forma de MLD, e as aplicações foram feitas utilizando-se dados simulados e a série Canadian Lynx.

Modelos Lineares Dinâmicos

O Modelo Linear Dinâmico,MLD, descrito por West e Harrison (1997), é caracterizado pela quádrupla {F, G, V e W}t, e pelas equações das observações e de evolução:

Equação de observação:

Equação de sistema:

Informação inicial:

(θ0|D0) ~ N[m0, C0]

Com base nas equações apresentadas em (1), têm-se:
Ft é uma matriz conhecida ((p+1) x 1);
Gt é uma matriz conhecida ((p+1) x (p+1));
Vt é uma variância conhecida;
Wt é uma matriz de variâncias conhecidas ((p+1) x (p+1));
em que p é o número de parâmetros.

Para compreender o intercâmbio entre as duas equações apresentadas em (1), utilizou-se a notação Dt para representar toda a informação disponível no tempo t. Em sistemas fechados Dt = {Dt-1, Yt}, ou seja, a cada tempo t, a única informação nova que "entra" no sistema é a observação Yt. Observa-se também que há uma evolução da informação, uma vez que conhecendo Dt, Dt-1 é desnecessário, haja vista que essa quantidade já está presente em Dt.

A equação das observações define a distribuição amostral para Yt condicional ao conhecimento da quantidade θt; assim, para o conhecimento de Yt, basta o conhecimento de θt. A equação do sistema representa a forma com que o vetor de estado (θt) evolui com o tempo. A propriedade de independência condicional define uma evolução de Markov em 1 passo, de modo que, dados θt-1 e os valores de Gt e Wt, a distribuição de θt é independente de Dt-1.

O erro vt pode ser visto como uma simples perturbação aleatória que afeta a observação Yt, mas não tem influência na série. Em contrapartida, ωt influencia o desenvolvimento do sistema no futuro, e a sua magnitude em relação à vt indica o tamanho da variação do nível médio da série. Os modelos de Séries Temporais são um caso particular dos MLD quando as matrizes F e G (definidas pelo pesquisador) são constantes.

Equações de atualização

As equações de atualização representam toda a dinamicidade dessa classe de modelos. A partir delas, é possível apresentar a evolução da informação (θt|Dt) para (θt+1|Dt+1) de maneira simples e direta, ou seja, é possível atualizar toda a informação do sistema à medida que novas observações vão sendo obtidas.

TEOREMA 1: No MLD univariado apresentado em (1), as previsões 1 passo à frente e as distribuições a posteriori são dadas, para cada t, como se segue:

a) Posteriori em t-1: (θt-1|Dt-1) ~ N[mt-1, Ct-1]
b) Priori em t: (θt|Dt-1) ~ N[at,Rt]
  at = Gtmt-1   Rt= GtCt-1G't+ Wt
c) Previsão 1 passo à frente: (Yt|Dt-1) ~ N[ft, Qt]
  ft = F'tat   Qt = F'tRtFt+ Vt
d) Posteriori em t: (θt|Dt) ~ N[mt,Ct]
  At = RtFt/Qt     et = Yt - ft
  mt = at + Atet   Ct = Rt-AtQtA't

Nota-se, assim, que a partir do conhecimento da distribuição a priori θ0|D0 ~ N(m0, C0), é possível obter as distribuições (θ1|D1), ..., (θn|Dn).

Variância de Evolução Wt

A especificação da seqüência da matriz de evolução Wt é geralmente realizada com o auxílio de fatores de desconto. A especificação da estrutura dessa matriz é crucial para o sucesso da modelagem e previsão, uma vez que seus valores controlam a magnitude da variação estocástica na evolução do mode-lo, determinando, assim, a estabilidade no tempo.

Pelas equações de atualização do Teorema 1, têm-se:

V[θt-1|Dt-1] = Ct-1, que é a variância a posteriori;

V[θt|Dt-1] = GtCt-1Gt' + Wt, que é a variância a priori Rt;

V[Yt|Dt-1] = F'tRtFt+ Vt, que é a variância Qt.

Assim, quanto maior o valor de Wt, menor será a precisão (aumento de Qt) para prever futuras observações e, conseqüentemente, maior será a perda de informações. Na prática, a evolução do sistema pode ser vista a partir do conceito de fatores de desconto. Por definição, um fator de desconto, denotado por δ, assume valores no intervalo dado por 0 < δ < 1, e, geralmente, assume valores próximos de 1.

Para compreender o funcionamento do desconto, em um dado tempo t, define-se Pt= GtCt-1Gt', sendo (θ0t-1|Dt-1) ~ N[mt-1,Ct-1]. A precisão associada a θt-1 é C-1t-1 e, para Gθt-1, é P-1t. Assim, P-1t representa a precisão associada a θt se não houver mudanças estocásticas no tempo t, o que caracteriza um modelo "globalmente" durável. Como o modelo só é localmente apropriado, a precisão atual R-1t é reduzida em relação a P-1t.

O conceito de desconto define essa decaída diretamente, via δP-1t, ou simplesmente uma proporção δ da precisão. Assim,
V[
δt|Dt-1] = Rt = (1/δ)Pt,
e, como Rt = Pt + Wt, tem-se que:
(1/
δ)Pt = Pt + Wt,
ou, então, Wt = [(1-
δ)/δ]Pt.

Dessa forma, dados δ e C0, a série {Wt} fica totalmente identificada e quanto mais próximo de 1 for o fator de desconto, mais durável é o modelo (menor será a perda de informação).

Modelos Autorregressivos na forma de MLD

Considere que a série Yt possa ser dada como a soma de um nível (μt), um componente autorregressivo e um ruído, ou seja, Yt = μt + Xt + vt, em que

a) μt = μt-1 + ωt; ωt ~ N[0,W*],
b) ; εt ~ N[0,U],
c) vt ~N[0,V].

O nível médio da série, μt está na forma de um passeio aleatório, ou seja, é igual ao nível médio no instante anterior (μt-1), acrescido de um ruído aleatório ωt, e Xt representa a parte autorregressiva de ordem p.

Expressando as equações de (a) a (c) na forma de MLD, com base nas equações de observação e evolução, têm-se:

θt = Gθt-1+ ωt

em que:
θt = (μt, Xt, Xt-1, ..., Xt-p+1)' é vetor de estados,
F = (1, 1, 0, ..., 0)',
ωt = (ωt, εt, 0, ..., 0)',

,

e ω* ~ N(0, W*)

Com base no modelo (2), os parâmetros a serem estimados são , v, W, U, além dos vetores de estados. Define-se n = {θ0, θ1, ..., θm e αn = {, V, W, U}. Pelo amostrador de Gibbs, infere-se que a distribuição a posteriori conjunta

p(n, αn|Dn)

pode ser simulada iteragindo entre duas posterioris condicionais completas

Esse esquema envolve a amostragem de n (1º bloco) e, separadamente, de αn, a partir das posterioris condicionais multivariadas completas (2º bloco).

Como a análise é padrão condicional a αn, a simulação do 1º componente de (3) será acessível como uma distribuição normal multivariada a partir da implementação do algoritmo "Forward Filtering, Backward Sampling", sendo o segundo componente muito dependente da forma do modelo.

 

RESULTADOS E DISCUSSÃO

Com base na teoria apresentada em Modelos Lineares Dinâmicos e Modelos Autorregressivos na Forma de MLD, o comportamento do modelo autorregressivo de 2ª ordem, AR(2), foi avaliado com relação às estimativas dos parâmetros, erros de previsão, convergência e previsões um passo à frente. Considerando o modelo

Yt = μt + Xt + vt,

o procedimento para a simulação segue aquele descrito em Modelos Autorregressivos na Forma de MLD, sendo os parâmetros do modelo que devem ser estimados: α = { 1, 2, V, W, U} e n em que n= ( θ0, θ1, ..., θn).

O método utilizado para o procedimento de inferência e estimação dos parâmetros foi o amostrador de Gibbs, o qual, a partir de resultados de simulação, forneceu como resultados: (1) as estimativas dos parâmetros, (2) verificação de convergência e (3) os gráficos dos valores gerados.

Outro resultado explorado foi a utilização das estimativas para se obter previsões um passo à frente. Essas previsões foram obtidas de duas maneiras: (1) a partir das equações de atualização e (2) a partir dos vetores de estado provenientes da "amostragem para trás", ao aplicar o algoritmo FFBS.

Distribuições condicionais completas

A amostragem de n|αn, Dn apresentada em Modelos Autorregressivos na forma de MLD, foi realizada mais facilmente considerando o algoritmo FFBS descrito a seguir:

O objetivo foi amostrar n pela simulação seqüencial dos vetores de estado individuais θn, θn-1, ..., θ0 da seguinte maneira:

1 - Amostra-se θn de θn|Dn ~N[mt, Ct], e então,

2 - para cada t = n-1, n-2, ..., 1, 0 amostra-se θt de p(θt+1, Dt), em que o valor condicional de θt+1 é o vetor que acabou de ser amostrado.

No que segue, será considerado o caso particular AR(2), e a extensão para o caso de um AR(p) é imediata. Com base no vetor θt|θt+1, Dt, para t = n-1, ..., 1, 0.

A partir do fato de que

θt+1 = (μt+1, Xt+1, Xt), e de que

θt = (μt, Xt, Xt-1),

o segundo elemento de θt está definido, uma vez que o vetor anterior, θt+1, é conhecido. Assim, é necessário amostrar o primeiro e último elementos de θt, para depois completar com o valor de Xt, já conhecido a partir do vetor amostrado anteriormente.

Assim, o primeiro passo é computar os momentos desses dois valores a partir de p(μ t, Xt-1|Xt, Dt), o que é exatamente a distribuição condicional bivariada para os dois elementos de θt a partir da distribuição conjunta completa θt|Dt ~ N[mt, Ct].

Para amostrar esses elementos de θt, definem-se as seguintes matrizes:

, = [cov(μt, Xt) cov(Xt, Xt-1)] e Σ22 = var(Xt), obtidos de Ct.

Definindo como o vetor (μt Xt-1)', o qual deve ser amostrado, têm-se:

onde,

Dessa forma, tem-se que

Fazendo et+1 = Xt+1 - 1Xt, têm se

A primeira parte de (6) vem do fato de que μt+1 = μt + ωt, com ωt ~ N(0,W). Para o segundo termo, Xt+1 = 1Xt + 2Xt-1 + εt+1, com εt+1 ~ N(0,U). Como et+1 = Xt+1 - 1Xt, tem-se que et+1 = 2Xt-1 + εt-1, o que fornece et+1 ~ N(2Xt-1, U). Assim, de (5) e (6), obtém-se:

O segundo termo da expressão (7) pode ser reescrito como:

Escrevendo na forma matricial, tem-se:

Definindo

e

tem-se:

Considerando a seguinte componente de (8):

,

e efetuando as multiplicações dos termos, ela pode ser reescrita como:

a qual tem a forma de uma distribuição normal para . Portanto,

onde e .

Dessa forma, amostra-se um valor para a partir de (9), e então, completa-se com o valor de Xt, já amostrado em θt+1. Esse procedimento é repetido para t = n-1, ..., 0, até que o vetor n = {θn, θn-1, ..., θ1, θ0} seja amostrado.

Com isso, o primeiro bloco está amostrado e a partir desse, pode-se utilizar as informações obtidas (conjunto de todos os vetores θ) para proceder à amostragem do segundo bloco, o qual é compos-to pelas seguintes distribuições condicionais completas:

a) |V, W, U, n, Dn,

b) V|, W, U, n, Dn,

c) W|, U, V, n, Dn,

d) U| , V, W, n, Dn.

a) Amostragem de |V, W, U, n, Dn:

Definido , e tem-se:

(|V, U, W, n, Dn) ~ N A-1 B,U A-1).

b) Amostragem de V| , W, U, n, Dn:

O procedimento para obter as outras duas distribuições condicionais completas W| , U, V, n,Dn e U| , V, W, n, Dn é similar ao desenvolvido com relação à distribuição para V | , W, U, n, Dn, conduzindo até as seguintes distribuições:

Nas duas aplicações a serem apresentadas, trabalhou-se com 8000 iterações para cada uma das duas cadeias. Para reduzir o efeito desses valores inciais, foram eliminadas as primeiras 20% observações, o que reduziu para 6400 o número de observações para cada uma.

Como o amostrador é um processo Markoviano, as amostras não são tomadas independentemente, e sim, com uma correlação de 1ª ordem. Para suavizar esse problema, retirou-se 1 observação a cada 25 de um total de 6400 observações de cada cadeia. Assim, essa nova série possui 256 observações, totalizando 512, ao analisar as duas cadeias.

As estimativas foram obtidas com base nessas 512 observações e utilizadas para compor as previsões um passo à frente das duas maneiras descritas anteriormente.

Os parâmetros utilizados na distribuição a priori para as variâncias foram α = β = 2. A distribuição atribuída para θ0|D0 possui média e variância dadas por:

, e .

O software utilizado para esses procedimentos de simulação e ajuste da série real foi o MATLAB 6.0. Para a análise da série com base na inferência clássica, utilizou-se o software MINITAB v.12, o qual estima os parâmetros a partir do método da máxima verossimilhança.

Aplicação com base em dados simulados

Na aplicação com dados simulados, foram utilizadas duas cadeias em paralelo para avaliar a convergência e os diferentes tamanhos de série, com 200, 500 e 800 observações. As séries foram geradas segundo os valores 1 = 0,6, 2 = -0,4, V = 0,5, W = 0,9, U = 0,9. Na Tabela 1 apresenta-se a comparação das estimativas obtidas para cada uma das três situações avaliadas.

Na Figura 1 apresentam-se os gráficos para a série simulada e para a série prevista a partir das equações de atualização e da amostragem para trás, considerando a situação com 800 observações.

Aplicação com dados reais

Na aplicação com dados reais, utilizou-se a série Canadian lynx (NICHOLLS e QUIN, 1982). A série possui 100 observações anuais no período de 1821 a 1920; o seu gráfico pode ser visto na Figura 2.

 

 

Os parâmetros a serem estimados no caso da aplicação com dados reais foram 1, 2, V e U. A matriz W foi trabalhada a partir da utilização de fatores de descontos. Os valores adotados para δ foram 0,90, 0,95 e 0,99. A comparação dos resultados pode ser vista na Tabela 2.

Considerações Finais

A convergência, medida pelo teste de Gelman e Rubin (1992), não apresentou problemas para nenhuma situação avaliada. Nos resultados de simulação e na aplicação com dados reais, utilizaram-se 8000 iterações em cada cadeia, e os resultados obtidos a partir de 5000 iterações apresentaram estimativas de R um pouco mais distantes do valor de referência igual a 1, quando comparadas com as obtidas para 8000.

Pelos altos valores apresentados pela variância W, infere-se uma dificuldade de utilização na prática devido à dificuldade de especificação a priori a respeito de seu comportamento.

O procedimento para simulação na aplicação com dados reais só se comportou de maneira satisfatória com a utilização de fatores de desconto para se trabalhar com a matriz W. Quando se propôs não utilizá-los, o procedimento de simulação não evoluiu.

O ajuste da série real comportou-se muito bem com relação às previsões um passo à frente; entretanto, previsões para "lags" maiores não foram avaliadas.

 

CONCLUSÕES

Com base na teoria apresentada e nos resultados obtidos a partir de procedimentos de simulação e aplicação em dados reais, pode-se concluir que:

a) É possível obter distribuições condicionais completas para os parâmetros avaliados e aplicar o algoritmo FFBS para o caso de um modelo AR(2).

b) As séries que possuem um maior número de observações foram mais bem ajustadas. As estimativas dos parâmetros aproximaram-se dos valores reais, com exceção do valor de W, que assumiu valores bem maiores do que o real.

c) Os dados utilizados na aplicação ajustaram-se muito bem com os Modelos Lineares Dinâmicos. O resultado da comparação entre a estimação a partir de fatores de desconto iguais a 0,90, 0,95 e 0,99 com a estimação a partir da inferência clássica foi favorável à estimação utilizando δ = 0,99, a qual apresentou o menor erro quadrático médio.

d) As séries obtidas com base na "amostragem para trás" apresentaram um melhor ajuste da série original, quando comparadas com o ajuste das séries obtidas pelas equações de atualização. Esse fato ocorreu tanto com a série gerada quanto com a série real.

e) A modelagem de Séries Temporais via Modelos Lineares Dinâmicos por meio de Inferência Bayesiana mostrou-se aplicável, de implementação direta e ajustou-se bem tanto à série simulada quanto à série real.

 

REFERÊNCIAS BIBLIOGRÁFICAS

GELMAN, A.; RUBIN, D. B. Inference from iterative simulation using multiple sequence. Statistical Science, Hayward, v. 7, n. 4, p. 457-511, 1992.         [ Links ]

GLICKMAN, M. E.; STERN, H. S. A state-space model for national football league scores. Journal of the American Statistical Association, Alexandria, v. 93, n. 441, p. 25-35, Mar. 1998.         [ Links ]

NICHOLLS, D. F.; QUINN, B. G. Random coefficients autorregressive models: an introduction: lecture notes in statistics. New York: Springer, 1982. v. 11.         [ Links ]

WAKEFIELD, J. C.; SMITH, A. F. M.; RACINEPOON, A. E.; GELFAND, A. E. Bayesian analysis of linear and non-linear population models by using the Gibbs Sampler. Journal of the Royal Statistical Society serie C, London, v. 43, n. 1, p. 201-221, 1994.         [ Links ]

WEST, M. Bayesian time series. In: WORKSHOP ON MAXIMUN ENTROPY AND BAYESIAN METHODS, 15., 1995, Santa Fé. Proceedings... Novo México: ISDS, 1995. p. 1-10.         [ Links ]

WEST, M.; HARRISON, J. Bayesian forecasting and dynamic models. New York: Springer, 1997. 680 p.         [ Links ]

 

 

(Recebido para publicação em 25 de agosto de 2002 e aprovado em 23 de julho de 2004)

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License