SciELO - Scientific Electronic Library Online

 
vol.14 número3Métodos de pontos interiores para problema de fluxo de potência ótimo DCRedução de perdas em redes de distribuição de energia elétrica através de sistemas classificadores índice de autoresíndice de assuntospesquisa de artigos
Home Pagelista alfabética de periódicos  

Serviços Personalizados

Journal

Artigo

Indicadores

Links relacionados

Compartilhar


Sba: Controle & Automação Sociedade Brasileira de Automatica

versão impressa ISSN 0103-1759

Sba Controle & Automação v.14 n.3 Campinas jul./set. 2003

http://dx.doi.org/10.1590/S0103-17592003000300008 

Previsão de vazões médias mensais usando redes neurais nebulosas

 

 

R. BalliniI; S. SoaresII; Marinho G. AndradeIII

IDepartamento de Teoria Econômica, Instituto de Economia, Universidade Estadual de Campinas CP 6135, 13083-970, Campinas - SP - Brasil. ballini@eco.unicamp.br
IIDepartamento de Engenharia de Sistemas, Fac. de Eng. Elétrica e de Computação, Universidade Estadual de Campinas, CP 6101, 13083-970, Campinas - SP - Brasil. dino@densis.fee.unicamp.br
IIIInstituto de Ciências Matemática e de Computação, Universidade de São Paulo CP 668, 13560-970, São Carlos - SP - Brasil. marinho@icmc.sc.usp.br

 

 


RESUMO

Este trabalho apresenta um modelo de rede neural nebulosa para previsão de vazões sazonais. O modelo é baseado em um método de aprendizado construtivo onde grupos de neurônios competem quando a rede recebe uma nova entrada. A rede aprende os parâmetros fundamentais para definir as regras nebulosas e funções de pertinência para cada variável de entrada. O modelo foi aplicado para o problema de previsão de vazões médias mensais de três usinas hidroelétricas situadas em diferentes regiões do Brasil. O desempenho do modelo foi comparado com métodos convencionais usados para previsão de vazões. Os resultados mostraram que a rede neural nebulosa forneceu um melhor desempenho para previsão um passo à frente, com erros significativamente menores que as outras abordagens.

Palavras-chave: Previsão de vazões, redes neurais, sistemas de inferência nebulosa, séries temporais.


ABSTRACT

This paper presents a neural fuzzy network model for seasonal streamflow forecasting. The model is based on a constructive learning method where neurons groups compete when the network receives a new input, so that it learns the fuzzy rules and membership functions essential for modelling a fuzzy system. The model was applied to the problem of seasonal streamflow forecasting using a database of average monthly inflows of three Brazilian hydroelectric plants located at different river basins. The performance of the model developed was compared with conventional approaches used to forecast streamflows. The results show that the neural fuzzy network model provides a better one-step-ahead streamflow forecasting, with forecasting errors significantly lower than the other approaches.

Keywords: Streamflow forecasting, neural networks, inference fuzzy system, time series.


 

 

1  INTRODUÇÃO

Análise e previsão de séries de vazões sazonais são de fundamental importância no planejamento da operação de sistemas de recursos hídricos. Uma das dificuldades na previsão dessas séries é a natureza não estacionária devido aos períodos de cheia e seca do ano. Estas previsões são realizadas atualmente por metodologias baseadas nos modelos de (Box et al., 1994). Como as séries de vazões mensais são séries sazonais com períodos de 12 meses, as quais, geralmente, apresentam correlações periódicas, modelos de séries temporais que vêm sendo sugeridos são os modelos autoregressivos periódicos (MecLeod, 1994), (Vecchia, 1985).

Recentemente, muitas pesquisas vêm sendo desenvolvidas para aplicação de modelos de redes neurais artificiais em previsões de séries temporais por sua habilidade de aprendizado e capacidade de generalização, associação e computação paralela. Estas qualidades as tornam capazes de identificar e assimilar as características das séries, tais como sazonalidade, periodicidade e tendência, na maioria das vezes camufladas por ruídos, sem necessitar da laboriosa formulação teórica, imprescindível para os procedimentos estatísticos (Weigend et al., 1990). Na maioria dos estudos realizados o modelo empregado é a rede multicamadas com algoritmo back-propagation, proposto por (Rumelhart et al., 1986a). Este modelo vem sendo aplicado para previsão de vazões mostrando resultados satisfatórios (Atiya et al., 1999), (Zealand et al., 1999).

A capacidade de mapeamentos complexos das redes neurais cresce com o número de camadas e neurônios. Contudo, este aumento acarreta maior tempo de processamento bem como, uma considerável soma de dados. Na prática, os parâmetros devem ser ajustados rapidamente e somente uma pequena quantidade de dados é disponível (Lachtermacher and Fuller, 1995). Freqüentemente, dados do mundo real apresentam ruídos, podendo conter contradições e imperfeições. Assim, modelos de análise de dados baseados em conjuntos nebulosos vêm sendo especialmente utilizados para tratar estas hipóteses (Kacprzyk and Fedrizzi, 1992).

Em anos recentes, surgiu um método promissor unindo os benefícios das redes neurais e da lógica nebulosa, resultando em um sistema integrado, onde a aprendizagem e o poder computacional das redes neurais, e a capacidade de representação e raciocínio da lógica nebulosa são combinados. Estes sistemas são chamados de redes neurais nebulosas (Pedrycz and Gomide, 1998). Esta abordagem vêm sendo usada em modelos de previsão de carga (Bakirtzis et al., 1995) e previsão de vazões (Ballini et al., 1999), mostrando resultados promissores.

Mais recentemente, um modelo de rede neural nebulosa adaptativa foi proposto por (Figueiredo and Gomide, 1997). Este modelo apresenta um método de aprendizado construtivo no qual grupos de neurônios são adicionados à estrutura da rede quando novo conhecimento é necessário. A rede aprende os parâmetros da função de pertinência para cada variável de entrada dos dados de treinamento, codificando um conjunto de regras nebulosas em sua estrutura, uma propriedade que fornece uma relação dual entre a rede e um sistema nebuloso associado.

Neste trabalho, uma análise comparativa é feita para avaliar o desempenho da rede neural nebulosa, rede multicamadas com algoritmo back-propagation e modelo autoregressivo periódico para previsão de vazões médias mensais de três usinas hidroelétricas brasileiras localizadas em diferentes regiões. Os resultados revelam que o modelo de rede neural nebulosa fornece melhores resultados para previsão 1 passo à frente quando comparados com as outras abordagens.

Na próxima seção é descrito o modelo de rede neural nebulosa. A Seção apresenta os métodos de aprendizagem. A Seção descreve a aplicação da metodologia proposta para previsão de vazões médias mensais. Finalmente, na Seção são apresentadas as conclusões.

1.1  Notação

x vetor de entrada

Aj, conjuntos nebulosos

wi pesos sinápticos

saída prevista

medida de possibilidade

Hi nível de ativação

valor modal

ri dispersão

N número de regras

fator de ampliação

b taxa de aprendizagem

i fator de aprendizagem

D distância Euclidiana

g fator de redução

y vazão média mensal

mm média no mês m

sm desvio padrão no mês m

fi,m função periódica

 

2  REDE NEURAL NEBULOSA

Esta seção apresenta a estrutura da rede neural nebulosa (RNN) proposta por (Figueiredo and Gomide, 1997). Esta estrutura foi desenvolvida com base em duas características essenciais: o mapeamento das regras nebulosas na estrutura é direto e o processamento neural e a inferência nebulosa devem concordar totalmente. Essas propriedades são condições necessárias para garantir que o sistema proposto tenha uma natureza dual, ou seja, o sistema pode ser visto ora como um sistema baseado em regras nebulosas, ora como uma rede neural nebulosa (Pedrycz and Gomide, 1998).

A rede é baseada no mecanismo de inferência nebulosa, codificando uma base de regras na forma de ''Se um conjunto de condições é satisfeito Então um conjunto de conseqüentes é inferido'', o qual pode ser definido da seguinte forma (Gomide et al., 1995):

onde xj,  j = 1,  ...,  M é uma variável nebulosa e M o número de entradas; Aj e ,   i = 1,  ...,  N são conjuntos nebulosos representados por funções de pertinência onde N o número de regras nebulosas; y é um número real definido no espaço de saída. Os valores de wi(x) = wi são números reais e representam os pesos sinápticos correspondentes aos conseqüentes das regras nebulosas, sendo que para cada regra nebulosa está associado um único peso sináptico.

Para efeito de cálculo e representação de conhecimento na RNN, todas as funções de pertinência são discretizadas, ou seja, para cada conjunto nebuloso Z define-se uma função de pertinência Z(·): U ® [0, 1], onde U é o universo de discurso, tal que Z(xj) = zj, se xj Î = (], onde é o k-ésimo intervalo de discretização em relação à entrada xj,   k = 1, ..., Q.

Desta forma, define-se como sendo o valor da função de pertinência do conjunto nebuloso Aj, para todo xj Î , ou seja, Aj(xj) = . O valor de é também definido como sendo o valor da função de pertinência do conjunto nebuloso , isto é, (xj) = , se xj Î .

A implementação do mecanismo de inferência nebulosa pode ser obtida de várias formas (Pedrycz and Gomide, 1998). Em (Figueiredo and Gomide, 1997) foi utilizado um dos métodos mais conhecidos, proposto por (Yager and Filev, 1994), onde a saída y é determinada a partir de três estágios, como segue:

1. Comparação: Para cada regra  i, i = 1,  ...,  N, e para cada antecedente j,   j = 1,  ...,  M, calcula-se a medida de possibilidade entre os conjuntos nebulosos Aj e  , da seguinte forma:

onde S e T são operadores, correspondentes a uma s-norma e uma t-norma, respectivamente, e x = (x1, ..., xj, ..., xM)' é o vetor de entrada. A notação é a aplicação da s-norma para todo intervalo de discretização k = 1, ..., Q relativo à variável do vetor de entrada xj.

2. Agregação dos Antecedentes: Para cada regra   i,  i = 1,  ...,  N, agregam-se os valores de cada um dos antecedentes através de uma t-norma. O resultado desta agregação é chamado de nível de ativação Hi, definido por:

onde a notação é a aplicação da t-norma para todo j = 1, ..., M relativo ao vetor de entrada x.

3. Agregação das Regras: A saída do sistema de inferência, ou seja, a etapa de defuzzificação dos dados, é calculada através do método do centro de gravidade, da seguinte forma:

A RNN é constituída por unidades de processamento, chamadas de neurônios nebulosos. Um modelo geral do neurônio nebuloso é mostrado na Figura 1. Matematicamente, este neurônio pode ser representado da seguinte forma:

y(x) = j(f(Y(x))) = j(f(y1(x1), ..., yM(xM)))

onde Y : ÂM ® ÂM é o operador sináptico, f : ÂM ® Â é o operador de agregação e j : Â ® Â é a função de ativação.

 

 

A RNN apresenta uma arquitetura não recorrente com 5 camadas (Figura 2). Pode-se verificar que o mecanismo de inferência descrito através dos procedimentos de comparação, agregação dos antecedentes e agregação das regras é isomórfico à estrutura da rede.

 

 

A primeira camada é dividida em M grupos de neurônios, cada um associado a uma variável nebulosa de entrada. Cada neurônio nesta camada representa um intervalo de discretização , correspondente ao espaço de entrada. Ou seja, há tantos neurônios nesta camada quantos forem os intervalos de discretização. Cada grupo de neurônios é responsável por transformar as entradas não nebulosas para que as camadas seguintes possam tratar a informação adequadamente. Estes grupos geram os valores referentes à função de pertinência do conjunto nebuloso Aj. Assim, um neurônio de entrada recebe um sinal simples, decodifica e o transmite para a segunda camada. O sinal ajk é transmitido pelo k-ésimo neurônio localizado no j-ésimo grupo.

Definindo-se y e f como funções identidade, a saída ajk Î {0, 1} é dada por ajk = j(xj). Para um intervalo = (], a função decodificada j(·) para este neurônio, através do k-ésimo intervalo, mostrada na Figura 3, é dada por:

ajk = j (xj) =

 

 

A segunda camada contém N grupos (número de regras), cada qual contendo M neurônios (número de antecedentes de cada regra). Esta camada representa o primeiro estágio de inferência chamado comparação. O j-ésimo neurônio do i-ésimo grupo representa, através dos pesos sinápticos , a função de pertinência do conjunto nebuloso . Portanto, o i-ésimo grupo é composto por neurônios que representam as funções de pertinência de todos os conjuntos nebulosos correspondentes aos antecedentes da i-ésima regra. Além disso, cada neurônio da i-ésima regra calcula a mediada de possibilidade entre os conjuntos nebulosos Aj e . Assim, o k-ésimo neurônio do j-ésimo grupo da primeira camada, cuja saída é dada por ajk, se conecta com o i-ésimo grupo da segunda camada através de pesos sinápticos i. Considerando-se que y =  t-norma, f =  s-norma e j é a função identidade, a saída do j-ésimo neurônio é a medida de possibilidade dada pela Equação (1).

A terceira camada contém N neurônios, cada um com M entradas. Para cada grupo i da segunda camada, um neurônio na terceira camada realiza agregação dos antecedentes (segundo estágio de inferência). Todas as conexões possuem peso sináptico unitário. A saída desta camada é dada pela Equação (2), assumindo y =  função identidade, f =  t-norma e j =  função identidade.

Cada neurônio i da terceira camada está conectado com os dois neurônios da quarta camada. Ou seja, a quarta camada possui dois neurônios, ambos com N entradas. O operador de agregação associado com estes neurônios é a soma algébrica. Um dos neurônios conecta-se com o i-ésimo neurônio da camada anterior através das sinapses, com pesos wi. Os operadores y e f são, respectivamente, o operador algébrico e a soma algébrica, e j é a função identidade. As saídas são constituídas pelo numerador da Equação (3).

O outro neurônio também é conectado com todos os neurônios da camada anterior com pesos sinápticos unitários. Considerando y =  função identidade, f =  soma algébrica e j =  função identidade, a saída equivale ao denominador da inferência nebulosa definida em (3).

Finalmente, a última camada consiste de um único neurônio para calcular o quociente dos sinais de entrada, ou seja, para calcular (x) (Equação (3)). Portanto, as conexões possuem pesos unitários e os operadores yf e j são função identidade, operador de divisão e a função identidade, respectivamente.

Cada uma das camadas da RNN possui uma associação com os diversos estágios do mecanismo de inferência nebulosa, descritos de (1) a (3). Além disso, os pesos sinápticos representam tanto o conhecimento da rede neural como também representam as funções de pertinência dos antecedentes e conseqüentes das regras nebulosas. Assim, a RNN codifica um conjunto de N regras em sua estrutura, processa as informações através de neurocomputação, executando raciocínio nebuloso.

 

3  MÉTODOS DE APRENDIZAGEM

A estratégia de aprendizagem do modelo RNN se divide em duas fases. A primera fase corresponde à aprendizagem não supervisionada, ou seja, a aprendizagem se processa sem que as saídas sejam fornecidas, envolvendo somente uma parte da arquitetura, mais especificamente a segunda camada. Nesta fase, a rede aprende as funções de pertinência dos antecedentes das regras nebulosas enquanto ajusta os pesos sinápticos associados a esta camada. O método utilizado durante esta etapa é do tipo competitivo, baseado nas redes do tipo Kohonen. A segunda fase adota um método supervisonado, baseado no método do gradiente para aprendizagem dos conseqüentes das regras, e envolve apenas o ajuste dos pesos da quarta camada. Assim, a RNN deve aprender os pesos sinápticos relacionados aos neurônios da segunda camada, bem como os pesos sinápticos wi da quarta camada.

O algoritmo de aprendizagem consiste na apresentação dos pares de entrada/saída desejada à rede, sendo o t-ésimo par dado por (x(t), y(t)), onde x(t) = (x1(t), ...,  xM(t))' é o vetor de entrada com M componentes e y é a saída desejada. Assume-se que os conjuntos nebulosos, (·), são representados por funções de pertinência do mesmo tipo, simétricas e completamente definidas pelos valores modais e de dispersão ri. Estes parâmetros devem ser aprendidos durante o treinamento, segundo o método de aprendizagem competitivo, para determinar os pesos sinápticos = (xj) = (xj),  xj Î = (] da segunda camada. Os pesos sinápticos wi, pertencentes a quarta camada, são ajustados através do método do gradiente. Dois algoritmos de aprendizagem baseados no paradigma de aprendizado competitivo, chamados de offline e adaptativo são descritos a seguir.

3.1  Aprendizado Offline

No método de aprendizagem offline o número de regras nebulosas N da segunda camada é definido no início do treinamento. Os pares de entrada/saída desejada são apresentados aleatóriamente à rede e o nível de ativação Hi(x(t)) para cada regra i é calculado, determinando-se, assim, a regra vencedora. Esta regra vencedora guia o procedimento de adaptação dos parâmetros da seguinte forma:

a) O vetor de entrada x(t) é caracterizado por pelo menos uma regra, ou seja,   $ i | Hi(x(t)) ¹ 0. O grupo x(t) vence a competição se Hx(t)(x(t)) > Hi(x(t)),  "  i Î {1, ..., N} e as equações abaixo são usadas para ajustar os parâmetros do modelo:

b) A entrada x(t) não pertence a nenhuma regra, ou seja, Hi(x(t)) = 0, "   i Î {1, ..., N}. Neste caso, determinam-se as distâncias D(ci(t), x(t)) entre os vetores de entrada x(t) e modal ci(t) = ((t), ..., (t))', para i Î {1, ..., N}. O grupo vencedor x(t) é tal que D(cx(t), x(t)) < D(ci(t), x(t)),  "  i Î {1, ..., N}. As equações de ajuste dos parâmetros da rede são dadas por:

onde, hi(t) é o número de vezes que o valor modal é ajustado, i(t) = a/(hx(t) + 1) é o fator de aprendizagem, definido como sendo uma função monotônica decrescente positiva, tal que 0 < i(t) < 1 e a Î (0, 1]. O fator de aprendizagem b é constante e pertence ao intervalo (0, 1) e > 1 é um fator de ampliação.

Esta estratégia de aprendizagem apresenta duas fases. Na primeira fase os pares de entrada/saída são apresentados aleatóriamente à rede. Os valores modais e de dispersão são ajustados tal que todo o espaço de entrada seja coberto pelos grupos de neurônios. Assim, para qualquer entrada apresentada à RNN há sempre um grupo de neurônios i pertencente à segunda camada tal que Hi(x(t)) ¹ 0. A partir desta fase, os pesos wi(t) da quarta camada são ajustados a cada par entrada/saída apresentada à rede, correspondendo à segunda fase do algoritmo.

3.2  Aprendizado Adaptativo

O método de aprendizagem adaptativo capacita a RNN a adquirir novos conhecimentos codificando novas regras nebulosas em sua estrutura, alterando a arquitetura da rede. Portanto, o número de regras nebulosas codificadas pela rede, correspondente ao número de grupos de neurônios na segunda camada, não é constante, ou seja, N = N(t).

O algoritmo adaptativo utiliza fatores de aprendizagem análogos aos do algoritmo offline. Ou seja, para ajuste dos valores modais (t) das funções de pertinências (.) e conseqüentes das regras nebulosas wi(t), utilizam-se os fatores de aprendizagem i(t) e b Î (0, 1), respectivamente. O fator i(t) é definido da mesma maneira que no método offline, ou seja, i(t) = a/ (hi(t) + 1), onde hi(t) é o número de vezes que o valor modal foi ajustado até a t-ésima entrada e a Î (0, 1]. Ao contrário do método offline, que possui um fator de ampliação, o método adaptativo utiliza um fator de redução g Î (0, 1) para ajuste da dispersão dos conjuntos nebulosos.

Quando a rede recebe uma nova entrada os grupos de neurônios competem entre si. Se um dos grupos vence e o desempenho é satisfatório então os parâmetros são ajustados. Se o desempenho não é satisfeito ou nenhum grupo vence uma nova regra é adicionada a estrutura da rede. Assim, duas situações são possíveis:

a) A entrada x(t) é caracterizada por pelo menos uma regra, isto é,   $i|Hi (x(t)) ¹ 0. O grupo x(t) vence a competição se Hx(t)(x(t)) > Hi(x(t)),"i Î {1,..., N(t)}. Se o modelo alcança o desempenho desejado, ou seja, ||y(t) - y(t)|| <  d, onde d é a precisão desejada, então os parâmetros são ajustados de acordo com:

Por outro lado, se o desempenho desejado não foi alcançado pelo modelo, uma nova regra é adicionada à estrutura da rede e os parâmetros são ajustados como segue:

Para   h = 1   a   N(t)   Faça:

Se   Hh(x(t)) ¹ 0     Então:

Realiza-se a inserção de uma nova regra à estrutura da rede. Os novos valores modais são iguais a cada componente do vetor de entrada, a dispersão é igual à distância D(cx (t)(t), x(t)) e o conseqüente é igual à saída desejada y(t):

Para  i = N(t + 1)  Faça:

b) A entrada x(t) não é classificada por nenhuma regra, isto é, Hi(x(t)) = 0, "  i Î {1, ..., N(t)}. Neste caso, a distância D(ci(t),  x(t)) é determinada entre o vetor de entrada e o vetor de valores modais ci(t) = ((t), ..., (t))' e o grupo vencedor x(t) é tal que D(cx (t)(t), x(t)) < D(ci(t), x(t)),"  i Î {1, ..., N(t)}. Os ajustes das equações são:

Para  i = N(t + 1)  Faça:

Os métodos de aprendizagem offline e adaptativo, descritos nesta seção, capacitam a rede a adquirir novos conhecimentos quando necessário, fornecendo uma forma automática de aprender os parâmetros para um modelo nebuloso sem a interferência ou participação de um especialista. A próxima seção apresenta a aplicação dessas estratégias de aprendizagem no problema de previsão de vazões afluentes médias mensais 1 passo à frente.

 

4  PREVISÃO DE VAZÕES

Este trabalho tem como objetivo analisar o desempenho do modelo RNN proposto por (Figueiredo and Gomide, 1997) aplicado ao problema de previsão de vazões afluentes médias mensais. Para tanto, foi realizado uma análise comparativa entre os modelos de séries temporais, rede neural multi-camadas com algoritmo de retro-propagação e a rede neural nebulosa com os algoritmos offline e adaptativo.

Para efeito de estudo de casos, foram utilizados os dados de duas usinas hidroelétricas Furnas e Emborcação, com reservatórios do sistema Sudeste Brasileiro localizados na bacia do rio Paraná, e a usina hidroelétrica de Sobradinho, com reservatório do sistema Nordeste localizada na bacia do rio São Francisco.

Os dados utilizados neste trabalho consistem em séries históricas de vazões naturais afluentes médias mensais que abrangem o período de 1931 a 1990, medidos em postos de medições de vazões, onde existe aproveitamento hidroelétrico. Esses conjuntos de dados compõem um banco de vazões históricas mantido pela Eletrobrás.

Para avaliar o desempenho dos modelos foram selecionados os últimos 5 anos (60 meses) do histórico de vazões, compreendendo o período de 1986 a 1990. Os modelos de séries temporais, rede neural artificial e rede neural nebulosa foram ajustados utilizando o período de janeiro de 1931 a dezembro de 1985.

As séries de vazões naturais médias mensais têm como características o comportamento periódico, onde os dados oscilam entre um valor mínimo, que ocorre no meses secos, e um máximo, que ocorre nos meses de cheia, podendo ser observado uma variação sazonal, com período aproximado de 12 meses. Este comportamento pode ser observado na Tabela 1 onde são apresentadas a média e o desvio padrão das séries de vazões, para as três usinas hidroelétricas.

 

 

A análise destes tipos de séries pode ser feita através do uso de formulações periódicas cujos parâmetros apresentam um comportamento periódico. A esta classe de modelos denomina-se auto-regressivos periódicos (Salas et al., 1980). Estes modelos são referenciados por modelos PAR(p), onde p é a ordem do modelo. Em geral, p é um vetor, p = (p1p2, ..., p12), onde cada elemento fornece a ordem de cada mês. Matematicamente, o modelo PAR(p1p2, ..., p12), pode ser descrito da seguinte forma:

onde mm é a média no mês m, fi,m é a função periódica com período s, at(r,m) é um ruído branco com distribuição normal N(0, ) sendo a variância no mês m e yt(r,m) representa a série padronizada:

sendo xt(r,m) a série sazonal e t é o índice de tempo escrito como função do número de anos r = 1, 2, ..., n e dos meses m = 1, 2, ..., s.

Para o ajuste dos modelos PAR para os dados de vazões das três usinas hidroelétricas foram adotados duas estratégias. Na primeira, foi realizada a análise dos histogramas e das funções de autocorrelação e autocorrelação parcial para selecionar a ordem do modelo a ser ajustado. Neste caso, um modelo auto-regressivo periódico de mesma ordem p (PAR(p)) foi selecionado para todos os meses do ano e, para a estimação dos parâmetros , foi empregado o método de máxima verossimilhança.

A Figura 4 mostra as funções de autocorrelação e autocorrelação parcial para o posto de Furnas. A análise destas funções indica o ajuste de um modelo de ordem 2, ou seja, o ajuste de um modelo PAR(2). Prosseguindo da mesma forma, as análises dos histogramas e das funções de autocorrelação e autocorrelação parcial para os dados de vazões dos postos de Emborcação e Sobradinho indicaram o ajuste de um modelo de ordem 1 (PAR(1)).

 

 

A segunda estratégia adotada foi escolher a ordem do modelo mais adequada para cada mês (PAR(pm)), onde pm denota a ordem do modelo no mês m. Neste caso, foi utilizado inferência Bayesiana, sendo que os parâmetros foram estimados através da densidade a priori e para a seleção da ordem do modelo foi usado a densidade preditiva (Ballini, 2000). A Tabela 2 mostra a ordem selecionada para cada mês e para os dados de vazões das três usinas hidroelétricas. Pode-se notar que, para os meses secos (Abril a Outubro) a ordem dos modelos selecionados, em geral, foi maior que para os meses de cheia (Novembro a Março) indicando que, durante o período seco a correlação com os meses anteriores é mais forte que para os meses úmidos.

 

 

Uma outra metodologia utilizada para comparação com o modelo RNN e os modelos de séries temporais, foi a rede neural multicamadas (MultiLayer Perceptron-MLP), com algoritmo de retro-propagação, proposto por (Rumelhart et al., 1986a). A rede MLP é uma das mais conhecidas e aplicadas arquiteturas de redes neurais. Sua arquitetura (ou topologia) consiste de uma camada de entrada, uma ou mais camadas intermediárias e uma camada de saída. Os neurônios são conectados por arcos e a cada arco está associado um peso. A comunicação entre os neurônios é realizada através destas interconexões ponderadas. Cada neurônio da rede tem uma função não-decrescente e diferenciável, conhecida como função de ativação. Uma das funções de ativação mais utilizada em aplicações é a função logística, definida como segue:

onde nj(t) é o nível de ativação do neurônio j no instante t.

Para o treinamento da rede MLP, o método de aprendizagem mais utilizado é o algoritmo de retro-propagação do erro. Este algoritmo consiste em alterar os pesos da rede a fim de minimizar a diferença entre as saídas desejadas e as saídas fornecidas pelo modelo. Se o erro na camada de saída não é menor que uma dada tolerância, então o erro é retro-propagado através da rede, tendo como base para a atualização dos pesos a Regra Delta, a qual implementa o Método do Gradiente Descendente (Haykin, 1994). Um método simples para aumentar a velocidade de aprendizagem é modificar a Regra Delta, adicionando um termo momentum, como proposto por (Rumelhart et al., 1986a):

onde a é um número positivo, restrito ao intervalo [0,1), chamado constante momentum e h é a taxa de aprendizado. Algumas heurísticas foram sugeridas por (Jacobs, 1988) para acelerar a convergência do algoritmo através da taxa de aprendizado. Uma delas é utilizar um parâmetro diferente e variável para cada peso sináptico. Isto é realizado usando o Método do Gradiente Descendente para a pesquisa da direção para a atualização dos pesos (Haykin, 1994).

Neste trabalho, uma estrutura com 6 entradas e uma saída foi selecionada para os modelos RNN e MLP, dadas pelas vazões dos meses:

onde, t = 1, 2 ... é o ano, m = 1, ..., 12 é o mês e vazão(t, m) é a vazão média mensal do ano t e mês m. A seleção dessas entradas foi devido ao fato de fornecer ao modelo a tendência da série dada pelos três meses imediatamente anteriores (m - 1,  m - 2,  m - 3) e também informações sobre a sazonalidade representada pelos três meses m - 11,  m - 12 e m - 13.

As seguintes inicializações foram adotadas para a rede MLP: para os pesos foram atribuídos valores aleat\'rios com distribuição uniforme e de magnitude pequena; termo momentum a = 0.9; número de iterações 1000; e taxa de aprendizado , h, diferente para diferentes partes da rede, dependendo da conexão. Para avaliar o desempenho dos modelos MLP foi fixado uma tolerância d = 0.001. A Tabela 3 mostra a topologia obtida para as três usinas hidroelétricas. O número de neurônios foi maior para o período de cheia (Novembro a Abril), pois os desvios padrões (Tabela 1) durante estes meses são maiores que nos meses de seca, resultando em uma maior variação nos dados.

 

 

Para as funções de pertinência das regras nebulosas codificadas na RNN foram selecionadas as funções Gaussianas, definidas como segue:

A taxa de aprendizagem para atualização dos pesos wi foi fixada em b = 0.5 e o parâmetro a = 1.0 foi utilizado para atualização do fator de aprendizagem i(t), para os dois métodos de aprendizagem. Os neurônios da segunda camada possuem como operador sináptico a t-norma mínimo e como operador de agregação a s-norma máximo. Os neurônios na terceira camada possuem como operador de agregação a t-norma produto.

Um fator de ampliação = 1.1 para o ajuste das dispersões das regras nebulosas foi adotado para o algoritmo offline. Os valores modais e de dispersão ri são inicializados aleatoriamente e o número de regras para cada mês está apresentado na Tabela 4.

 

 

Para a RNN com o algoritmo adaptativo o fator de redução g = 0.9 foi considerado e a inicialização da dispersão das funções de pertinência foi adotada ri(0) = 1.0. O número de regras nebulosas iniciais foi N(0)=1. Os grupos de neurônios foram adicionados à estrutura da rede para um desempenho escolhido como d = 0.09, ou seja, novas regras foram adicionadas quando

||y(t) -(t)|| > 0.09

A Tabela 6 mostra o número de regras que foram ajustados para cada mês e para cada usina hidroelétrica. Novamente, pode-se observar que o número de regras é maior durante os meses de cheia do ano (Novembro a Abril) porque durante este período as vazões apresentam grandes variações. Este mesmo comportamento foi observado quando foi ajustado o modelo MLP e PAR.

 

 

 

 

Para avaliar o desempenho dos modelos ajustados neste trabalho são analisados os erros quadrático médio (EQM), absoluto médio (EAM) e relativo percentual médio (ERM), definidos como segue:

onde P = 1, ..., 60 é o número de padrões, yj é o valor real e j é o valor previsto em relação ao mês j.

As Tabelas 6, 7, e 8 mostram os erros da aplicação dos modelos para as usinas hidroelétricas de Furnas, Emborcação e Sobradinho, respectivamente, para previsão 1 passo à frente. Em todos os casos e para todos os critérios, a RNN resultou em um melhor resultado que a MLP para as topologias escolhidas e os modelos PAR(pm) e PAR(2) fornecendo uma redução significativa nos erros de previsão. Também pode-se notar que o ajuste de um modelo PAR(pm) fornece melhores resultados que o ajuste de um modelo de ordem fixa para todo mês m (PAR(2)). Nota-se que tanto os modelos MLP como o modelos RNN apresentaram melhor desempenho que os modelos de séries temporais.

 

 

 

 

5   CONCLUSÕES

Este trabalho apresentou uma classe de rede neural nebulosa para previsão de vazões naturais afluentes médias mensais. Dois algoritmos de treinamento baseados no paradigma de aprendizado competitivo foram utilizados pela rede neural nebulosa. No primeiro, o número de regras foi definido no início do treinamento; no segundo, grupos de neurônios são adicionados à estrutura da rede quando novos conhecimentos são necessários. Estes modelos aprendem os parâmetros fundamentais para modelar estes sistemas. Os resultados da aplicação destes modelos para previsão de vazões médias mensais 1 passo à frente foram comparados com os resultados obtidos pelos modelos de rede neural artificial e modelos de séries temporais, fornecendo uma melhor previsão 1 passo à frente, com erros em torno de 40% menores que os modelos periódicos auto-regressivos. Quando comparados os dois métodos de aprendizado, o algoritmo adaptativo apresentou melhores resultados, porém o número de regras nebulosas ajustadas foi maior que para o algoritmo offline.

 

AGRADECIMENTOS

Esta pesquisa teve o suporte financeiro da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP), e do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).

 

REFERÊNCIAS

Atiya, A. F., El-Shoura, S. M., Shaheen, S. I.  El-Sherif, M. S. 1999 . A comparison between neural-network forecasting techniques - case study: River flow forecasting, IEEE Transactions on Neural Networks 10(2): 402-409.         [ Links ]

Bakirtzis, A. G., Theocharis, J. B., Kiartzis, S. J.  Satsios, K. J. 1995 . Short term load forecasting using fuzzy neural networks, IEEE Transactions on Power Systems 10(3): 1518-1524.         [ Links ]

Ballini, R. 2000 . Análise e Previsão de Vazões Utilizando Modelos de Séries Temporais, Redes Neurais Artificiais e Redes Neurais Nebulosas, Tese de Doutorado, Faculdade de Engenharia Elétrica e de Computação, Unicamp.         [ Links ]

Ballini, R., Soares, S.  Andrade, M. G. 1999 . Seasonal streamflow forecasting via a neural fuzzy system, Proceedings of International Federation of Automatic Control - IFAC'99, Vol. k, pp. 81-86.         [ Links ]

Box, G. E. P., Jenkins, G. M.  Reinsel, G. C. 1994 . Time Series Analysis: Forecasting and Control, Holden Day, 3th Edição.         [ Links ]

Figueiredo, M.  Gomide, F. 1997 . Adaptive neuro fuzzy modelling, Proceedings of the 6th IEEE Conference on Fuzzy Systems, Barcelona - Espanha, pp. 1567-1572.         [ Links ]

Gomide, F., Figueiredo, M.  Pedrycz, W. 1995 . A neural fuzzy network: Structure and learning, Fuzzy Logic and Its Applications, Information Sciences and Intelligent Systems, Bien, Z. and Min, K., Kluwer Academic Publishers, Netherlands, pp. 177-186.         [ Links ]

Haykin, S. 1994 . Neural Networks - A comprehensive Foundation, IEEE Press, New York.         [ Links ]

Jacobs, R. A. 1988 . Increased rates of convergence through learning rate adaptation, Neural Networks, Vol. 1, pp. 295-307.         [ Links ]

Kacprzyk, J.  Fedrizzi, M. 1992 . Fuzzy regression Analysis. Studies in Fuzziness, Vol. 1, Physica-Verlag, Heidelberg.         [ Links ]

Lachtermacher, G.  Fuller, J. D. 1995 . Backpropagation in time-series forecasting, Journal of Forecasting 14(4): 381-393.         [ Links ]

MecLeod, A. I. 1994 . Diagnostic checking of periodic autoregression, Journal of Time Series Analysis 15(2): 221-223.         [ Links ]

Pedrycz, W.  Gomide, F. 1998 . An Introduction to Fuzzy Sets: Analysis and Design, MIT Press, Cambridge, MA.         [ Links ]

Rumelhart, D., Hinton, G. E.  Williams, R. 1986a . Learning representations by back-propagating errors, Nature (London) 323: 533-536.         [ Links ]

Salas, J. D., Delleur, J. W., Yevjevich, V.  Lane, W. L. 1980 . Applied modeling of hydrologic time series, Water Resources Publications .         [ Links ]

Vecchia, A. V. 1985 . Maximum likelihood estimation for periodic autoregressive-moving average models, Technometrics 27(4): 375-384.         [ Links ]

Weigend, A. S., Rumelhart, D. E.  Huberman, B. A. 1990 . Predicting the future: A connectionist approach, International Journal Neural System 1: 3.         [ Links ]

Yager, R.  Filev, D. 1994 . Essentials of Fuzzy Modeling and Control, Wiley Interscience, New York.         [ Links ]

Zealand, C. M., Burn, D. H.  Simonovic, S. P. 1999 . Short term streamflow forecasting using artificial neural networks, Journal of Hydrology 214: 32-48.         [ Links ]

 

 

Artigo submetido em 20/12/2000
1a. Revisão em 25/10/2002
Aceito sob recomendação do Ed. Assoc. Prof. José L. R. Pereira

Creative Commons License Todo o conteúdo deste periódico, exceto onde está identificado, está licenciado sob uma Licença Creative Commons