SciELO - Scientific Electronic Library Online

 
vol.18 issue2Segmentação de mapas auto-organizáveis com espaço de saída 3-D author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Article

Indicators

Related links

Share


Sba: Controle & Automação Sociedade Brasileira de Automatica

Print version ISSN 0103-1759

Sba Controle & Automação vol.18 no.2 Natal Apr./June 2007

http://dx.doi.org/10.1590/S0103-17592007000200001 

Algoritmo para identificação assintótica via APLS e sem conhecimento prévio de limitantes

 

 

José A. Ruiz Vargas; Elder M. Hemerly

Departamento Sistemas e Controle, Instituto Tecnológico de Aeronáutica 12228-900 São José dos Campos, São Paulo, Brasil, vargas@ieee.org, hemerly@ita.br

 

 


RESUMO

Neste artigo é proposto um algoritmo baseado em aproximadores parametrizáveis linearmente para a identificação de sistemas incertos. O algoritmo proposto não requer o conhecimento prévio de limitantes para os parâmetros ''ótimos'', erros de aproximação e distúrbios para garantir estabilidade. Adicionalmente, assegura convergência assintótica do erro de estado para zero, inclusive na presença de incertezas, sempre que algumas condições sobre os parâmetros de projeto sejam satisfeitas.

Palavras-chave: Identificação, sistemas incertos, aproximadores parametrizáveis linearmente.


ABSTRACT

In this paper a linearly parameterized approximators based algorithm for identifying uncertain systems is proposed. The proposed algorithm ensures stability without previous knowledge of bounds for the ''optimal'' parameter, approximation error, and disturbances. This algorithm guarantees that the state error converges asymptotically to zero, even in the presence of uncertainties, as long as some conditions on the design parameters are satisfied.

Keywords: Identification, uncertain systems, linearly parameterized approximators.


 

 

1 INTRODUÇÃO

O uso de modelos de redes neurais artificiais (RNAs) como ferramentas úteis para identificação de sistemas incertos tem motivado, a partir de 1990, diversos estudos teóricos e práticos (e.g. Narendra e Parthasarathy, 1990; Polycarpou e Ioannou, 1991; Kosmatopoulos et alii, 1995; Vargas, 1997; Song, 1998; Yu e Li, 2001; Yu et alii, 2001; Yu, 2003; Yu, 2004). Este interesse é motivado pela capacidade das RNAs para aprender mapeamentos entrada-saída complexos, uma vez que são aproximadores universais, e pela presença inevitável de incertezas em problemas de identificação, pois é impossível se obter modelos conhecidos perfeitamente. Isto é devido às simplificações necessárias para a modelagem matemática, falhas intempestivas, mudanças nas condições de operação, envelhecimento dos equipamentos e assim por diante.

Contudo, a principal deficiência de todos os trabalhos supracitados consiste na não garantia da convergência do erro de estado para zero na presença de incertezas, o que não é peculiar somente a eles, senão à maioria de modificações robustas, como também reportado em Ioannoue Sun (1996) no contexto de identificação paramétrica on-line.

Recentemente, em Vargas e Hemerly (2005) os autores propuseram uma modificação robusta, para as leis de adaptação dos pesos de RNAs, baseada em um ''leakage gain'' (Ioannoue Sun, 1996) dinâmico que assegura estabilidade e, além disso, ao contrário dos resultados presentes na literatura, a convergência assintótica do erro de estado para zero, inclusive na presença de incertezas como, por exemplo, erros de aproximação e distúrbios, sempre que algumas hipóteses sobre os parâmetros de projeto sejam satisfeitas. Embora o algoritmo proposto em Vargas e Hemerly (2005) apresente boas propriedades de convergência, conforme supracitado, há uma deficiência no que se refere a aplicação, devido a que é necessário o conhecimento prévio de limitantes para os pesos ''ótimos'', erros de aproximação e distúrbios, os quais em geral são desconhecidos, para garantir estabilidade.

Neste artigo, o algoritmo proposto em Vargas e Hemerly (2005) é modificado, objetivando minorar a deficiência mencionada, isto é, assegurar estabilidade sem precisar de nenhum conhecimento prévio de limitantes, preservando as propriedades de convergência assintótica. Além disso, objetivando simplificar ainda mais a aplicação, o algoritmo proposto foi projetado para permitir que outros aproximadores parametrizáveis linearmente (APLs) como, por exemplo, polinomiais e splines (Powell, 1981), que não precisam de pré-processamento, ao contrário das RNAs, possam também ser utilizados.

O artigo é organizado conforme a seguir: na seção 2 é apresentada a formulação do problema e a definição dos aproximadores on-line utilizados neste artigo. Na seção 3 é explicitado o modelo para identificação e equação de erro resultante. A lei de adaptação para os parâmetros do APL e análise de estabilidade são apresentados na seção 5. Na seção 6 é apresentado um exemplo de simulação para ilustrar os resultados teóricos e avaliar o desempenho do algoritmo proposto. Finalmente, na seção 6, são apresentadas as principais conclusões do trabalho.

 

2 FORMULAÇÃO DO PROBLEMA E APROXIMADORES PARAMETRIZÁVEIS LINEARMENTE

Considere a classe de sistemas não-lineares genéricos representados por

onde

x Î X é o vetor de estados de dimensão n,

u Î U é um vetor de entradas admissíveis de dimensão m,

v Î V Ì Âq é um vetor (variante no tempo) de variáveis incertas,

F : X × U × V × [0, ¥) ® Ân] é um mapeamento contínuo desconhecido.

Com a finalidade de ter o problema bem colocado, assuma que X, U, V são conjuntos compactos e F é Lipschitz localmente em função a x em X × U × V × [0, ¥), tal que (1) tem uma única solução passando por x( 0 ).

Hipótese 1: Na região X × U × V × [0, ¥)

onde

f é um mapeamento desconhecido, ||·|| é a norma Euclidiana e ho > 0 é um limitante desconhecido.

O foco deste trabalho é desenvolver um algoritmo para a identificação de (1), baseado em APLs, o qual assegure convergência assintótica para zero do erro residual do estado, inclusive na presença de erros de aproximação e distúrbios.

Convém ressaltar que a identificação de sistemas incertos baseada em APLs não é somente importante para predizer o comportamento de sistemas, mas também para providenciar uma parametrização que pode ser usada no projeto de algoritmos de controle. Isto porque a parametrização é usualmente um pré-requisito para o projeto de controladores.

Definindo o tipo de aproximadores on-line empregados neste trabalho, considere o problema clássico da teoria de aproximação (Powell, 1981): seja F um conjunto compacto de funções aproximadoras em um espaço linear normado Q definido em um domínio compacto. Então, para q Î Q, encontra-se um elemento f Î F, tal que a distância entre f e q seja minimizada. Portanto, assuma que Q é o espaço de funções contínuas definidas em um domínio compacto W Ì Ân (denotado por C[W]) e F é a classe de mapeamentos da forma

onde W Î , z Î e p : é uma função vetorial não-linear cujos argumentos poderiam ser pré-processados por uma função escalar inversível, contínua e limitada s( ·), pois este pré-processamento não afeta a capacidade para aproximar funções contínuas sobre um domínio compacto (Cotter, 1990). Uma vez que z pertence a um conjunto compacto, tem-se

onde p0 uma constante estritamente positiva.

Note, com base em (4), que F é uma classe de aproximadores parametrizáveis linearmente obtidos para diferentes valores de W e p. A classe de APLs considerados neste trabalho inclui polinomiais, splines, HONNs, RBFs networks, wavelet networks e Takagi-Sugeno fuzzy systems (Powell, 1981; Kosmatopoulos et alii, 1995; Sanner e Slotine, 1992; Zhang. e Benveniste, 1992; Wang, 1994), os quais satisfazem a propriedade de aproximação universal (Polycarpou e Ioannou, 1991; Kosmatopoulos et alii, 1995):

Propriedade 1: Para quaisquer constante e0 > 0 e função f Î C[W], existe uma matriz W* = W onde W* é uma matriz ''ótima'' e Lr é um inteiro suficientemente grande, tal que

onde |·| denota o valor absoluto se o argumento é um escalar. Se o argumento é uma função vetorial em Ân, então |·| denota qualquer norma em Ân.

 

3 MODELO PARA IDENTIFICAÇÃO E EQUAÇÃO DO ERRO DE ESTADO

Defina como sendo a melhor aproximação conhecida de f, A Î Ânxn como uma matriz de Hurwitz, B Î Ân×n, B = diag (bi), bi ¹ 0, = B- 1 g e g (x, u) = f (x, u) - (x, u) - Ax. Então, somando e subtraindo (x, u) + Ax, (1) pode ser rescrita como

Comentário 1: Note que quando não se tem nenhum conhecimento prévio sobre f, então é simplesmente assumida como sendo o vetor nulo.

Com base em (6), usando-se um APL, o mapeamento (x, u) pode ser substituído por W* p (x, u) mais um termo de erro de aproximação e (x, u). Mais exatamente, de (7) resulta

onde W* é uma matriz ''ótima'', requerida somente para propósitos analíticos, que pode ser definida como

com , onde é uma constante estritamente positiva, que depende da lei de ajuste dos parâmetros, é uma estimação de W* e e (x, u) é o erro de aproximação, reconstrução ou modelagem, correspondente a W* , que surge devido à incapacidade do APL de reproduzir exatamente (x, u). Pode ser definido como

Uma vez que X, U são conjuntos compactos e usando-se (5), na região X × U tem-se

onde e0 > 0 é um limitante desconhecido.

Comentário 2: Vale notar que W* pode não ser única. Entretanto ||e (x, u)|| é único por (9).

A estrutura (8) sugere um modelo para identificação da forma

Convém ressaltar que alguns modelos padrão que têm aparecido na literatura são similares a (12) quando = 0 e B = I (e.g. Polycarpou e Ioannou, 1991; Kosmatopoulos, Polycarpou, Christodoulou e Ioannou, 1995; Vargas, 1997; Song, 1998; Yu e Li, 2001). Entretanto, nenhum dos mesmos pode assegurar a convergência para zero do erro de estado na presença de incertezas. Na seqüência, na seção 4, será mostrado que o modelo (12), com uma lei de adaptação adequadamente escolhida para , assegura estabilidade e a convergência do erro de estado para zero na presença de erros de aproximação e distúrbios.

Comentário 3: É importante ressaltar que W* foi definido como o que minimiza a norma L¥ da subtração entre (x, u) e p (x, u). Conseqüentemente, a matriz de escalonamento B em (7) foi introduzida para manipular a grandeza de (x, u), e então de ||W*||F , uma vez que qualquer incremento de |bi| implica que o correspondente |i (x, u)| diminui e, eventualmente, devido a (9), que ||W*||F diminui também.

Comentário 4: Uma deficiência usual de modelos para identificação, baseados em RNAs, consiste em que eles não são adequados para predição, pois seus pesos não podem convergir para os ''ótimos'' (Yu et alii, 2001), e então tais modelos somente podem trabalhar on-line. O modelo para identificação proposto (12) também possui esta deficiência. Contudo, similarmente a outros modelos baseados em RNAs, é relevante para controle baseado em identificação. Alem disso, a parametrização (12) permite obter modelos de erro, que são usados depois na prova de estabilidade.

Comentário 5: Note que na formulação proposta o APL é introduzido para aproximar B- 1 [f (x, u) - (x, u) - Ax] (cuja grandeza é freqüentemente pequena), em vez da função total B- 1 [f (x, u) - Ax]. Portanto, o algoritmo proposto também pode ser usado conjuntamente com métodos de identificação padrão (que forneceram um prévio) para aprimorar o desempenho.

Definindo-se o erro de estado como : = - x, com base em (8) e (12), obtém-se

onde : = - W*.

Comentário 6: Note que quaisquer 0 > h0 , 0 > p0 e 0 > e0 também satisfazem (2), (5) e (11). Portanto, para evitar qualquer confusão, defina h0 , p0 e e0 como sendo as menores constantes tal que (2), (5) e (11) sejam satisfeitas.

 

4 LEIS DE ADAPTAÇÃO E ANÁLISE DE ESTABILIDADE

Na seção 3 foi proposto um modelo para identificação que possibilitou a obtenção da equação de erro (13). Entretanto, não foram explicitadas as leis de adaptação para os parâmetros do APL. Nesta seção, propõem-se, com base em uma analise Lyapunov-like (Ioannoue Sun, 1996), leis de adaptação para os parâmetros que assegurem estabilidade e convergência do erro de estado para zero na presença de erros de aproximação e distúrbios.

Na seqüência é estabelecido e provado o principal resultado do artigo.

Teorema 1:

Considere a classe de sistemas não-lineares genéricos descritos por (1), satisfazendo a Hipótese 1, o modelo para identificação (12), e as leis adaptativas,

se

então , , são uniformemente limitados.

Se, adicionalmente,

onde

gW, gy, a2 > 0, C Î Ân×n, C = diag(ci), ci > 0, ci max = max (ci), ci min = min (ci), W0 Î Ân×L, K = P + PT, P > 0, ||·||F denota a norma de Frobenius,

então, (t) = 0.

Comentário 7: A lei de adaptação proposta, vide (14), utiliza uma modificação robusta (leakage modification) (Ioannoue Sun, 1996) do usualmente empregado algoritmo do gradiente. Esta modificação proposta incorpora uma e1 -modification com um ''leakage gain'' dinâmico, primeiro termo dentro do colchete em (14), definido adequadamente para melhoria de desempenho. Também emprega um termo forçante, último termo dentro do colchete em (14), para dominar termos positivos na análise de um limitante superior para , a derivada de uma candidata a função de Lyapunov V, para assegurar convergência assintótica. Vale mencionar que leakage gains dinâmicos têm sido usados previamente em Chai e Tao (1994) e Vargas (1997) onde controle adaptativo robusto de sistemas lineares e identificação neural de sistemas incertos, respectivamente, foram considerados.

Prova:

Considere a seguinte candidata a função de Lyapunov

onde = - y* e tr(·) é o operador traço.

Derivando-se (20) em relação ao tempo, obtém-se

Substituindo-se (13), (14) e (15) em (21), advém

onde Q > 0 é a única solução da equação de Lyapunov PA + AT P = - Q, e tr(T BKpT) = T KBp, que foi obtido empregando-se uma propriedade simples do traço.

Por outro lado, note que = então usando-se a definição de norma de Frobenius (Gee et alii, 2002), decorre

onde T = C. Portanto, escolhendo-se como uma matriz diagonal, (23) implica

Também, usando-se ( - )2 = 2 - 2 + 2, advém

Note que ( t ) > 0 para todo t > 0, devido a (15) e (16). Portanto, usando-se (24) e (25), (22) implica

onde a3 = lmin (Q) é o mínimo autovalor de Q.

Usando-se (17) em (26), e uma vez que - = - y* e = - W* , resulta

onde foi adicionado e subtraído a1 ||||.

Portanto, definindo-se

segue que y* > 1. Logo, uma vez que y* + = , (23) implica

onde a5 = a1 + ci max .

Note também que

Então, usando-se (30) em (29), e completando-se o quadrado, advém

que implica

onde V0 = (4a1) - a1 - a2 + a1 .

Conseqüentemente, < 0 sempre que

ou

ou

Portanto, uma vez que são constantes, conclui-se que , e são uniformemente limitadas.

Objetivando provar que o erro de estado converge para zero, observe, com base em (18) e (19), que

Então, usando-se (36) e (37) em (32), decorre

Uma vez que V é limitada inferiormente e não crescente com o tempo, (38) implica

onde V(t) = V¥ < ¥. Note ainda que ||||2 é uniformemente contínua, uma vez que , , e e h são limitadas e, com base em (13) segue que é também limitada. Portanto, aplicando o lema de Barbalat (Ioannoue Sun, 1996), conclui-se que (t) = 0.

Comentário 8: Convém ressaltar que o algoritmo proposto não requer o conhecimento prévio de limitantes para os parâmetros ótimos, erros de aproximação e distúrbios para assegurar estabilidade. Neste sentido, apresenta propriedades de estabilidade similares àqueles em Polycarpou e Ioannou (1991), Kosmatopoulos et alii (1995), Vargas (1997), Song (1998), Yu et alii (2001), Yu e Li (2001), Yu (2003) e Yu (2004). Contudo, ao contrário destes trabalhos o algoritmo proposto também garante a convergência assintótica do erro de estado para zero na presença de erros de aproximação e distúrbios, sempre que (18) e (19) sejam satisfeitas.

Comentário 9: Note que as condições (18) e (19) não podem ser verificadas a priori, uma vez que em (18) e (19) são desconhecidos os parâmetros ''ótimos'' e limitantes para os erros de aproximação e distúrbios. Contudo, esta deficiência não é peculiar unicamente ao esquema proposto, senão à maioria de modificações robustas. Por exemplo, os trabalhos em Polycarpou e Ioannou (1991), Kosmatopoulos et alii (1995), Song (1998) utilizam a projeção de parâmetros, switching-s e zona-morta, que requerem informação prévia sobre o sistema e erro de modelagem.

Comentário 10: É importante ressaltar que a seleção dos parâmetros de projeto, para satisfazer (19), pode ser feita facilmente notando que o segundo e terceiro termos no lado direito de (19) podem ser diminuídos, arbitrariamente, aumentando a1, a2 (com igual taxa) e ||B||F, e reduzindo ||KB||F, pois neste caso, mais cedo o mais tarde, b e ||W*||F diminuem. Convém ressaltar que o incremento de a1 e a2 não ocasiona que tr(W *T W0) cresça, via W0 , mais rápido que b- 1, pois o primeiro termo no lado direito de (19) permanece inalterado. Conseqüentemente, usando-se (18), a condição (19) implica ||W0||F > ||W* - W0||F , o que pode ser satisfeito pela seleção adequada de W0 ou B. Esta condição necessária é mostrada na figura 1.

 

 

Comentário 11: Os resultados apresentados nesta seção, baseados em APLs, podem ser modificados para usar aproximadores parametrizáveis não-linearmente, como por exemplo, RNAs com uma camada escondida (SLHNNs) (Ge et alii, 2002): usando-se a expansão de Taylor com respeito aos pesos, para representar os componentes de alta ordem da SLHNN, e empregando a metodologia desenvolvida.

 

5 SIMULAÇÕES

Nesta seção são apresentadas simulações com a finalidade de corroborar os resultados teóricos e ressaltar a aplicabilidade simples do algoritmo proposto.

Exemplo 1: considere o modelo de um motor de combustão operando sem carga de 1,6 litro e 4 cilindros descrito por (Puskorius e Feldcamp, 1994)

onde

P é a pressão de manifold (kPa),

N é a velocidade angular do eixo virabrequim do motor à combustão (rpm),

d é o avanço de faísca (graus),

q é o ângulo regulador de pressão (graus),

ai é a taxa de fluxo de massa de ar no manifold,

ao é a taxa de fluxo de massa de ar no cilindro,

Ti (N.m) é o torque desenvolvido internamente,

Td (N.m) são distúrbios que atuam sobre o motor na forma de torques adicionais não mensuráveis,

Tl (N.m) é o torque de carga (composto pelo torque Td e torque de haste),

g (P) é uma função de influência sobre a pressão de manifold,

mao é a massa do ar no cilindro, e

t é um atraso de transporte dinâmico.

Convém ressaltar que a dinâmica do motor é não-linear e variante no tempo, pois apresenta atrasos de transporte que variam inversamente com a velocidade, alterações na dinâmica por envelhecimento dos componentes e variações ambientais, como por exemplo aquecimento depois de uma partida a frio. Para uma discussão mais detalhada sobre a dinâmica de motor vide Puskorius e Feldcamp (1994). O significado das principais variáveis do modelo (40)-(41) é apresentado na figura 2 (Vachtsevanos et alli., 1993).

 

 

Defina x = [P N]T, u = [q d]T e selecione, similarmente a Yu e Li (2001), q como sendo um sinal quadrado com amplitude 20º e freqüência 0,25 rad/s, d como um sinal senoidal de amplitude 30º e freqüência 0,5 rad/s, Td como um sinal dente de serra de amplitude 10 N.m e freqüência 0.5 rad/s, t = 0 e x(0) = [10 500]T.

Uma vez que kp e kn em (40)-(41) são determinados para um determinado ponto de operação do motor com base em mapeamentos estáticos e outras informações empíricas (Puskorius e Feldcamp 1994, Vachtsevanos et alli. 1993), o modelo (40)-(41) apresenta um grau considerável de incerteza. Portanto a parametrização neural empregada neste caso é relevante, pois permite uma modelagem adaptativa que é valida para quaisquer pontos de operação e perturbações (internas e externas, dentro da classe considerada, que eventualmente poderiam ocorrer, por exemplo, por falhas, alterações ambientais ou envelhecimento dos componentes).

O modelo para identificação proposto (12) e as leis de adaptação (14) e (15) foram implementadas com

Diversas simulações foram efetuadas com a finalidade de assegurar um desempenho satisfatório. Entretanto, esses resultados serão omitidos, uma vez que corroboram os resultados a seguir, os quais podem ser considerados como uma realização típica. Para fins de comparação, foram também incluídos os resultados apresentados em Yu e Li (2001). As figuras 3 e 4 confirmam os resultados teóricos e mostram que o algoritmo proposto apresenta um desempenho melhor que Yu e Li (2001), quando considerado o erro residual de estimação do estado.

 

 

 

 

É importante ressaltar que na seleção dos parâmetros de projeto em (42) não é necessário, ao contrário de Yu e Li (2001), ganhos elevados para assegurar um erro residual de estado arbitrariamente pequeno, o que pode ser concluído de (42).

Exemplo 2: considere o modelo de um processo descrito por

onde x = [x1 x2]T e u é um sinal quadrado de amplitude 1 e freqüência 0,25 rad/s.

Vale notar que o processo (43) é interessante para simulação já que apresenta parâmetros variantes no tempo e perturbações externas.

Para a modelagem de (43) foi empregado um modelo neural da forma (12), (14) e (15), com parâmetros de projeto selecionados via um procedimento de tentativa e erro, objetivando-se obter um erro residual de estado assintoticamente nulo. Mais precisamente, os parâmetros escolhidos foram

É importante ressaltar que foi empregada uma estrutura neural simples, vide p em (44), para avaliar o desempenho do algoritmo proposto na presença de erros severos de aproximação. Os resultados das simulações são apresentados nas figuras 5 e 6. Como esperado, vide (44) e figuras 5 e 6, não são necessários ganhos elevados para se garantir um erro residual de estado arbitrariamente pequeno.

 

 

 

 

6 CONCLUSÕES

Neste artigo é proposto um algoritmo estável para identificação de sistemas incertos sem impor nenhum conhecimento prévio de limitantes para os erros de aproximação, parâmetros ''ótimos'' e distúrbios. O algoritmo possibilita que outros aproximadores parametrizáveis linearmente (APLs) como, por exemplo, polinomiais e splines, que não precisam de pré-processamento, ao contrário das RNAs, possam também ser utilizados. A lei da adaptação proposta utiliza a e1 -modification, porém com um ''leakage gain'' dinâmico para melhoria do desempenho. O algoritmo proposto garante a convergência assintótica do erro de estado para zero, inclusive na presença de erros de aproximação e distúrbios, sempre que algumas condições sobre os parâmetros de projeto sejam satisfeitas. Resultados adicionais sobre a utilização da metodologia proposta em controle com realimentação da saída estão sendo desenvolvidos e serão reportados oportunamente.

 

7 AGRADECIMENTOS

Os primeiro autor agradece à FAPESP, processos 02/13829-9 e 03/11199-0, e o segundo autor agradece ao CNPq/Pronex, processo 662015/1998-3, pelo suporte financeiro.

 

REFERÊNCIAS

Chai, T.Y., & Tao, Z. (1994).A new model reference robust adaptive controller in the presence of unmodeled dynamics and bounded disturbances, Automatica, 30(5), 865-869.         [ Links ]

Cotter, N. E. (1990). The Stone-Weierstrass theorem and its applications to neural networks, IEEE Transactions on Neural Networks, vol. 1, no. 4, pp. 290-295 .         [ Links ]

Ge, S. S., Hang, C. C., Lee, T. H. & Zhang, T. (2002). Stable adaptive neural network control, Kluwer academic publishers, USA.         [ Links ]

Ioannou, P.A. & Sun,J. (1996). Robust Adaptive Control, Prentice-Hall, Inc., Englewood Cliffs, New Jersey, USA.         [ Links ]

Kosmatopoulos, E. B., Polycarpou, M. M., Christodoulou, M. A. & Ioannou, P. A. (1995). High-order neural network structures for identification of dynamical systems, IEEE Trans. Neural Networks, 6(2), pp. 442-431.         [ Links ]

Narendra, K. S. & Parthasarathy,K. (1990).Identification and control of dynamical systems using neural networks, IEEE Trans. Neural Networks, 1(1), pp. 4-27.         [ Links ]

Polycarpou, M. M. & Ioannou, P. A. (1991). Identification and control of nonlinear systems using neural network models: design and stability analysis, Tech. Rep. 91-09-01, Dept. Elect. Eng. Syst., Univ. Southern Calif., Los Angeles.         [ Links ]

Powell, M. J. D. (1981). Approximation theory and methods, Cambridge University Press.         [ Links ]

Puskorius, G. V., & Feldcamp, L. A. (1994). Neurocontrol of dynamical systems with Kalman filter trained recurrent networks,'' IEEE Trans. Neural Networks, 5(2), 279-297.         [ Links ]

Sanner, R. M. & Slotine, J. J. (1992). Stable recursive identification using radial basis function networks, Proc. 1992 ACC, Chicago, IL, pp. 1829-1833.         [ Links ]

Song, Q. (1998). Robust training algorithms of multilayered neural networks for identification of nonlinear dynamical systems, IEE Proc.- Control Theory Appl., 145(1), pp. 41-46.         [ Links ]

Vachtsevanos, G., Farinwata, S. S. & Pirovolou, D. K. (1993). Fuzzy Logic control of na automotive engine, IEEE Control Systems Magazine, 13(3), pp. 62-68.         [ Links ]

Vargas, J. A. R. (1997). Identificação de sistemas dinâmicos via redes neurais artificiais, dissertação de mestrado, Instituto Tecnológico de Aeronáutica, São José dos Campos, SP, Brasil.         [ Links ]

Vargas, J. A. R. & Hemerly, E. M. (2005). Modificação robusta que assegura convergência assintótica em problemas de identificação neural, Anais do VII congresso brasileiro de redes neurais, Natal, Brasil.         [ Links ]

Wang, L. X. (1994). Adaptive Fuzzy System and Control: Design and Stability Analysis, Prentice-Hall, Inc., Englewood Cliffs, New Jersey, USA.         [ Links ]

Yu, W. (2003). Passivity analysis for dynamic multilayer neuro identifier, IEEE Trans. Circuits and Systems I: Fundamental Theory and Applications, 50(1), pp. 173-178.         [ Links ]

Yu, W. (2004). Nonlinear system identification using discrete-time recurrent neural networks with stable learning algorithm, Information sciences, vol. 158, pp. 131-137.         [ Links ]

Yu, W. & Li, X. (2001). Some new results on system identification with dynamic neural networks, IEEE Trans. Neural Networks, 12(2), pp. 412-417.         [ Links ]

Yu, W., Poznyak, A. S., & Li X. (2001). Multilayer dynamical neural networks for non-linear system on-line identification, International Journal of Control, 74(17), pp. 1858-1864.         [ Links ]

Zhang, Q. & Benveniste, A. (1992). Wavelet networks, IEEE Trans. Neural Networks, 3(6), pp. 889-898.        [ Links ]

 

 

Artigo submetido em 21/05/2006
1a. Revisão em 11/04/2006
2a. Revisão em 06/11/2006
Aceito sob recomendação do Editor Convidado
Prof. Osvaldo Ronald Saavedra Mendez

 

 

ARTIGO CONVIDADO: Versão completa e revisada de artigo apresentado no SBAI-2005