Acessibilidade / Reportar erro

Métodos iterativos lineares projetados através da teoria de controle e suas aplicações

Resumos

É mostrado como projetar uma familia de novos métodos iterativos lineares através de uma abordagem pela teoria de controle. Escolhas apropriadas de funções de Liapunov resultam em controladores da familia PI/PD com ganhos variantes no tempo. Os novos métodos iterativos são aplicados à determinação dos pesos ótimos de filtros adaptativos. Simulações são feitas para mostrar que o desempenho dos novos algoritmos para filtros adaptativos é comparável ao método RLS.

Função de Liapunov; método iterativo; estabilidade; controlador PI/PD; gradiente conjugado; convergência; filtros adaptativos


It is shown how to built a family of new iterative methods using a feedback control viewpoint together with appropriate choices of control Liapunov function, leading to a family of time varying PI/PD controllers. The new iterative methods are used to determine the optimal coefficients of adaptive filters. Simulations are performed in order to show that the new methods have the same performance as the RLS algorithm.

Control Liapunov function; iterative methods; stability; PI/PD controller; conjugate gradient algorithm; convergence; adaptive filters


IDENTIFICAÇÃO, CONTROLE E FILTRAGEM

Métodos iterativos lineares projetados através da teoria de controle e suas aplicações

Oumar Diene; Amit Bhaya

Programa de Engenharia Elétrica, COPPE, Núcleo de Atendimento em Computação de Alto Desempenho, NACAD, Universidade Federal do Rio de Janeiro, C.P. 68504, RJ 21945-970, Brasil; oumar@ufrj.br, amit@nacad.ufrj.br

RESUMO

É mostrado como projetar uma familia de novos métodos iterativos lineares através de uma abordagem pela teoria de controle. Escolhas apropriadas de funções de Liapunov resultam em controladores da familia PI/PD com ganhos variantes no tempo. Os novos métodos iterativos são aplicados à determinação dos pesos ótimos de filtros adaptativos. Simulações são feitas para mostrar que o desempenho dos novos algoritmos para filtros adaptativos é comparável ao método RLS.

Palavras-chave: Função de Liapunov, método iterativo, estabilidade, controlador PI/PD, gradiente conjugado, convergência, filtros adaptativos.

ABSTRACT

It is shown how to built a family of new iterative methods using a feedback control viewpoint together with appropriate choices of control Liapunov function, leading to a family of time varying PI/PD controllers. The new iterative methods are used to determine the optimal coefficients of adaptive filters. Simulations are performed in order to show that the new methods have the same performance as the RLS algorithm.

Keywords: Control Liapunov function, iterative methods, stability, PI/PD controller, conjugate gradient algorithm, convergence, adaptive filters.

1 INTRODUÇÃO

O método do Gradiente Conjugado (CG) é considerado um dos melhores métodos iterativos para a classe de matrizes simétricas e definidas positivas (spd) (Saad e Van-DerVorst (2000), VanDerVorst (2000), Saad (1996)). O método CG clássico é um método de direções conjugadas (Hestenes, 1980) que utiliza a ortogonalidade dos resíduos gerados pelo algoritmo para determinar os parâmetros necessários para a convergência. Em aplicações tais como filtragem adaptativa, a atualização das matrizes de correlação e de correlação cruzada a cada amostra acarreta a perda da ortogonalidade dos resíduos do algoritmo de atualização dos pesos do filtro. Esta perda de ortogonalidade resulta em uma perda de convergência do algoritmo e em um aumento do erro médio quadrático da saída do filtro. Neste trabalho o método CG é apresentado e analisado como um sistema dinâmico do tipo planta + controlador em realimentação unitária. Esta abordagem permite determinar os parâmetros do método, independentemente da ortogonalidade do resíduo, através de uma control Liapunov function (CLF), bem como projetar novos algoritmos. Esta técnica já foi utilizada em para a análise/projeto dos métodos tipo Krylov, e consiste em uma escolha adequada de uma Control Liapunov Function (CLF). Estes autores mostraram, através de uma CLF, que o algoritmo do gradiente conjugado (CG) pode ser interpretado como um sistema linear dinâmico sujeito a um tipo de controle proporcional e derivativo. Esta função permite determinar os valores ótimos dos parâmetros que tornam o processo assintoticamente estável. Mostra-se através de várias simulações que os métodos determinados desta forma apresentam um desempenho comparável ao do método RLS com um custo e complexidade computacional menor.

2 FORMULAÇÃO DO PROBLEMA

Considere o sistema linear

Os métodos iterativos de resolução do sistema (1) podem ser descritos pela seguinte equação

onde wk é uma aproximação da solução de (1) e uk é uma correção calculado conforme o algoritmo utilizado, para gerar a cada instante uma aproximação mais precisa wk+1 da solução de (1) (Saad, 1996), e levar o resíduo, definido como gk = b- Rwk, a zero em um número finito de passos. O problema da resolução do sistema (1) por métodos iterativos pode ser representado por um problema de regulação de sinal, conforme mostra a figura 1. O problema da resolução de (1) por métodos iterativos consiste em projetar um controle uk para que o erro de regime seja nulo. Isto é gk = 0 Û Rwk = b. O sistema discreto (3) representa a dinâmica deste problema de regulação:


onde f(.) representa o controle adotado.

3 PROJETO DE CONTROLADORES

Na teoria de controle, tanto clássica como moderna, existem várias técnicas de resolução do problema de regulação de sinal (3) equivalente ao problema de resolução do sistema (1) que, na realidade, corespondem a maneiras diferentes de escolher o controlador f(·) em (3). Porém, conforme mostrado em Diene (2004), a maioria das técnicas consagradas na literatura (alocação de pólos, realimentação de estados) resulta em um controlador que usa explicitamente a inversa R-1 da matriz do sistema. Neste trabalho o problema de regulação de sinal é resolvido por controladores do tipo proporcional derivativo e/ou proporcional integral que não utilizam a inversa de R explicitamente. Para determinar os parâmetros necessários para estabilidade do sistema (equivalente a convergência do algoritmo de resolução de (1)), é usada a mesma técnica aplicada em Bhaya e Kaszkurewicz (2004) para analisar os métodos iterativos do tipo Krylov.

1 Controlador proporcional e derivativo (PD)

O sistema (3), representado na forma de diagrama de blocos na figura 1, leva a interpretação de um método iterativo como um sistema de controle realimentado (planta {I, I, R,0} com controlador em configuração de realimentação unitária). O controlador proporcional e derivativo (derivada do estado) é tal que uk = akgk + bkDwk, sendo que Dwk = wk - wk-1. Portanto, definindo

o sistema (3) resulta em

onde ak é o ganho proporcional e bk o ganho derivativo. A figura 2 mostra o diagrama de blocos da planta linear com o controlador discreto proporcional e derivativo em malha fechada.


Note que, considerando os parâmetros ak e bk como variáveis de controle e tomando gk e pk como as variáveis de estado, o sistema a ser controlado é do tipo bilinear. Isto é, o sistema é linear no controle se o estado é mantido constante, e linear no estado se o controle é mantido constante.

O objetivo de controle é escolher os escalares ak e bk para levar os vetores de estado gk e pk a zero. Uma vez que o parâmetro ak não é identicamente nulo, pode-se ver facilmente que o equilíbrio do sistema bilinear (6) se localiza na origem gk = pk = 0 para todo k. A escolha dos parâmetros ak e bk é feita em duas etapas. Na primeira, a partir de uma CLF, determina-se o valor de ak que leva ao decrescimento de alguma norma de gk. Na segunda, uma outra função de Liapunov orienta a determinação de bk que resulta no decrescimento de alguma norma de pk. A conclusão é que ambos os vetores gk e pk convergem para zero, como desejado.

Supondo que a matriz R é simétrica positiva definida, a CLF escolhida para a determinação de ak é dada pela equação (7). Note que a escolha da CLF é arbitrária e que cada escolha diferente de CLF resulta em um algoritmo diferente.

Pela teoria de Liapunov (Slotine e Li (1991) e Khalil (2002)) o equilíbrio de (6) será assintoticamente estável se

Substituindo o resíduo de (6) em (8) e simplificando resulta:

O valor de ak que minimiza DVg é determinado através de sua derivada fazendo:

Portanto,

Substituindo (11) em (9) resulta:

Prosseguindo na determinação dos parâmetros estabilizantes do sistema (6), escolha-se a CLF

para orientar o cálculo de bk. Portanto tem-se

o que implica que:

Seguindo o mesmo raciocínio de função ótima de Liapunov, calcula-se

assim,

é uma escolha ótima (torna ¶DVp/¶bk o mais negativo possível) que resulta em

De (12) e pela equivalência de normas, pode-se concluir que gk decresce em qualquer norma induzida. Portanto, (17) implica que pk+1 decresce na norma induzida pela matriz R.

Note que o pseudocódigo do método iterativo decorrente do controlador PD, mostrado no algoritmo 1, corresponde ao método do gradiente conjugado (CG). Vale ressaltar que o método utilizado para a derivação dos parâmetros ak e bk do método CG, apresentada neste trabalho, permite ter uma noção da robustez do método CG. A análise por uma CLF, ao contrário da analise padrão (por exemplo Saad (1996)), não utiliza nenhuma informação sobre as propriedades do resíduo gk ou do vetor pk (como a ortogonalidade do resíduo gk, isto é +1gk = 0). Isto indica que, em uma implementação de precisão finita, mesmo que as propriedades como a ortogonalidade sejam perdidas, a escolha dos parâmetros ak e bk conforme as equações (11) e (16) garante o decrescimento das normas de gk e de pk ponderadas respectivamente pelas matrizes R-1 e R. Na presença de ortogonalidade, pode-se mostrar que os parâmetros ak e bk dadas pelas equações (11) e (16) são iguais aos parâmetros comumente encontrados na literatura (Hestenes e Stiefel, 1952).

Algoritmo 1

Para garantir a ortogonalidade dos resíduos do método CG padrão, é necessário inicializar os vetores tais que p0 = g0 (Hestenes e Stiefel, 1952). Para ilustrar o problema gerado pela perda de ortogonalidade dos resíduos do método CG padrão, implementa-se o algoritmo 1 e o método CG padrão (veja, por exemplo, Saad (1996)) e compara-se o desempenho dos algoritmos quando p0 = cg0, c uma constante real. Neste exemplo, as matrizes são escolhidas tais que:

Neste caso, note que g0 = b, a tabela 1 apresenta o desempenho dos métodos. O critério de parada é dado pela condição ||gk||< 10-3, e o número máximo de iterações é igual a 50. Note que em todos os casos da tabela 1 ocorre uma perda de ortogonalidade dos resíduos dos algoritmos, exceto quando p0 = g0. Portanto, para a implementação padrão do CG, pode-se ver que, na ausência de ortogonalidade, quanto maior a razão ||p0||/||g0|| menor será a taxa de convergência, e quando ||p0|| ® 0, o algoritmo perde a convergência. Em outras palavras, na ausência de ortogonalidade dos resíduos do método CG padrão, a escolha de uma passo inicial a0 resulta em uma convergência lenta do algoritmo enquanto a escolha de a0 grande provoca a divergência do método. Por outro lado, o algoritmo com parâmetros determinados via CLF apresenta uma robustez no sentido da estabilidade de Liapunov.

2 Controlador proporcional e integral (PI)

A forma geral do controlador discreto proporcional e integral é uk = akgk + bk

gi, onde o primeiro termo é denominado termo proporcional e o segundo, termo integral. Isto pode ser reescrito na forma da seguinte equação de estados

Introduzindo este novo estado 'integrador' em (3), o sistema resulta em

onde ak é o ganho proporcional, qk representa o estado do integrador, bk é um ganho introduzido para que o estado do integrador seja nulo em regime permanente, pk é um estado auxiliar e gk multiplicado por ak representa o ganho integral, conforme mostra a figura 3.


A análise do sistema com controlador PI é semelhante à do sistema com controlador PD. O sistema bilinear considerado neste caso é dado por:

Utilizando a mesma CLF, Vg(k) dada pela equação (7), pode-se mostrar facilmente que as escolhas

resultam em

respectivamente.

O método de projeto de controlador Proporcional Integral (PI) proposto resulta no algoritmo 2, apresentado na forma de pseudocódigo. Note que os parâmetros ak, bk e gk do método são também determinados através de CLF's sem utilizar nenhuma propriedade dos vetores gk, pk e qk. Isto sugere que, em aplicações nas quais não se pode garantir a propriedade básica p0 = g0 (que, por sua vez garante a ortogonalidade dos resíduos), seria vantajoso utilizar os métodos variantes CG-CLF e PI-CLF, ao invés de utilizar o CG padrão, que poderia divergir.

Algoritmo 2

O algoritmo 2 apresenta um produto matriz/vetor a mais que o algoritmo 1. Porém, o pseudocódigo pode ser reorganizado notando que bk = gk-1, portanto qk+1 = gk + gk-1qk = pk. Isto implica que pk+1 = gk+1 + gkpk e gk = . Neste caso, o algoritmo 2 corresponde ao método do gradiente conjugado (algoritmo 1), a menos da inicialização. Em geral, os algoritmos 2 e 1 apresentam o mesmo desempenho porém, podem existir casos em que essa diferença na inicialização resulte em uma diferença no desempenho dos dois algoritmos. Vale ressaltar que o método CG pode então ser interpretado como um sistema dinâmico constituído pela planta linear {I, I, R,0} com um controlador proporcional e integral variante no tempo em realimentação unitária.

4 APLICAÇÃO EM FILTRAGEM ADAPTATIVA

O problema de filtragem adaptativa consiste basicamente em determinar o valor atual de um sinal variante no tempo, a partir de valores passados deste mesmo, corrompidos por um ruído (também variante no tempo). A realização mais básica de um filtro adaptativo é obtido através da forma direta de filtro digital de resposta finita ao impulso (FIR), como ilustrado na figura 4, cuja saída é dada por


onde x(k) = [x(k) x(k-1) ... x(k-M)]T e w(k) = [w0(k) w1(k) ... wM(k)]T são os vetores de entrada e de pesos respectivamente, e M é a dimensão do tap do filtro (número de atrasadores). Uma das funções objetivo mais utilizadas para ajustar os pesos de um filtro adaptativo é o erro médio quadrático definido como

onde e(k) = d(k) - y(k), y(k) é a saída do filtro adaptativo e d(k) é o sinal desejado (Haykin, 1991). Neste caso, a função objetivo pode ser reescrita como

Portanto, para um filtro com coeficientes fixos, a função do erro médio quadrático é dada por

onde b = E[d(k)x(k)] é o vetor de correlação cruzada entre a resposta desejada e o sinal de entrada, e R = E[x(k)xT(k)] é a matriz de autocorrelação do sinal de entrada. Como a função objetivo x é uma função quadrática do vetor de pesos w, o problema de minimizar x é equivalente ao problema de achar w tal que

Pela equação (31) e notando que = R > 0, pode-se dizer que o vetor w* tal que Rw* = b é o argumento que minimiza a função objetivo x. Em outras palavras, w* é solução de

Para resolver o problema da equação (32), métodos iterativos tais como o método CG podem ser utilizados, como mostrado em Boray e Srinath (1992) e Chang e Willson (2000). Em Boray e Srinath (1992) as matrizes R e b são estimadas utilizando uma janela deslizante de dados. Neste caso o gradiente da função objetivo é estimado por uma média de nw valores passados conforme a seguinte equação

Note que para cada amostra k serão necessários min(M,nw) iterações para a convergência do algoritmo CG. Portanto, a escolha de nw, a janela sobre qual a média do gradiente da função custo é avaliada, tem um impacto direto sobre a convergência dos pesos do filtro. Desta forma, um aumento na dimensão do tap e/ou dos dados de entrada causa diretamente um aumento no custo computacional do método, podendo ultrapassar o custo computacional da inversão da matriz R. No trabalho de Chang e Willson (2000), uma modificação é feita utilizando uma janela de dados exponencialmente decrescente. Esta modificação permite realizar apenas uma iteração a cada amostragem, porém para manter a convergência é necessário a introdução de um fator h, determinado experimentalmente, no cálculo do parâmetro ak, e do método Polak-Ribiere para o cálculo do parâmetro bk. Neste trabalho mostra-se através de simulações que, utilizando os métodos desenvolvidos por CLF's, não é necessário a introdução de nenhum fator empírico e/ou de nenhum outro método não linear para garantir a convergência dos métodos em ambientes variantes no tempo.

Utilizando a janela de dados exponencialmente decrescente, proposta por Chang eWillson (2000), as funções de autocorrelação e de correlação cruzada são dadas por

onde lf é o fator de esquecimento. Para um processamento amostra por amostra, pode-se achar uma formula recursiva do vetor de resíduo utilizando as equações (2), (34) e (35):

Introduzindo as equações (34), (35) e (36) nos algoritmos 1 e 2, obtêm-se as versões para filtragem adaptativa dos algoritmos CG e PI, apresentadas nos algoritmos 3 e 4.

Algoritmo 3 Método CG-CLF para filtros adaptativos

Algoritmo 4 Método PI para filtros adaptativos

Note que o algoritmo 3 não introduz nenhum custo computacional adicional em relação ao algoritmo de Chang e Willson (2000) enquanto o algoritmo 4 envolve a computação adicional de um produto matriz/vetor.

5 SIMULAÇÕES

Várias simulações são feitas utilizando as três configurações básicas (Sayed, 2003) e (Haykin, 1991): Equalização, Identificação de sistema e Predição linear. Note que, em todos os casos simulados neste artigo, a diferença entre as variações do método CG (algoritmos 1 e 2) não resulta em uma diferença significativa no desempenho dos algoritmos 3 e 4. Portanto, apenas o desempenho do algoritmo 3 será apresentado.

5.1 Equalizador adaptativo

A figura 5 mostra o diagrama de blocos do equalizador adaptativo transversal utilizado para equalizar a distorção introduzida por um canal de banda limitada. O exemplo é tirado de Haykin (1991). A entrada do sistema é uma seqüência aleatória {a(k)} com valores ±1, portanto de média nula. A seqüência é distorcida por um canal de resposta em freqüência dada por


onde W controla a amplitude da distorção no canal. Um aumento em W causa um aumento da distorção do canal e resulta no aumento do espalhamento r dos autovalores da matriz de autocorrelação R das entradas do equalizador. O canal é corrompido por um vetor de ruido branco aditivo de média nula e variança s2. O equalizador é composto por 11 taps. Como a resposta ao impulso do canal é simétrica em relação a k = 2, os pesos dos taps do equalizador são simétricos em relação ao sexto tap. Desta forma, a entrada {a(k)} do canal é atrasada por 7 amostras para gerar a resposta desejada do equalizador. A experiência é feita com dois valores de W, 2.9 e 3.5, que resultam em espalhamentos r de R iguais a 6.07 e 46.821 respectivamente. Nas figuras 6, 7, 8, e 9 mostra-se as curvas de aprendizado, gráfico do erro instantâneo quadrático e2(k) = (dk - yk)2 (onde dk é o sinal desejado e yk é a saída do equalizador) em função da iteração k, dos equalizadores dos algoritmos 3, Polak-Ribiere (Chang e Willson, 2000), CG padrão (Boray e Srinath, 1992) e RLS (Haykin, 1991) respectivamente. Os parâmetros escolhidos neste exemplo são tais que lf = h = 0.99 e s2 = 0.001 e o ensemble é constituído por 200 amostras independentes. A tabela 2 apresenta os valores de regime para quais converge o erro médio quadrático dos equalizadores em função de W após aproximadamente 40 iterações. Nota-se que os dois métodos propostos neste trabalho apresentam um desempenho comparável ao método de Chang e Willson (2000) e ao método RLS. No caso do método CG padrão, como é realizado apenas uma iteração para cada par (Rk,bk), seria necessário fazer pk = gk em cada iteração (isto corresponde a reiniciar o método CG tal que p0 = g0 a cada iteração k) para garantir a ortogonalidade dos resíduos gerados. Portanto, notando que pk = gk + bk-1pk-1, pode-se dizer que ocorre uma perda de ortogonalidade dos resíduos ( + gk¹ 0) do método CG padrão (Hestenes e Stiefel, 1952) utilizado em Boray e Srinath (1992), causando um desempenho pior do método.




A partir desta constatação, propõe-se uma outra modificação do método CG no algoritmo 5. A modificação consiste em substituir o ultimo passo do método CG por pk+1 = gk+1, isto equivale a substituir no algoritmo todo o vetor pk por gk. Vale ressaltar que esta nova modificação do método CG resulta no método Steepest Descent (SD). A figura 10 e a tabela 2 apresentam respectivamente a curva de aprendizagem e os valores de regime do método SD. Pode-se notar que o SD-CLF e os outros métodos convergem para o mesmo valor de erro médio quadrático em regime, porém a taxa de convergência do método SD-CLF é menor e é inversamente proporcional ao espalhamento r dos autovalores da matriz de autocorrelação (quanto maior r, menor será a taxa de convergência). Vale ressaltar que, mesmo que tenha uma taxa de convergência menor que o método RLS em um ambiente variante no tempo, o método SD-CLF pode ser utilizado em casos onde o método LMS (que possui uma taxa de convergência comparável, mas com erro médio quadrático de regime maior e custo computacional maior) é aplicável.

Algoritmo 5 Método SD para filtros adaptativos


Também note que o algoritmo 5 tem menos passos e um custo computacional menor que os algoritmos de Chang e Willson (2000), Boray e Srinath (1992), e RLS.

5.2 Identificação de Sistema

Na configuração de identificação de sistema considera-se que a planta desconhecida é um filtro de resposta ao impulso finita (FIR) de ordem 20 e o sinal de entrada é um ruído branco Gaussiano de variança s2 = 1. A figura 11 mostra o diagrama de blocos da configuração de identificação de sistema. As figuras 12, 13, 14, 15, e 16 mostram as curvas de aprendizado dos filtros adaptativos utilizando respectivamente os métodos dos algoritmos 3, 5, Polak-Ribiere (Chang e Willson, 2000), CG padrão (Boray e Srinath, 1992), e RLS (Haykin, 1991) na configuração de identificação de sistema. Neste caso o ensemble é constituído por 100 amostras independentes. A tabela 3 apresenta os valores apresenta os valores de regime para quais converge o erro médio quadrático dos filtros adaptativos após aproximadamente 40 iterações. Como no caso do equalizador adaptativo, nota-se que os métodos propostos neste trabalho e o método Polak-Ribiere de Chang e Willson (2000) apresentam um desempenho comparável ao método RLS. Por outro lado a perda de convergência do método CG padrão de Boray e Srinath (1992), devido à perda de ortogonalidade dos resíduos, é mais acentuada na configuração de identificação de sistema.






5.3 Predição Linear

A terceira configuração de filtro adaptativo simulada neste trabalho é o cenário de predição linear. A figura 17 mostra a configuração do filtro adaptativo de 2 taps no scenario de predição linear. As entradas dos taps u(k-1) e u(k-2) são extraídas do processo autoregressivo (AR) de valores reais dada pela seguinte equação


onde v(k) é um ruído branco de média nula e variança . Os valores de a1 e a2 são determinados pelo espalhamento dos autovalores da matriz de autocorrelação dos dados de entrada. Para uma tentativa do experimento, são obtidas 500 amostras do ruído branco {v(i)} a partir de um gerador de números aleatórios de média nula e variança ajustável. O ensemble é constituído por 200 tentativas independentes e o experimento é feito para valores de espalhamento r = 3 e r = 10. As figuras 18, 19, 20, 21, e 22 apresentam as curvas de aprendizagem dos filtros adaptativos no cenário de predição linear. A tabela 4 apresenta os valores de regime para quais converge o erro quadrático dos preditores lineares. Neste caso também, nota-se que os métodos propostos neste artigo apresentam propriedades de convergência comparáveis aos métodos Polak-Ribière de Chang e Willson (2000) e RLS. Vale ressaltar que a convergência lenta do método SD-CLF, que depende do espalhamento dos autovalores, observado no caso do equalizador adaptativo, não ocorre. Para o método CG padrão, a perda de ortogonalidade resulta em uma perda de convergência para pequenos valores de espalhamento. A tabela 5 compara a porcentagem de desajuste definida como





onde J¥ é o valor esperado do erro médio quadrático em regime e Jmin é o erro médio quadrático mínimo (Boray e Srinath, 1992).

6 CUSTO COMPUTACIONAL

Para determinar o custo computacional dos métodos considerados neste artigo, determina-se o número de operações básicas (adição, subtração, multiplicação e divisão) de ponto flutuante (FLOP) realizadas. A tabela 7 apresenta a comparação do custo computacional dos novos métodos propostos neste artigo com os métodos RLS (algoritmo 6), CG padrão de Boray e Srinath (1992) e Polak-Ribière de Chang e Willson (2000).

Como já dito anteriormente, o método SD-CLF é o método que possui menos etapas e portanto tem custo computacional menor. O método CG padrão apresenta um custo computacional menor que o método CG-CLF, com uma diferença correspondente ao custo do cálculo de um produto interno (2M-1). Os métodos Polak-Ribière de Chang e Willson (2000) e RLS, por realizarem mais operações com vetores e/ou matrizes, apresentam um custo computacional maior que os métodos propostos neste artigo.

Algoritmo 6 Método RLS para filtros adaptativos

7 CONCLUSÃO

Neste artigo, os métodos iterativos de resolução de sistemas lineares de equações são analisados do ponto de vista da teoria de controle. O problema da resolução da equação linear Rw = b é transformado em um problema de regulação de sinal e, o processo iterativo é representado por um sistema dinâmico constituído pela planta linear {I, I, R,0} e um controlador em malha fechada. Esta formulação permite desenvolver métodos iterativos robustos utilizando técnicas de controle do tipo PI/PD com parâmetros variantes no tempo e funções de Liapunov para determinar esses parâmetros. Vale ressaltar que, com a ordenação adequada das etapas e na presença de ortogonalidade dos resíduos, o método PI corresponde ao método CG padrão com uma inicialização diferente.

Estes métodos iterativos são aplicados na determinação dos pesos ótimos de filtros adaptativos em cenários de equalização, identificação de sistemas e predição linear como já feito em Boray e Srinath (1992) e Chang e Willson (2000) com o método CG. Chang eWillson (2000) analisam um sistema linear variante no tempo, entretanto utilizam a formula Polak-Ribière, desenvolvida para funções não lineares gerais, para determinar um dos parâmetros necessários para a convergência. Dentro desta perspectiva, este artigo propõe uma análise que utiliza a estrutura linear do sistema variante no tempo (Rw = b) e a estrutura bilinear específica dos sistemas que surgem na análise do método CG aplicado a esta situação. Mostra-se através de várias simulações que os métodos propostos neste artigo apresentam um desempenho comparável aos métodos RLS e Chang e Willson (2000). Uma das vantagens dos métodos propostos, em relação aos dois supracitados, é o fato de determinar os pesos ótimos dos filtros sem determinar explicitamente a inversa da matriz de autocorrelação R e sem utilizar técnicas não lineares e/ou parâmetros determinados empiricamente. A prova sistemática da convergência dos métodos iterativos para sistemas lineares variantes no tempo sob hipóteses adequadas é um tópico sob investigações.

AGRADECIMENTOS

Esta pesquisa foi parcialmente financiada pelos projetos 141566/2004-3, 551863/2002-1 do CNPq, e também contou com o apoio das agências CAPES e FAPERJ.

Artigo submetido em 03/10/2005

1a. Revisão em 21/09/2006

Aceito sob recomendação do Editor Associado Prof. Liu Hsu

  • Bhaya, A. e Kaszkurewicz, E. (2004). Análise e projeto de métodos iterativos vistos como sistemas dinâmicos com controle realimentado, CBA Gramado: RS.
  • Boray, G. K. e Srinath, M. D. (1992). Conjugate gradient techniques for adaptive filtering, IEEE Transactions on Circuits and Systems-I: Fundamental Theory and Applications 39: 110.
  • Chang, P. S. e Willson, A. N. (2000). Analysis of conjugate gradient algorithms for adaptive filtering, IEEE Transactions on Signal Processing 48: 409418.
  • Diene, O. (2004). Métodos iterativos lineares: Análise e projeto através de ferramentas da teoria de controle, Master's thesis, Universidade Federal do Rio de Janeiro.
  • Haykin, S. (1991). Adaptive Filter Theory, Prentice Hall, Englewood Cliffs, New Jersey 07632.
  • Hestenes, M. R. (1980). Conjugate Direction Methods in Optimization, Springer-Verlag, New York.
  • Hestenes, M. R. e Stiefel, E. (1952). Methods of conjugate gradients for solving linear systems, Journal of Research of the National Bureau of Standards 49: 409436.
  • Khalil, H. K. (2002). Nonlinear Systems, Prentice Hall, Upper Saddle River, New Jersey 07458.
  • Saad, Y. (1996). Iterative methods for sparse linear systems, PWS Publishing Company, 20 Park Plaza Boston, MA 02116.
  • Saad, Y. e VanDerVorst, H. A. (2000). Iterative solution of linear systems in the 20th century, J. Computational and Applied Mathematics 122: 133.
  • Sayed, A. H. (2003). Fundamentals of Adaptive Filtering, John Wiley and Sons, 111 River Street, Hoboken, New Jersey 07030.
  • Slotine, J. J. E. e Li, W. (1991). Applied nonlinear control, Prentice Hall, Englewood Cliffs, New Jersey.
  • VanDerVorst, H. A. (2000). Krylov subspace iteration, Computing in Science and Engineering 2: 3237.
  • Datas de Publicação

    • Publicação nesta coleção
      26 Mar 2007
    • Data do Fascículo
      Set 2006

    Histórico

    • Recebido
      03 Out 2005
    • Revisado
      21 Set 2006
    Sociedade Brasileira de Automática Secretaria da SBA, FEEC - Unicamp, BLOCO B - LE51, Av. Albert Einstein, 400, Cidade Universitária Zeferino Vaz, Distrito de Barão Geraldo, 13083-852 - Campinas - SP - Brasil, Tel.: (55 19) 3521 3824, Fax: (55 19) 3521 3866 - Campinas - SP - Brazil
    E-mail: revista_sba@fee.unicamp.br