Acessibilidade / Reportar erro

Uma abordagem evolutiva para o problema de custo médio a longo prazo com saltos não-observados

Resumos

Neste artigo propomos uma adaptação de um algoritmo baseado na evolução biológica para a obtenção do controle ótimo do problema do custo médio a longo prazo para sistemas lineares com saltos markovianos. Não há na literatura um método que forneça, comprovadamente, o controle ótimo do problema, nem estudos comparativos de diferentes métodos. O algoritmo empregado diferencia-se dos algoritmos genéticos básicos por substituir os operadores evolutivos por um sorteio de acordo com uma distribuição probabilística. Comparamos o algoritmo proposto com um método bastante utilizado para esta classe de problema, levando em consideração a relação entre os custos obtidos, o tempo de CPU e a quantidade de problemas em que o critério de parada estabelecido foi atingido.

Sistemas com saltos markovianos; algoritmo evolutivo; problema de controle


In this paper we propose an adaptation of an algorithm based on biological evolution to obtain optimal control for the long run average cost problem for Markov jump linear systems. There is no in the literature a method that provides, proven, the optimal control of the problem, nor comparatives studies of different methods. The algorithm employed differs from the genetic algorithms to replace the basic operators for rolling a drawing according to a probability distribution. Comparing the proposed algorithm with a widely used method for this class of problem, leading into account the cost obtained, CPU time and amount of problems in which the stopping criterion set has been reached.

Markov jump systems; evolutive algorithm; control problem


Uma abordagem evolutiva para o problema de custo médio a longo prazo com saltos não-observados

C.A. Silva1 1 calex@usp.br. Os autores agradecem o apoio financeiro da FAPESP (Proc. 2008/02035-8) e do CNPq (Proc. 135663/2009-1, 306466/2010-4, 135597/2011-0). ; D.C. Bortolin2 2 daiane.bortolin@usp.br ; E.F. Costa3 3 efcosta@icmc.usp.br

Departamento de Matemática Aplicada e Estatística, ICMC/USP - São Carlos, Caixa Postal 668, 13560-970 São Carlos, SP

RESUMO

Neste artigo propomos uma adaptação de um algoritmo baseado na evolução biológica para a obtenção do controle ótimo do problema do custo médio a longo prazo para sistemas lineares com saltos markovianos. Não há na literatura um método que forneça, comprovadamente, o controle ótimo do problema, nem estudos comparativos de diferentes métodos. O algoritmo empregado diferencia-se dos algoritmos genéticos básicos por substituir os operadores evolutivos por um sorteio de acordo com uma distribuição probabilística. Comparamos o algoritmo proposto com um método bastante utilizado para esta classe de problema, levando em consideração a relação entre os custos obtidos, o tempo de CPU e a quantidade de problemas em que o critério de parada estabelecido foi atingido.

Palavras-chave: Sistemas com saltos markovianos, algoritmo evolutivo, problema de controle.

ABSTRACT

In this paper we propose an adaptation of an algorithm based on biological evolution to obtain optimal control for the long run average cost problem for Markov jump linear systems. There is no in the literature a method that provides, proven, the optimal control of the problem, nor comparatives studies of different methods. The algorithm employed differs from the genetic algorithms to replace the basic operators for rolling a drawing according to a probability distribution. Comparing the proposed algorithm with a widely used method for this class of problem, leading into account the cost obtained, CPU time and amount of problems in which the stopping criterion set has been reached.

Keywords: Markov jump systems, evolutive algorithm, control problem.

1. Introdução

Neste artigo tratamos de sistemas lineares com saltos markovianos (SLSM) em tempo discreto [4], os quais representam uma classe de sistemas estocásticos que apresentam modos de operação que se alternam de acordo com as probabilidades de uma cadeia de Markov. Desta forma, estes sistemas apresentam variações repentinas nos parâmetros, chamadas de "saltos". Dizemos que os saltos dos sistemas são observados quando estes são acessíveis em cada instante de tempo, caso contrário são denominados não-observados.

Inúmeras aplicações podem ser modeladas como um SLSM, como controle para aeronaves [1, 15], políticas monetárias [17, 2], sistemas robóticos [13], entre outros. Além dos aspectos práticos, o fato dos SLSM generalizarem sistemas lineares determinísticos e apresentarem resultados fortes que recuperam propriedades de sistemas lineares clássicos, os torna alvo de trabalhos que abordam um estudo mais teórico. Destacam-se resultados sobre noções de estabilidade [16], filtragem [14], solução ótima para custo finito e infinito quadrático [7], entre outros. Apesar das várias pesquisas envolvendo os SLSM, ainda existem algumas lacunas, como a determinação do controle ótimo para o custo médio a longo prazo (CMLP). O controle indica uma determinada ação (representada por uma variável) sobre um sistema dinâmico, a fim de "controlar" o sistema. A expressão "controlar", no contexto do artigo, representa encontrar valores para o controle que minimizem o custo representado pelo CMLP.

O CMLP representa o índice de desempenho do SLSM quando há presença de ruído aditivo no sistema, ou seja, quando a trajetória do sistema sofre perturbações, possivelmente de alguma força exógena. Neste contexto, estamos interessados em obter o controle ótimo de um SLSM em que haja presença de ruído aditivo e que não se tenha acesso à informação do estado da cadeia, pois para o cenário onde pode-se observar o estado da cadeia de Markov, a solução ótima é obtida na forma de ganhos de realimentação linear, por meio das soluções das equações algébricas de Riccati (EAR) [4].

No cenário sem observação ou com observação incompleta do estado da cadeia de Markov, onde um único ganho refere-se a todos os estados em cada instante de tempo, não se tem resultados que permitam calcular um controle tal que o CMLP seja um mínimo global. Apenas dispõe-se de um resultado em que se formula uma expressão, assumindo o controle na forma de realimentação linear (compatível com o cenário observado). Em [6] é apresentado um algoritmo para os problemas relacionados aos SLSM sem ruído, o qual foi estendido para o problema do CMLP por [19].

Neste trabalho propomos uma adaptação de um algoritmo evolutivo, Univariate Marginal Distribution Algorithm (UMDA), e comparamos o seu desempenho com o método variacional (MV) desenvolvido por [19], analisando a relação entre os custos obtidos pelos métodos. Em ambos os algoritmos é feita uma aproximação do CMLP via o custo de horizonte finito (CHF) como descrito em [5].

O artigo está organizado da seguinte forma: na Seção 2. são apresentados alguns resultados preliminares e a formulação matemática do problema de otimização, bem como o MV. O algoritmo proposto, UMDA, é detalhado na Seção 3.. Na Seção 4. é apresentado um exemplo que ilustra a aplicabilidade dos SLSM e a utilização dos métodos descritos para o problema do CMLP. Além disso, na Seção 5. é apresentada a comparação do desempenho dos algoritmos implementados. Por fim, conclusões do trabalho encontram-se na Seção 6..

2. Notações e Resultados Preliminares

Seja = {1, ..., S} um conjunto finito e r, s (r) a representação de um espaço linear formado por todas as matrizes de dimensão r×s (r×r). Definimos r, s = {U = (U1, ..., US): Uir, s, i }. Denotamos por U' a matriz transposta de U e tr{·} o operador traço. O espaço r, s equipado com o produto interno, como definido abaixo, forma um espaço de Hilbert,

Seja (Ω, , P) um espaço de probabilidade fundamental. Consideremos Θ = {θk, k > 0} uma cadeia de Markov homogênea tal que as probabilidades de transição são dadas por P(θk+1 = j| θk = i) = pij para todo i, j, com o vetor de distribuição inicial π01, S. Neste contexto, consideramos o SLSM,

onde xkn, 1 é usualmente chamado de estado do sistema, yk1 representa um índice de desempenho associado ao estágio k e ukm, 1 é o controle ou ação de entrada no sistema, que pode ser representada por uma variável cujo valor podemos definir ou projetar de forma a minimizar o índice de desempenho. Neste artigo, wkq, 1 representa um ruído, o qual forma um processo aleatório independente e identicamente distribuído (iid) com média zero e covariância E{wkw'k} = Σ, com E{·} representando o valor esperado usual.

A cada instante k, dado θk = i, tem-se Aθk = Ai e similarmente para as demais matrizes em (2.1), onde Ain, Bin, m, Gin, q, Cin, com C = C' > 0, e Dim, com D = D' > 0 (veja o exemplo na Seção 4).

Note que xkforma um processo estocástico, de tal maneira que yk como definido em (2.1) é uma variável aleatória. Por isso, definimos o custo de horizonte , também chamado de custo de T estágios para o SLSM da seguinte forma:

Neste artigo consideramos que o controlador tem acesso somente a xk em cada instante de tempo k e a variável θk não é observada. Assumimos uma lei de controle na forma de realimentação linear dada por

uk = K xk,

pois o ganho estático, Km, n, em geral, é mais simples de implementar que o ganho dependente no tempo (Kk), podendo ser utilizado em várias aplicações.

Para a coleção de matrizes Un e V n, definimos o operador U:nn tal que

onde

0(V) = V e para t > 1 temos a recursão t(V) = (t-1(V)).

A Proposição 2.1 é uma adaptação dos resultados de [4] e apresenta uma expressão determinística que facilita o cálculo do custo de T estágios.

Proposição 2.1.Seja Xn, Qne Σ ∈ ndefinidos por Qi = Q e Σi = , para todo i . Então,

ondepara todo icom Xi(0) = πi(0) x(0)x(0)' e Ai = Ai+Bi Kn.

A partir deste resultado, podemos formular o seguinte problema de otimização para o CMLP, cuja variável de interesse é o ganho K do controle a ser determinado,

Quando consideramos o horizonte de tempo infinito (T = ∞), o problema torna-se mais complexo, no sentido que J finito não assegura que o sistema controlado seja estável, como pode ser verificado em [12].

2.1 Método Variacional

Em [19] é proposto um método variacional para tratar de problemas de controle de SLSM com ruído aditivo, o qual será descrito de forma breve.

Seja o conjunto Sr = {U ∈ r : Ui = Ui' > 0, i} a representação do espaço linear formado pelas matrizes semi-definidas positivas. Definimos os operadores , : nn, para todo i, tal que

onde ϕn ei (T) = 0.

O Teorema 2.1 apresenta uma condição de otimalidade sob o ganho gkm, n.

Teorema 2.1.[19] Suponha que a sequência de ganhosg = {g0, ..., gT-1} fornece o mínimo global do problema do custo T estágios. Então g satisfaz, para cada k = 0, ..., T - 1,

Observação 1. Em [6] é apresentado um método para obter a solução da equação algébrica (2.3).

No Algoritmo 1 está apresentado o método variacional que, de acordo com [18], determina o CMLP pela seguinte aproximação:

T/T J quando T → ∞, onde K = gT/2. Além disso, pode-se garantir por [18] que a sequência de ganhos g = {g0, ..., gT-1} obtida pelo Algoritmo é um ponto de mínimo local para o problema de controle de T estágios. 0Método Variacional

3. Método UMDA

O método UMDA, proposto por [10], é um algoritmo de estimação de distribuição no qual não existem os operadores de cruzamento e mutação como nos algoritmos genéticos convencionais. Além disso, este método assume que as variáveis são independentes entre si. Em cada geração do algoritmo e para cada variável, buscamos a função densidade de probabilidade normal que melhor representa esta variável. Para isso utilizamos os valores da média e do desvio padrão do conjunto de elementos da população compostos pelas variáveis de cada ganho.

Para gerar a população inicial utilizamos a solução da EAR para o cenário observado. Esta estratégia foi adotada com sucesso em um algoritmo evolutivo aplicado ao SLSM como descrito em [12]. Assim, a partir dos ganhos ótimos L1, ..., LS da EAR, podemos definir a população inicial do UMDA por = α1 L1+ ...+ αS LS, = 1, ..., np, onde np é o tamanho da população inicial e αi, i, são variáveis gaussianas iid com média zero e matriz de covariância arbitrária. Além disso, para garantir a variabilidade genética, cada elemento do ganho é dado por uma função f: ,

onde p é a quantidade de genes de cada cromossomo. Para a inicialização de cada elemento da população, , geramos aleatoriamente com distribuição uniforme entre -1 e 1, e definimos

Neste artigo, adotamos f da Equação 3.1 na forma polinomial, pois deste modo é possível obter uma quantidade maior de genes, o que, apesar de levar a um maior custo computacional, também acarreta uma maior variabilidade genética e consequentemente permite explorar o espaço de soluções.

Para a seleção dos melhores indivíduos, os quais representam os ganhos do controle associados aos menores valores do CMLP, utilizamos o conhecido método de Torneio [8]. Este método oferece a vantagem de não exigir a comparação entre todos os indivíduos da população e a de não-geração de "super-indivíduos" [11].

Através dos N ganhos selecionados pelo método do torneio, K1, ..., KN, calculamos a média e desvio padrão pelas equações

A nova população (novos ganhos ) são gerados por uma função densidade de probabilidade normal, O procedimento do UMDA é apresentado no Algoritmo 2.

4. Exemplo Ilustrativo

Nesta seção apresentamos um exemplo que consiste em uma adaptação de [3], que ilustra a aplicação do SLSM e a utilização dos métodos variacional e UMDA.

Considere um sistema de produção de uma indústria que fabrica dois tipos de produtos. A demanda por estes produtos no tempo k será representada por um sequência de vetores bi-dimensionais aleatórios {wk, k > 0} iid para todo k. A indústria deseja que a sua produção satisfaça toda a demanda pelos produtos. No entanto, devemos considerar que o sistema de produção está sujeito a falhas, e portanto, podemos ter dois possíveis estados de Markov: sistema de produção operando (estado 1) ou não operando (estado 0). Podemos representar este processo pelo seguinte diagrama (Figura 1), onde estão apresentadas as probabilidades de transição de cada estado:


Sejam xk, uke wk, o estoque, a produção total e a demanda dos produtos no tempo k, respectivamente. Logo, temos que o estoque do produto no tempo k + 1 é dado por

onde A0 = A1 = I2, G0 = G1 = -I2, onde In denota a matriz identidade de dimensão n ×n , e B0 = [0 0]' e B1 = [1 1]'. A matriz de transição desse processo é denotada por = [pij], i, j = 0, 1, com pij ∈ (0, 1). O problema consiste em controlar a produção uk no tempo k de modo a minimizar o custo da produção

onde C0 = C1 = ρkr I2 e D0 = D1 = ρk com r > 0 e ρ ∈ (0, 1).

De acordo com [3] podemos reescrever (4.1) e (4.2) de modo a obter um problema equivalente com os seguintes parâmetros para o SLSM: A0 = A1 = ρ0, 5I2, G0 = G1 = -ρ0, 5I2, B0 = [0 0]', B1 = ρ0, 5 [1 1]', C0 = C1 = r I2 e D0 = D1 = 1. Aplicaremos os métodos variacional e UMDA

O MV foi iniciado com a sequência de ganhos g(0) tal que = [0 0], para todo k = 0, ..., T - 1. Já o UMDA, foi iniciado com os ganhos L1≈ [0 0] e L2≈ [-0, 3515 -0, 3515], obtidos pela EAR. Além disso, consideramos a função f: dada em (3.1) na forma polinomial

Visto que para cada cada temos um efeito com potência i na composição do ganho K, o que na prática mostrou ser eficiente em termos de desempenho do método.

O ganho obtido pelo UMDA para T = 100 é KU ≈ [-0, 1950 -0, 2139] com custo associado JU ≈ 51, 1664. O MV obteve um ganho KV ≈ [-0, 3468 -0, 3468] com custo associado JV ≈ 51, 1184.

Na Figura 2 estão apresentados os CMLP obtidos para cada horizonte de tempo T. Note que conforme o horizonte aumenta o valor do custo converge, permanecendo constante, ou tendo pequenas variações ao longo do tempo.


5. Experimentos Computacionais

Para avaliar a eficiência dos métodos apresentados, utilizamos um conjunto de problemas testes com 1000 SLSM, cujos parâmetros foram gerados aleatoriamente.

Nos Algoritmos 1 e 2 aproximamos o CMLP via o CHF, ou seja, consideramos um horizonte de tempo finito T suficientemente grande para aproximar o problema de CMLP. A determinação do horizonte T para cada SLSM foi feita da seguinte forma: seja n a trajetória do sistema associada à coleção de ganhos L obtida pela EAR e um escalar suficientemente pequeno. Para cada k = 0, 1, ..., , determinamos o valor de (k) até que este satisfaça a condição , considerando T = 2. Além disso, utilizamos o horizonte T para calcular o custo obtido pelo UMDA e 2T para calcular o custo do MV, pois a solução deste método considera o ganho no instante 2T/2 = T.

Analisando os dados obtidos pelo MV temos que para 846 problemas, o Algoritmo 0.1 foi executado e atendeu ao critério de parada estabelecido dentro de um número máximo de iterações (fixado em 500). Para os dados obtidos pelo método UMDA temos que todos os problemas atenderam o critério de parada estabelecido, sendo que o número de gerações sem melhora do custo foi fixado em c = 50. Assim, as comparações entre os métodos foram realizadas considerando apenas os 846 problemas em que ambos os métodos atingiram o critério de parada.

A Figura 3(a) mostra o custo do MV em relação ao custo do UMDA. Na Figura 3(b) é apresentado o tempo de CPU do MV, TV, em relação ao tempo do UMDA, TU. Pode ser observado que a partir desses gráficos não podemos afirmar qual dos métodos obteve o melhor desempenho. Desse modo, utilizamos o teste de hipótese [9] para formular uma suposição sobre a média da razão dos custos e outra sobre a média da razão dos tempos de CPU considerando os 846 SLSM.


Teste de Hipótese 1. Deseja-se testar se a média , razão entre custo em escala logarítmica do MV e do UMDA, é igual a 1, contra a alternativa de ser maior que 1. Inferimos através das amostras (custos obtidos) que o desvio padrão do custo é dado por σ ≈ 1, 7727. As duas hipóteses sobre a média da amostra são denotadas por H0(Hipótese Nula) e Ha (Hipótese Alternativa), respectivamente. Assim,

O erro ao rejeitar a hipótese H0 quando, na realidade, H0 é verdadeira é dado por

α = P[rejeitar H0 | H0 verdadeira] =

onde Z = com Z ~ N(0, 1) e S = (estamos aproximando a distribuição de Z por uma normal pois o número de amostras é grande). Logo, considerando o valor crítico xc igual a 1, 02, temos

O valor obtido para a média foi = 1, 1273, de forma que > xc implica em rejeitar a Hipótese Nula e concluir que o UMDA obteve custos menores que o MV. A probabilidade de estarmos enganados nesta conclusão é de α = 37, 13%.

Pelo Teste de Hipótese 1 verificamos que JU < JV com nível de significância α = 37, 13%. Para uma análise mais detalhada deste fato, dividimos o conjunto de resultados em duas classes, sendo que a primeira é formada pelos problemas em que JV < 1040 e a segunda pelos problemas em que JV > 1040. De acordo com [4] o sistema (2.1) é MS-estável se, e somente se, o raio espectral do operador A é menor que 1. Caso contrário, consideraremos o sistema instável. Analisando a MS-estabilidade para a primeira classe, constatamos que 54, 36% dos problemas são estáveis e desse total para apenas 2, 67% temos que o UMDA obteve custos menores. Para os 45, 64% problemas instáveis temos que o UMDA obteve custos menores para 5, 18%. Para a segunda classe, 100% dos problemas são instáveis, sendo que para 51, 01% temos que JU < JV.

Teste de Hipótese 2. Deseja-se testar se a média , razão entre tempo de CPU do MV e o tempo do UMDA, é igual a 0, 1, contra a alternativa de ser maior que 0, 1. Inferimos através das amostras (tempos obtidos) que o desvio padrão do tempo é dado por σ0, 7461. As duas hipóteses sobre a média da amostra são denotadas por H0 e Ha, respectivamente. Assim,

O erro ao rejeitar a hipótese H0 quando, na realidade, H0 é verdadeira é dado por

α = P[rejeitar H0 | H0 verdadeira] ≈ P [Z > 0,3898] ≈ 34,83%,

onde Z = com Z ~ (0, 1) e S = (estamos aproximando a distribuição de Z por uma normal pois o número de amostras é grande) e considerando o valor crítico xc igual a 0, 11. O valor obtido para a média foi = 0, 1311, de forma que > xc implica em rejeitar a Hipótese Nula e concluir que a o tempo de CPU do UMDA é maior que 10 vezes o tempo de CPU do MV. A probabilidade de estarmos enganados nesta conclusão é de α = 34, 83%.

6. Conclusões

Neste artigo apresentamos dois métodos aplicáveis ao problema de custo médio a longo prazo para sistemas lineares com saltos markovianos sem observação da cadeia de Markov, onde um é baseado na metodologia dinâmica variacional e o outro na metodologia heurística evolutiva.

O algoritmo evolutivo UMDA difere-se dos algoritmos genéticos básicos por não possuir os operadores de cruzamento e mutação, sendo substituídos por um sorteio de acordo com uma distribuição probabilística. Para este método, propomos uma representação polinomial para os ganhos (genes) de controle, permitindo uma maior variabilidade genética e, consequentemente, uma maior exploração do espaço de soluções. Para avaliar o desempenho deste algoritmo na obtenção do controle ótimo do problema de custo médio a longo prazo, comparamos-o com um método clássico da literatura, método variacional, sendo que na implementação consideramos uma aproximação do custo de horizonte finito para empregar o custo médio a longo prazo.

Os resultados obtidos nos experimentos computacionais (Seção 5), considerando apenas os problemas em que o método variacional atendeu o critério de parada, sugerem que para um percentual de problemas o UMDA despende um tempo computacional maior quando comparado com o método variacional (Teste de Hipótese 2). No entanto, para uma parcela significativa de problemas os custos obtidos pelo UMDA é menor que os obtidos pelo método variacional (Teste de Hipótese 1), principalmente para os problemas que consideramos como instáveis. Este fato indica que o método variacional pode não ter um bom desempenho em situações em que é muito difícil, numericamente, encontrar uma sequência de ganhos inicial com custos relativamente baixos.

Recebido em 16 Abril 2012; Aceito em 30 Julho 2012.

  • [1] L. Blackmore, M. Ono, A. Bektassov, B.C. Williams, A probabilistic particle-control approximation of chance-constrained stochastic predictive control. IEEE Transactions on Robotics, 26, No. 3 (2010), 502-517.
  • [2] O.L.V. Costa, M.V. Araújo, A generalized multi-period mean-variance portfolio optimization with Markov switching parameters. Automatica, 44, No. 10 (2008), 2487-2497.
  • [3] O.L.V. Costa, J.B.R. do Val, Jump LQ-optimal control for discrete-time markovian systems with stochastic inputs. Stochastic Analysis and Applications, 16, No. 5 (1998), 843-858.
  • [4] O.L.V. Costa, M.D. Fragoso, R.P. Marques, "Discrete-Time Markovian Jump Linear Systems", Springer-Verlag, New York, 2005.
  • [5] E.F. Costa, A.N. Vargas, J.B.R. do Val, Quadratic costs and second moments of jump linear systems with general Markov chain, Mathematics of Control, Signals and Systems, 263, No. 1 (2011), 141-157.
  • [6] J.B.R. do Val, T. Basar, Receding horizon control of jump linear systems and a macroeconomic policy problem, Journal of Economic Dynamics & Control, 23 (1999), 1099-18131.
  • [7] Z. Gajic, R. Losada, Solution of the state-dependent noise optimal control problem in terms of Lyapunov iterations, Automatica, 35, No. 5 (1999) 951-954.
  • [8] D.E. Goldberg, "Genetic Algorithms in Search, Optimization and Machine Learning", 1st ed., Addison Wesley, 1989.
  • [9] M.N. Magalhães, A.C.P. Lima, "Noções de Probabilidade e Estatística", Editora da Universidade de São Paulo, 2002.
  • [10] H. Muhlenbeing, The equation for response to selection and its use for prediction, Evolutionary Computation, 5, No. 3 (1997), 303-346.
  • [11] M. Scheffer, J.M. Baveco, D.L. DeAngelis, K.A. Rose, E.H. van Nes, Super-individuals a simple solution for modelling large populations on an individual basis, Ecological modelling, 80 No. 2-3 (1995), 161-170.
  • [12] C.A. Silva, E.F. Costa, An algorithm for the long run average cost problem for linear systems with non-observed Markov jump parameters, "American Control Conference", pp. 4434-4439, St. Louis, USA, 2009.
  • [13] A.A.G. Siqueira, M.H. Terra, T.B.R. Francisco, Controle robusto de robos móveis em formação sujeitos a falhas, Sba Controle & Automação, 21, No. 1 (2010), 29-42.
  • [14] C.E. de Souza, M.D. Fragoso, H filtering for discrete-time linear systems with Markovian jumping parameters, International Journal of Robust and Nonlinear Control, 13 (2003) 1299-1316.
  • [15] P. Stoica, I. Yaesh, Jump Markovian-based control of wing deployment for an uncrewed aircraft, Journal of Guidance, Control, and Dynamics, 25, No. 2 (2002), 407411.
  • [16] M.G. Todorov, M.D. Fragoso, On the stability radii of continuous-time infinite Markov jump linear systems, Mathematics of control, Signals, and Systems, 22, No. 1 (2010), 23-38.
  • [17] A.N. Vargas, J.B.R. do Val, E.F. Costa, Controle de horizonte retrocedente de sistemas lineares com saltos Markovianos para o problema de rastreamento com alvos dinâmicos, SBA Controle & Automação, 16, No. 4 (2006), 435-448.
  • [18] A.N. Vargas, "Estabilidade e Controle com Critério de Custo Médio a Longo Prazo em Sistemas Lineares Estocásticos", Tese de Doutorado, FEEC, Unicamp, Campinas, SP, 2009.
  • [19] A.N. Vargas, J.B.R. do Val, E.F. Costa, Receding horizon control of Markov jump linear system subject to noise and unobserved state chain, "IEEE Conference on Decision and Control", pp. 4381-4386, Atlantis, Bahamas, 2004.
  • 4
    4 O método variacional (Algoritmo 1) e o método UMDA (Algoritmo 2) foram implementados no software MATLAB ®. no SLSM equivalente para encontrar uma aproximação para o problema do CMLP. Para tal, consideramos os seguintes parâmetros:
  • 1
    calex@usp.br. Os autores agradecem o apoio financeiro da FAPESP (Proc. 2008/02035-8) e do CNPq (Proc. 135663/2009-1, 306466/2010-4, 135597/2011-0).
  • 2
  • 3
  • 4
    O método variacional (Algoritmo 1) e o método UMDA (Algoritmo 2) foram implementados no software MATLAB
    ®.
  • Datas de Publicação

    • Publicação nesta coleção
      15 Out 2012
    • Data do Fascículo
      2012

    Histórico

    • Recebido
      16 Abr 2012
    • Aceito
      30 Jul 2012
    Sociedade Brasileira de Matemática Aplicada e Computacional Rua Maestro João Seppe, nº. 900, 16º. andar - Sala 163 , 13561-120 São Carlos - SP, Tel. / Fax: (55 16) 3412-9752 - São Carlos - SP - Brazil
    E-mail: sbmac@sbmac.org.br