Acessibilidade / Reportar erro

Estratégias seqüenciais subótimas para planejamento agregado da produção sob incertezas

Sub-optimal sequential strategies for aggregate production planning under uncertainties

Resumos

Dentro de uma cadeia de decisões hierárquicas, uma grande parte dos problemas é dependente da componente tempo e fortemente influenciada por elementos perturbativos tanto endógenos quanto exógenos. Estes problemas podem ser enquadrados dentro de uma classe de problemas de controle ótimo estocástico. As dificuldades para gerar uma solução ótima malha-fechada fazem com que se busque outros procedimentos alternativos. Neste artigo, quatro destes procedimentos são analisados quanto a suas propriedades estruturais. Um estudo de caso, com foco no problema de planejamento agregado da produção, é considerado com o propósito de comparar as soluções ótimas fornecidas pelo procedimento. A solução com melhor desempenho é considerada para análises de cenário, que tem por objetivo ajudar a gerência a ter uma visão de longo prazo quanto ao uso dos recursos materiais da firma.

controle ótimo; sistemas dinâmicos; procedimento subótimos; programação dinâmica; planejamento da produção


Within a hierarchical decision chain, a major part of problems is dependent on the time component and strongly sensitive to endogenous and exogenous components. These problems can be related to an important class of stochastic optimal control. Difficulties to provide a closed-loop policy for them, lead to look for sub-optimal alternatives. In this paper, four different sub-optimal procedures are investigated in relation to their structural properties. A case study, based on an aggregated production planning problem, is considered with the purpose of comparing the different procedures. The best one is used to provide managerial scenarios about the future use of material resources of the firm.

optimal control; dynamic systems; sub-optimal procedures; dynamic programming; production planning


Estratégias seqüenciais subótimas para planejamento agregado da produção sob incertezas

Sub-optimal sequential strategies for aggregate production planning under uncertainties

Oscar S. Silva Filho

CTI. Rod. D. Pedro I (SP 65) Km. 143,6. CEP 13081-970 – Campinas – SP – Brasil. E-mail: oscar@ia.cti.br

RESUMO

Dentro de uma cadeia de decisões hierárquicas, uma grande parte dos problemas é dependente da componente tempo e fortemente influenciada por elementos perturbativos tanto endógenos quanto exógenos. Estes problemas podem ser enquadrados dentro de uma classe de problemas de controle ótimo estocástico. As dificuldades para gerar uma solução ótima malha-fechada fazem com que se busque outros procedimentos alternativos. Neste artigo, quatro destes procedimentos são analisados quanto a suas propriedades estruturais. Um estudo de caso, com foco no problema de planejamento agregado da produção, é considerado com o propósito de comparar as soluções ótimas fornecidas pelo procedimento. A solução com melhor desempenho é considerada para análises de cenário, que tem por objetivo ajudar a gerência a ter uma visão de longo prazo quanto ao uso dos recursos materiais da firma.

Palavras-chave: controle ótimo, sistemas dinâmicos, procedimento subótimos, programação dinâmica, planejamento da produção.

ABSTRACT

Within a hierarchical decision chain, a major part of problems is dependent on the time component and strongly sensitive to endogenous and exogenous components. These problems can be related to an important class of stochastic optimal control. Difficulties to provide a closed-loop policy for them, lead to look for sub-optimal alternatives. In this paper, four different sub-optimal procedures are investigated in relation to their structural properties. A case study, based on an aggregated production planning problem, is considered with the purpose of comparing the different procedures. The best one is used to provide managerial scenarios about the future use of material resources of the firm.

Key words: optimal control, dynamic systems, sub-optimal procedures, dynamic programming, production planning.

1. Introdução

A necessidade de adotar decisões mais ajustadas com os objetivos de produção – tais como: melhorar produtividade, reduzir desperdícios e ociosidade, minimizar custos, dentre outros – tem propiciado um ambiente fértil para aplicações de metodologias qualitativas e quantitativas de solução de problemas industriais. Particularmente, no que tange a metodologias quantitativas, verifica-se que técnicas matemáticas provenientes da teoria de controle e pesquisa operacional passam a ter um espaço importante como ferramentas gerenciais para solução de problemas da área de produção. SURI (1985), GERSHWIN et al. (1986) e SINGHAL et al. (1987) fornecem uma visão interessante das possibilidades de aplicação de técnicas quantitativas, não-seqüenciais e seqüenciais, na solução de problemas gerenciais.

Técnicas quantitativas não-seqüenciais, como as baseadas em programação matemática, vêm sendo utilizadas em larga escala, para ajudar gerentes no processo de tomada de decisão. Entretanto, para alguns problemas práticos, estas técnicas apresentam uma séria deficiência, que é a de não conseguir refletir a característica dinâmica do processo de decisão. Um exemplo disto é o planejamento agregado da produção onde, para cada período de tempo, as necessidades sobre o uso dos recursos materiais agregados da firma devem ser revistas e ajustadas. De fato, as técnicas não-seqüenciais fornecem uma visão limitada do processo de produção, pois assumem uma situação em que o processo produtivo é visto no tempo como se estivesse em estado de regime permanente, ou seja, livre do efeito adverso das perturbações do ambiente. Normalmente, esta é uma falsa suposição, basta para isto considerar as incertezas sobre as flutuações de demanda em horizontes de médio e longo prazo.

Técnicas quantitativas seqüenciais, por seu turno, envolvem um grande número de variáveis inter-relacionadas de uma forma complexa através de um sistema dinâmico, ao qual estão incorporadas as incertezas do ambiente. Este sistema pode ser descrito na forma entrada-saída, onde as entradas são selecionadas, seqüencialmente no tempo, após a observação das saídas passadas, usando algum esquema de realimentação. Esta é uma característica extremamente interessante que pode ser explorada em muitos problemas gerenciais.

É possível definir, de uma maneira geral, as decisões gerenciais como sendo atividades de planejamento sobre o tempo, sob efeito de incertezas. Esta definição conduz a necessidade de considerar modelos matemáticos que incorporem tanto a componente tempo quanto a componente perturbação. A teoria de controle ótimo estocástico lida com problemas envolvendo decisões dinâmicas sob incertezas e suas técnicas tanto analíticas (BRYSON & HO, 1975) quanto seqüenciais (BERTESEKAS, 1995) podem oferecer uma importante base ferramental para o processo de tomada de decisão em quase todos os níveis da hierarquia da cadeia de produção, veja para detalhes (GERSHWIN et al., 1986).

Basicamente, os objetivos deste trabalho são formular uma classe de problemas de controle ótimo estocástico seqüencial orientado à modelagem de problemas de planejamento da produção e discutir alguns procedimentos subótimos de solução. Esta classe de modelos pode contemplar problemas das mais diferentes áreas do conhecimento; em particular, ela é de grande interesse em áreas gerenciais, como: Finanças, Marketing, Propaganda, Controle de Estoque, Transportes e Planejamento da Produção (SETHI, 1978; RAO & SCHENELLER, 1990 e SHEN, 1994).

O problema de controle ótimo estocástico, em questão, pode ser descrito pela composição das seguintes partes:

(a) um sistema discreto no tempo caracterizado por uma dinâmica linear estocástica (equação de balanço estoque-produção com incertezas sobre a demanda futura);

(b)um custo funcional geral, tomada em esperança matemática (custo médio de produção), e

(c)restrições de chance nas variáveis de estado (estoque) e de controle (produção).

O propósito então é determinar uma política seqüencial ótima de controle que minimize (b) quando sujeito a (a) e (c). Considerando que, a cada período de tempo, esta política possa empregar informações correntes do estado do sistema (a), via algum mecanismo de realimentação, então, ela é dita ser uma solução ótima malha-fechada. Entretanto, desde que este problema é de natureza bastante complexa – em virtude de fatores como: incerteza, dimensão, restrições nas variáveis de decisão e a dinâmica do processo – uma solução malha-fechada só será possível em casos muito particulares. Por exemplo: quando o critério em (b) é quadrático e as restrições em (c) são consideradas ilimitadas; neste caso, é possível obter uma solução ótima malha-fechada para o problema usando a equação matricial de Riccati (BRYSON & HO, 1975). Outras possibilidades de solução também de abrangência limitada são discutidas em NECK (1984).

Sendo possível, por outro lado, assegurar requisitos de separabilidade ao custo funcional, o algoritmo de programação dinâmica estocástica passa a ser a melhor opção para se obter uma solução ótima malha-fechada para este problema. Entretanto, o emprego deste algoritmo está limitado a problemas de pequena dimensão, pois estes, pelo menos teoricamente, não requerem grande capacidade de carga computacional para serem resolvidos. Uma vez que a maioria dos problemas práticos são multidimensionais, torna-se necessário procurar técnicas alternativas, com características seqüenciais, para tratar este tipo de problema. Um dos caminhos, sugerido na literatura (BERTESEKAS, 1995), é a simplificação do problema estocástico original, de modo a permitir o emprego de procedimentos de mais simples solução. O preço pago, ao aplicar tais simplificações, é que se abre mão da busca da solução ótima malha-fechada; obtendo-se, na verdade, soluções quasi-ótimas (subótimas).

Existe uma enorme variedade de procedimentos que conduzem a soluções subótimas, sendo difícil classificá-los ou analisá-los de uma maneira unificada (veja para detalhes KLEINDORFER, 1978; SHEN, 1994 e BERTESEKAS, 1995). Em geral, estes algoritmos agem no sentido de conseguir uma melhor eficiência computacional preservando as propriedades estruturais do problema original. Alguns destes procedimentos serão investigados neste trabalho e suas aplicações particulares à geração de planos agregados da produção serão objeto de um estudo de caso.

As seções seguintes discutem os seguintes assuntos: a seção 2 traz uma rápida visão da cadeia hierárquica de decisões no contexto de planejamento da produção. Ela ajudará a localizar a área de interesse neste estudo. Seção 3 apresenta a formulação matemática do problema de controle ótimo estocástico seqüencial. Seção 4 discute estratégias para reduzir a complexidade do problema estocástico. Seção 5 discute um modo de transformar as restrições probabilísticas, definidas no problema estocástico, em equivalentes determinísticas, permitindo assim o uso delas diretamente nas formulações dos procedimentos a serem discutidos nas seções subseqüentes. Seção 6 emprega o algoritmo de programação dinâmica estocástica como um caminho para determinação de uma política ótima malha-fechada para o problema estocástico. Seção 7 introduz alguns procedimentos subótimos que podem ser utilizados como solução aproximada para o problema estocástico. Por fim, a seção 8 apresenta um estudo de caso onde, a partir de um problema de planejamento agregado da produção monoproduto, os procedimentos da seção 7 são aplicados e suas soluções comparadas com a solução ótima malha fechada. Inclui-se, neste estudo, um esquema de simulação onde a ênfase é gerar cenários que permitam à gerência obter informações antecipadas sobre o uso futuro dos recursos materiais da empresa.

2. Planejamento da Produção: Visão Hierárquica

Uma grande quantidade de decisões, consideradas no planejamento da produção, é usada para ajustar os recursos materiais da empresa para satisfazer as flutuações de demanda ao longo dos períodos de tempo. É possível dizer que o propósito do planejamento da produção é estabelecer taxas de produção de modo a atingir metas gerenciais. Manter os recursos de produção relativamente estáveis dentro do horizonte de planejamento é uma destas metas.

No contexto de planejamento da produção, o processo de tomada de decisão somente pode ser descrito por meio de uma estrutura hierárquica. Sucintamente, esta hierarquia consiste de três níveis distintos, porém altamente interativos, a saber (HAX & CANDEA, 1984): Estratégico, Tático e Operacional. A Tabela 1 resume alguns fatores que diferenciam estes níveis de decisão. Pode ser verificado, a partir dela, que as decisões tomadas nos níveis Estratégico e Tático são fortemente baseadas em padrões de agregação dos dados de produção. Muitas vezes, esta agregação é responsável pela redução na dimensionalidade dos problemas de produção. Este é uma das razões que explicam por que pesquisadores, da área de teoria de controle, podem encontrar grandes oportunidades de aplicação de metodologias de otimização seqüencial em problemas existentes nestes dois níveis, como alertado em GERSHWIN (1985).

Este trabalho focaliza um importante tipo de problema de planejamento da produção encontrado no nível Tático. Dentro deste nível, uma das primeiras ações gerenciais é desenvolver um plano de produção (NELLEMANN & HARMON, 1986). Ele deve ser visto como um guarda-chuva para o processo de produção como um todo, uma vez que ele cobre todas as ações subseqüentes das atividades de planejamento e também fornece informações para realização do Plano de Negócio (APICS, 1994).

O plano de produção é usado como alvo a ser seguido pelos gerentes durante o desenvolvimento do planejamento detalhado. Esta característica está ilustrada na Figura 1. De modo genérico, o que se pretende mostrar com a Figura 1 é o intenso fluxo de informação entre os planejamentos agregado e detalhado da cadeia hierárquica. Neste sentido, deve-se observar que no módulo de planejamento agregado toma-se informações sobre a demanda prevista e sobre os recursos materiais agregados disponíveis, para gerar o plano de produção. Isto sugere um esquema de realimentação onde qualquer inconsistência do plano, quando de sua aplicação no nível de planejamento detalhado, é prontamente revista.


Este plano pode ser estabelecido a partir de um problema de otimização não seqüencial (ou seja, do tipo estático). No entanto, como dito antes, este tipo de solução não captura a dinâmica do processo de produção. Conseqüentemente, ela fornece apenas alvos congelados de produção que podem ser desastrosos quando aplicados diretamente à cadeia de decisões da empresa. Portanto, na formulação do problema deve ser levado em conta a dinâmica e as incertezas do processo de produção. Neste caso, a teoria de controle ótimo estocástico pode proporcionar planos de produção mais confiáveis para utilização na cadeia hierárquica de decisões. Nas seções seguintes discutem-se aspectos relacionados com a formulação de um problema de controle ótimo estocástico e seus possíveis esquemas de solução.

3. Formulação do Problema de Controle Ótimo Estocástico

Seja um sistema linear estocástico a tempo discreto, o qual pode representar uma variedade de processos reais, dentre estes, processos de produção por equações de balanço econômico de estoque (KLEINDORFER & GLOVER, 1973):

(1)

onde AÎÂnxn denota a matriz do sistema e BÎÂnxm denota a matriz de acoplamento do sistema (por exemplo, cada linha desta matriz contém a seqüência de máquinas responsáveis pela produção de um determinado produto), x(k)ÎÂn denota o vetor de estado do sistema (contendo, por exemplo, informações sobre os níveis de estoque de cada um dos "n" produtos), u(k)ÎÂm denota o vetor de controle do sistema (que contém os níveis de capacidade de cada uma das "m" máquinas envolvidas na produção de cada um dos "n" produtos); e d(k)ÎÂn denota o vetor perturbação do sistema (que contém os níveis de flutuação da demanda de cada um dos "n" produtos). Via de regra, d(k) é descrito por um vetor de variáveis aleatórias independentes, com distribuição de probabilidade conhecida ao longo dos períodos do horizonte de planejamento. Assume-se ainda que, durante a evolução da equação (1), as variáveis de estado e controle estão sujeitas a adotarem valores dentro de intervalos definidos pelos seguintes espaços Xk={xk<x(k)<k} e Uk={uk<u(k)<k}. Devido a natureza estocástica de (1), o tratamento dado a este tipo de restrição é a penalização no critério. Entretanto, uma forma mais realista de preservar estas restrições explicitamente no modelo, garantindo a factibilidade das decisões, é assumi-las em probabilidade, ou seja, considerá-las como restrições de chance. (Para maiores detalhes, vide CHARNES & COOPER, 1959 e LASSERE et al., 1985).

Com as considerações acima, pode-se formular uma importante classe de problemas de controle ótimo estocástico seqüencial, descrito como segue: dado um vetor de estado inicial x(0)ÎÂn, deseja-se determinar uma política de controle ótimo que resolve o seguinte problema:

(2)

onde a=[a1a2 ... an] e g=[g1g2gm] representam vetores de medidas de probabilidade selecionados na faixa [0, 1). Dependendo do tipo de problema, estas medidas têm significados diferentes, por exemplo em problemas de planejamento da produção, elas denotam respectivamente: (i) a maior ou menor expectativa do decisor (gerentes da firma) em atender os pedidos dos clientes nas datas combinadas para cada um dos "n" produtos e (ii) estratégias para avaliação do uso da capacidade de produção disponível (níveis de ociosidade e de sobrecarga de cada uma das "m" máquinas). Veja para detalhes GONEDES & LIEBER (1974).

O problema (2) é um problema tipicamente seqüencial e, por conseguinte, não pode ser tratado como um problema estático (ou seja, como um problema cuja solução é obtida em um único-estágio), pois as informações disponíveis, ao longo dos períodos, sobre o estado do sistema, influenciam fortemente sua solução ótima. As características básicas de (2) – ou seja: sua estrutura combinatorial ao longo dos períodos, as restrições nas variáveis de estado e controle, a possibilidade de não linearidade do custo funcional, e a dinâmica estocástica do sistema – fazem com que este problema seja extremamente difícil de resolver e, com raras exceções, todo o maquinário de técnicas disponíveis para tratar problemas de controle ótimo é inócuo. Buscando-se uma solução seqüencial para o problema (2), pode-se pensar no emprego do algoritmo de programação dinâmica estocástica (PDE), o qual, infelizmente, é inviável para problemas de grande dimensão. Note-se que a virtude do algoritmo PDE é proporcionar uma solução ótima global para o problema, pois usa toda informação disponível nos espaços de factibilidade das variáveis de decisão do sistema (1) para gerar tal solução. Devido a isto, a solução fornecida por este método vem sendo empregada como benchmark para testar e comparar outras técnicas alternativas.

Em virtude das dificuldades de resolver o problema (2) por métodos convencionais, tem-se procurado, na literatura, associar estratégias tipicamente empregadas na teoria de controle (como por exemplo: esquemas de realimentação) com os métodos da programação matemática. Para este fim, adotam-se simplificações na formulação do problema original (2), obtendo-se versões aproximadas e equivalentes, mais simples de serem resolvidas e, portanto, de baixo custo computacional. A idéia por trás destas aproximações é tentar preservar as propriedades estruturais do problema original de modo a garantir que a solução subótima gerada não divirja significativamente da solução ótima esperada. A confiabilidade destas aproximações no sentido de obter uma solução subótima confiável é discutida em BITRAN & YANASSE (1984).

O Valor da Informação Disponível: quando o processo dinâmico é afetado por incertezas (por exemplo: as flutuações aleatória da demanda), as informações disponíveis, a cada período de tempo, tornam-se vitais para garantir a confiabilidade da solução do problema de controle. Neste trabalho assume-se que as informações necessárias para o processo de tomada de decisão são perfeitamente conhecidas por meio das medidas do estado x(k) e do controle u(k). Note-se que imprecisões nestas medidas impõem a utilização de algum tipo de mecanismo de estimação da informação (por exemplo, um observador de estado ou filtro de Kalman, veja BRYSON & HO, 1975), o que implicará na elevação do grau de dificuldade da solução do problema (2). Muitos procedimentos subótimos já trazem implicitamente esquemas que utilizam a informação disponível para ajustes da política ótima. Vistos no tempo, estes procedimentos agem de uma maneira que lembra os esquemas tipo "horizonte deslizantes" empregados para ajustar as soluções geradas por problemas de otimização determinísticos (LASSERE et al., 1985). Alguns destes procedimentos serão discutidos na seção 7, antes, porém, é importante apresentar algumas características básicas de redução de complexidade do problema (2) e, também, apresentar o algoritmo de programação dinâmica que será utilizado na implementação algorítmica dos procedimentos.

4. Estratégias Aproximativas

O objetivo desta seção é discutir alguns esquemas aproximativos adotados para simplificar o problema (2). A solução ótima gerada pelo problema modificado é uma solução quasi-ótima para o problema original. Como será visto à frente, a capacidade de adaptabilidade de uma estratégia aproximativa é a garantia de soluções subótimas mais próximas do ótimo global. Basicamente pode-se destacar quatro tipos de aproximações para a classe de problemas do tipo definido em (2), a saber (KLEINDORFER, 1978):

i) Aproximações do Critério e da Dinâmica do Sistema: em geral, adota-se as séries de Taylor para eliminar características não-lineares existentes nas funções de custo e nas equações do sistema dinâmico. Em particular, linearizações de funções são introduzidas via aproximações de primeira ordem enquanto que funções quadráticas o são via aproximações de segunda ordem. É interessante observar que este tipo de estratégia viabiliza o uso de técnicas de programação linear e quadrática, muito empregadas na prática.

ii)Discretização do Espaço das Variáveis de Decisão: as técnicas de discretização são estratégias adotadas para converter problemas estocásticos seqüenciais complexos, como o proposto em (2), em uma seqüência de subproblemas mais simples, com um número finito (contável) de estados, controle e perturbações. O algoritmo de programação dinâmica é usuário deste tipo de aproximação. É importante observar que quando os espaços das variáveis envolvidas estão restritos a conjuntos finitos, a técnica de discretização conduz a bons resultados, principalmente quando o passo de discretização (Dp) é muito pequeno, algo próximo de zero (BERTESEKAS, 1995). Entretanto, neste caso sempre existirá um compromisso na escolha do Dp. De fato, valores muito pequenos de Dp, embora conduzam a soluções mais refinadas, podem ser a causa de uma possível instabilidade numérica do algoritmo, além de envolver um alto custo computacional. Por outro lado, para valores muito altos de D p, a solução gerada pode apresentar-se distorcida em relação à solução ótima malha-fechada. Neste sentido, encontrar um valor de compromisso para Dp é uma atividade importante nesta estratégia (BERTESEKAS, 1995).

iii) Regras de Decisão Lineares: neste caso a idéia é desenvolver uma estrutura funcional simples para representar a política de controle do sistema. Por exemplo, pode-se assumir que esta política depende linearmente das medidas de estado. Neste caso, pode-se utilizar um ganho ótimo linear que, quando excitado por medidas de estado observadas do sistema, forneça uma política de decisão a ser aplicada ao sistema. Em geral, este tipo de estratégia é utilizada conjuntamente com a solução de um problema equivalente a (2), porém essencialmente determinístico. Na subseção 7.4 discute-se o procedimento Parcialmente em Malha-Fechada (PMF) usuário desta estratégia. Outros detalhes sobre regras de decisão são encontrados em HAX & CANDEA (1984) e HAY & HOLT (1975).

iv)Aproximações no Uso da Informação Disponível: este tipo de aproximação diz respeito ao modo como a estratégia de controle, a ser adotada, utiliza as informações observadas a partir do processo físico. Resumidamente pode-se citar 4 estratégias, que dão origem a dezenas de outras:

  1. Estratégia Malha-Fechada (EMF): neste tipo de estratégia, procura-se preservar a natureza estocástica do problema, desenvolvendo para isto uma lei de controle que considera todas as informações disponíveis sobre as variáveis de decisão que compõem o sistema dinâmico. Estas informações são utilizadas para gerar uma política ótima malha-fechada como solução do problema. Em problemas de controle estocástico com restrições, como o formulado em (2), somente soluções numéricas são possíveis de ser encontradas, a partir da aplicação do Princípio da Otimalidade (BERTESEKAS, 1995). Neste caso, uma solução ótima malha-fechada para (2) pode ser obtida via algoritmo de programação dinâmica estocástica.

  2. Estratégia Malha-Aberta (EMA): neste caso, tem-se um problema essencialmente determinístico, geralmente definido fixando a variável de perturbação em um valor previamente conhecido (por exemplo, quando a demanda por produtos é fixada nas previsões de vendas ou em médias mensais previamente extraídas de históricos de vendas). Como conseqüência, o operador esperança matemática relacionado com o custo e os operadores probabilísticos das restrições de chance perdem sentido na formulação (2) e o problema estocástico torna-se um problema essencialmente determinístico. Deste modo, quaisquer métodos aplicáveis da programação matemática podem ser utilizados como técnica de solução. Duas situações podem ocorrer no emprego desta estratégia, a saber: (b.1)

    Estratégia Malha-Aberta Sem-Observações (MASO): nesta estratégia, o controle considera as informações disponíveis somente no período inicial do horizonte de tempo (i.e., k=0), quaisquer outras informações observadas nos períodos subseqüentes são completamente ignoradas. Note-se que neste tipo de estratégia o problema determinístico é resolvido de uma única vez, ou seja, em um único estágio. Portanto, este problema é não-seqüencial (ou seja, estático) e (b.2)

    Estratégia Malha-Aberta Com Observações (MACO): idêntica à estratégia da situação anterior, só que neste caso as observações disponíveis ao longo dos períodos são empregadas na solução do problema. Isto significa que para um dado período k, tão logo seja observada uma nova medida do estado (nível de estoque) do sistema, esta será utilizada como condição inicial na solução do problema determinístico dentro do horizonte de planejamento [k, N]. O problema, neste caso, é resolvido num total de N vezes. Exemplo de um procedimento que emprega esta estratégia é o "Naive Feedback Controller" (NFC) que será analisado na subseção 7.3.

  3. Estratégia do Modelo Estatisticamente-Equivalente (EME): esta estratégia adota as informações estatísticas relacionadas ao processo dinâmico estocástico (1) com objetivo de reduzir a complexidade do problema. A função distribuição de probabilidade associada ao processo (1) é geralmente empregada no processo de simplificação do problema estocástico (2). Assumindo-se, por exemplo, (1) como sendo um processo Gaussiano, pode-se resumir toda a informação estatística necessária ao processo de simplificação de (2), exatamente, na evolução temporal do primeiro e segundo momento estatístico (ou seja, média e variância de (1)). Assim, com esta informação conhecida ao longo do tempo pode-se converter o problema estocástico em um equivalente determinístico que preserva suas principais características estatísticas (SILVA FILHO, 1999 e LASSERE

    et al., 1985). É interessante acrescentar que a estratégia EME é um refinamento da estratégia EMA. Este procedimento pode também ser empregado de dois modos distintos: (c.1) considerando a estimativa de estado no instante inicial (k=0) e ignorando-se quaisquer futuras observações. Esta estratégia, denominada EESO, é equivalente a MASO. Como será visto à frente (subseção 7.4), o procedimento conhecido como Parcialmente em Malha-Fechada (PMF) utiliza este tipo de estratégia; e (c.2) considera-se neste modo que, para cada novo período k, o estado é medido a partir do sistema (1) e utilizado como condição inicial para solução do problema determinístico equivalente na faixa de tempo [k, N]. Este procedimento repete-se para cada novo período de tempo, assim, ao todo, o problema equivalente é resolvido N vezes. Denomina-se esta estratégia de EECO e ela é semelhante ao MACO. Um procedimento que emprega a estratégia EECO é o "Open-Loop Feedback Controller – OLFC," a ser analisado na subseção 7.3.

Comentários Gerais: É interessante observar que quando o sistema é linear sem restrições com o custo quadrático, a lei de controle gerada pela estratégia EME é análoga à obtida pela EMF e MACO. Outra característica importante destas estratégias diz respeito à característica "adaptabilidade" da solução ótima gerada por estas estratégias (BERTESEKAS, 1995). A seguir define-se o significado desta característica.

O Conceito de Adaptabilidade: sejam JEMF e JEMA respectivamente os valores ótimos do custo funcional relacionados com as estratégias de solução malha-fechada e malha-aberta (EMF e EMA) para o problema estocástico (2). Segue então a afirmativa de que o custo ótimo gerado por tais estratégias será sempre JEMF<JEMA. Isto é uma conseqüência do fato de que a classe de estratégias que não levam em conta as medidas observadas (malha-aberta) é um subconjunto da classe de estratégias que tiram vantagens das observações (isto é, usam esquemas de realimentação). Com base nisto, é de se esperar que muitas estratégias subótimas, que levam em conta as medidas do sistema, sejam considerados aceitáveis somente se o seu correspondente valor de custo funcional J(.) satisfazer a seguinte condição (SILVA FILHO, 1998): JEMF<J(.)<JEMA. Neste caso, a estratégia é denominada de quase-adaptativo. No caso da desigualdade da direita ser estrita, diz-se que o controlador é adaptativo, o que leva à classe dos controladores "auto-ajustáveis" (ASTRON, 1970). Analisando-se agora as estratégias apresentadas acima, sob a luz da característica adaptabilidade, é possível concluir antecipadamente que os custos ótimos obedecerão a seguinte escala de valor: JEMF<JEECO<JMACO<JEESO<JMASO. Daí conclui-se que o uso de informação disponível é garantia de melhorar a política ótima de solução do problema.

Antes de apresentar alguns dos procedimentos subótimos, encontrados na literatura, que facilitam a solução do problema (2), discute-se, nas seções seguintes, aspectos relacionados com a aproximação das restrições probabilísticas por equivalentes determinísticos e a formulação do problema estocástico via algoritmo de programação dinâmica estocástica.

5. Restrições Probabilísticas

Em problemas estocásticos a inclusão de restrição nas variáveis de estado e controle aumenta enormemente a complexidade do problema. De fato, uma vez que a dinâmica do sistema é um processo estocástico, não é possível garantir factibilidade da solução frente às restrições impostas. Em outras palavras, pode ocorrer que para um dado período de tempo k, alguns dos limitantes das restrições de estado e controle sejam violados. Uma maneira de contornar esta dificuldade é adotar algum esquema de penalização destas restrições associada ao critério (MINOUX, 1983). A técnica de penalização, no entanto, exige certos ajustes nos parâmetros de penalização, por meio de tentativa e erro, tornando o problema totalmente dependente dos mesmos. Uma maneira de superar esta dificuldade é considerar as restrições em probabilidade, como apresentado em (2). A seguir analisa-se um modo de transformar as restrições probabilísticas em uma equivalente determinística que preserva suas principais características estatísticas.

Seja o sistema dinâmico linear estocástico dado em (1). Assume-se que a variável aleatória d(k) tem uma função distribuição de probabilidade Fd,k do tipo Gaussiana, com média (k)e variância finita Var(d(k)) = Vd(k)>0, conhecidos para todos os períodos k. Note-se que com esta suposição não há perda de generalidade, pois na prática muitos processos estocásticos podem ser aproximados por um processo do tipo Gaussiano (PARLAR, 1985). Assume-se, também, que a variabilidade da variável de controle ao longo do tempo é pequena o suficiente (ou seja, Vu(k)»0), para que se possa considerar desprezíveis os riscos de violação dos limites impostos por sua restrição, ou seja, Vu(k)»0 Þ Prob.(u(k)ÎUk)>g Û u(k)ÎUk, "g. Com base nos pontos acima segue o seguinte lema:

LEMA: sejam b1 e b2 medidas de probabilidade, a serem definidas pelo projetista, segue, então, que a restrição Prob. {x(k+1)ÎXk+1}>a pode ser considerada na forma:

(3)

de onde se obtêm que a<b1+b2-1.

Prova: segue da definição de probabilidade que (PAPOULIS, 1991),

comparando este resultado com (3) deduz-se que a<b1+b2–1.o

A partir deste lema, nota-se que o valor de a , escolhido a priori pelo projetista, é uma função linear das medidas b1 e b2. Ela funciona também como um limite mínimo para seleção destas medidas. Por simplicidade, assume-se que b1=b2=b, o que implica em a<2×b–1. Deste modo, desde que a Î [0,1),o valor de b deverá ser escolhido na faixa [1/2, 1). A partir deste resultado e usando a equação dinâmica (1), pode-se reescrever (3) como segue:

(4)

onde ek=(d(k)-(k))/Vd(k) denota uma variável aleatória Gaussiana normalizada, com a mesma distribuição de d(k), ou seja Fd,k, porém com média zero. Assumindo-se, então que a distribuição inversa existe, pode-se chegar ao seguinte resultado:

(5)

Este resultado mostra que é possível gerar um espaço de factibilidade para a variável de controle que depende do estado observado no período k e da medida de probabilidade b . Os limites mínimo e máximo deste espaço estão definidos em (5) . Deve-se notar que a matriz pseudo-inversa (BBT)-1 deve ser positiva definida para evitar a degeneração deste espaço, ou seja, evitar que ocorra de u(x(k),b)>(x(k),b), para algum k. Por fim, comparando-se o espaço definido em (5) com o espaço físico Uk, definido na seção 3, chega-se ao subespaço Ub(x(k)), cujos limites mínimo e máximo são dados por:

(6)

Uma importante propriedade deste subconjunto está na sua dependência ao valor da medida b, por exemplo, sejam b1 e b2, duas medidas de probabilidade, escolhidas na faixa [1/2,1), segue que:Ub2(x(k))ÍUb1(x(k))"k, se b2>b1 .Isto significa dizer que quanto maior o valor de b , mais restritivo ficao subespaço Ub(x(k)) e por conseguinte a solução do problema tenderá a fornecer custos muito elevados (SILVA FILHO & CEZARINO, 1999).

6. Programação Dinâmica Estocástica

Uma política de controle ótima para o problema (2) pode ser obtida por meio do algoritmo de programação dinâmica estocástica (PDE), técnica desenvolvida na década de 50 por Richard E. Bellman (BELLMAN, 1957). Neste sentido é necessário que a função custo do problema admita a condição de separabilidade, veja BERTESEKAS (1995) e MEIER III et al. (1971). Aceita esta condição, por mais complicado que possa ser o problema, ele pode ser decomposto em uma série de subproblemas que são resolvidos recursivamente para cada um dos períodos do horizonte de tempo. A recursão empregada pelo algoritmo pode ser tanto forward quanto backward no tempo, sendo que para problemas seqüenciais estocásticos, a segunda é a mais adequada. A principal desvantagem deste algoritmo está no alto preço pago, tanto em memória quanto em tempo de processamento computacional, para resolver problemas de grande dimensão.

A dificuldade acima não afeta o objetivo principal deste trabalho que é o de adotar a solução ótima malha fechada, gerada pelo algoritmo PDE, para compará-la com as soluções obtidas pelo emprego de procedimentos alternativos no problema (2).

6.1 Solução Ótima Malha-Fechada via Algoritmo PDE (MF-PDE)

Seja então o problema (2), incluindo agora a restrição definida em (6):

(7)

Com o custo funcional em (2) satisfazendo a condição de separabilidade no tempo, pode-se aplicar o Princípio da Otimalidade (MEIER III et al., 1971) ao problema (7), obtendo-se uma série de subproblemas que são resolvidos recursivamente. Este procedimento é dado como segue:

Considere que no período k, o estado x(k) seja exatamente conhecido, então a política ótima de controle capaz de levar o estado do sistema do período k até o período final N, é aquela que resolve o seguinte subproblema:

(8)

Supondo-se então que a seqüência aleatória {d(i), i = k, ..., N-1} seja independente, pode-se rescrever (8) como segue:

permitindo assim escrever que,

(9)

onde (9) representa a equação recursiva da programação dinâmica, sendo resolvido backwardno tempo, a partir de uma condição terminal fixada para o custo funcional, isto é, J(x(N))=f(x(N)).

Resumindo: aplicar a técnica PDE ao problema (7) significa implementar e resolver recursivamente o seguinte algoritmo:

(10)

Como solução de (10) obtêm-se uma política ótima de controle malha-fechada, dada por:

(11)

onde µk(×):Ân®Âm denota a relação funcional do controle ao valor corrente do estado do sistema, para cada período k. O valor ótimo do custo funcional é dado por J*=J0(x(0)), para uma dada condição inicial x(0) definida pelo projetista.

7. Procedimentos Subótimos

A dificuldade de se obter uma solução ótima malha-fechada para o problema (2) tem levado à busca de procedimentos que produzem soluções aproximadas ou subótimas (NECK, 1984). Estes procedimentos tomam por base simplificações impostas à estrutura original do problema, possibilitando assim o emprego de técnicas de otimização antes inviáveis. Nesta seção analisa-se quatro tipos distintos de procedimentos subótimos. Estes procedimentos distinguem-se pela forma com que utilizam as informações disponíveis observadas sobre o estado do sistema e sobre as estatísticas relacionadas com as distribuições de probabilidade da variável perturbação.

7.2 Procedimento MVC (Mean-Value Controller)

Este procedimento apóia-se no princípio da equivalência-certeza (THEIL, 1957), que assume que toda informação disponível sobre as variáveis de estado e perturbação está fixada em seus respectivos valores médios. Por conseguinte, o problema (2) pode ser aproximado por um problema determinístico, cuja solução pode ser obtida por meio de alguma técnica da teoria de controle moderno, como por exemplo o Princípio do Máximo de Pontryagin (PARLAR, 1985) ou de algum método aplicável da programação matemática (LASSERE et al, 1985). Note-se que esta solução seria ótima malha-fechada para o problema estocástico (2), caso o comportamento das flutuações de demanda, para os períodos futuros, ocorresse exatamente igual aos valores médios estimados para demanda.

Aqui neste trabalho adota-se o algoritmo de programação dinâmica determinística (PD) como técnica de solução deste procedimento. Para tal, considere-se o problema (2) centrado no valor médio de suas variáveis, isto é, (k)=E{d(k)}Þ(k)=E{x(k)} e û(k)=u(k), para todo k. Um ponto importante aqui é que, sendo (2) determinístico, as restrições de controle e de estado não precisam ser tomadas em probabilidade. O procedimento MVC com a utilização do algoritmo de programação dinâmica (PD) é dado como segue:

(12)

onde, û(k)ÎU(

(k))que tem os seguintes limitantes:

É importante acrescentar que a solução fornecida por (12) pode ser chamada de malha-aberta, pois medidas observadas do estado real (corrente) do sistema são ignoradas durante o processamento deste procedimento. Com isto pode-se dizer que ele opera segundo a estratégia de simplificação MASO discutida na seção 4.

7.2 Procedimento NFC (Naive Feedback Controller)

A idéia básica deste procedimento é considerar as incertezas do sistema fixadas em algum valor conhecido, por exemplo, em seu valor médio. Este procedimento distingue-se do anterior pelo fato de que, em cada novo período de tempo k, ele aplica na entrada do sistema uma lei de controle que leva em conta o estado real do sistema. Basicamente, o procedimento NFC opera segundo os seguintes passos (SILVA FILHO, 1998):

(Passo 1) No início do período k, o estado real do sistema (1) (isto é, x(k)) é observado.

(Passo 2) Esta informação é empregada como condição inicial (isto é, (i)=x(k)) na solução de uma versão determinística equivalente ao problema (2), formulada via algoritmo PD como segue:

(13)

(Passo 3) Uma vez que novas medidas do sistema não são permitidas, a solução é uma seqüência de controle determinística {û(i),û(i+1), ,û(N)}. Segue, então, que o NFC adota o primeiro elemento da seqüência u*(k)=û(i) para atuar no sistema, ignorando os demais. Por conseguinte, tão logo uma nova medida de estado é observada do sistema, no instante i=k+l, o procedimento volta ao passo 2 e o problema (13) é resolvido para o horizonte i=k+1, ,N.

Comentários: Assim, tem-se que o procedimento NFC requer que a versão determinística do problema (2) seja resolvida um total de N vezes. Este procedimento opera segundo a estratégia MACO discutida na seção 4.

7.3 Procedimento OLFC (Open-Loop Feedback Controller)

Oprocedimento OLFC preserva a natureza estocástica do sistema. Para isto ele leva em conta as incertezas acerca de x(k) e d(k), quando calcula a variável de controle u(k). Isto torna este procedimento mais complicado que o NFC, pois é necessário conhecer as distribuições de probabilidade da perturbação d(k) e do estado x(k). O procedimento pode ser descrito pelos seguintes passos (SILVA FILHO & CARVALHO, 1998):

(Passo 1) Para cada instante k=0, 1, ..., N-1, tão logo uma nova medida do estado do sistema x(k) seja observada, atualiza-se o estado inicial =x(k).

(Passo 2) Com esta informação em mãos, calcula-se a seguinte seqüência de controle {u(i), u(i+l), , u(N-1)} através do algoritmo PD:

(14)

com a função custo média calculada como segue,

(15)

onde Fx denota a distribuição de probabilidade de estado, que é calculada considerando a natureza linear estocástica do sistema.

(Passo 3) Uma vez que novas medidas do sistema não são permitidas, a solução é uma seqüência de controle determinística {û(i), û(i+1), ,û(N)}; segue então, como no procedimento anterior, que o OLFC adota o primeiro elemento da seqüência u*(k)=û(i) para atuar no sistema, ignorando todos os demais elementos da seqüência. Por conseguinte, tão logo uma nova medida de estado é observada do sistema, no instante i=k+l, o procedimento volta ao passo 2 e o problema (14) é resolvido para os períodos i=k+1, ..., N.

Comentários: Deve-se notar que o OLFC distingui-se do NFC na medida que o custo ótimo é calculado usando as estatísticas relacionadas com as variáveis aleatórias do critério. Do mesmo modo, o espaço de controle leva em conta a natureza estocástica do problema u(i) Î Ub(x(i)), sendo calculado de modo análogo ao discutido na seção 5. Este procedimento segue a estratégia de simplificação EECO, discutida na subseção 4.3.

Uma variante do OLFC, que permite obter resultados melhores, é o POLFC (Partial Open-Loop Feedback Controller). Este procedimento é análogo ao OLFC, a menos que ele utiliza medidas futuras das incertezas quando disponíveis (por exemplo, pelas previsões). Para ilustrar, considere o caso onde, dentro de um período de planejamento de N meses, informações sobre a demanda estarão disponíveis somente para os primeiros M meses (M <N). Conseqüentemente, as decisões sobre quanto produzir no período k=0 serão baseadas no conhecimento de que é possível fazer correções nos níveis de produção para os próximos M meses. No período k=1, existirão somente M-1 ações corretivas para o futuro e assim por diante (vide BERTESEKAS, 1995).

7.4 Procedimento PMF (Parcialmente em Malha-Fechada)

A idéia básica é adicionar um mecanismo de realimentação associado a uma política de controle malha-aberta gerada a partir de um problema determinístico equivalente ao problema (2) (para detalhes veja SILVA FILHO & VENTURA, 1999). Este problema determinístico é resultado da aplicação da estratégia simplificadora EE, discutida na subseção 4.3. Por simplicidade, este esquema de realimentação pode ser dado por um ganho linear Gk, o qual ajustará as variáveis de controle a cada período k, de modo a corrigir possíveis desvios dos estados, no período k+1, em relação aos níveis médios ótimos gerados a partir da solução de um problema determinístico equivalente (SILVA FILHO, 1996). Segue, então, uma breve descrição deste procedimento subótimo: seja uma regra de decisão linear (RDL) para o problema (2) dada por:

(16)

onde û(k) e

(k)são obtidos resolvendo-se o seguinte problema determinístico equivalente:

(17)

onde F(.) são calculadas de modo análogo a (15) e os limites mínimos e máximos dos espaços de estado e controle dados respectivamente por (SILVA FILHO & VENTURA, 1999):

(18)

(19)

onde Vx e Vu representam as variâncias do estado e controle respectivamente, que tem suas funções distribuições inversas dadas por e . Note-se que para o uso deste procedimento é necessário considerar toda informação estatística disponível relacionada com as variáveis de estado, controle e perturbação. Assumindo-se a hipótese de um processo Gaussiano para a seqüência de variáveis aleatórias d(k) e considerando ainda o fato de a dinâmica do sistema (1) ser linear, pode-se afirmar que toda a informação estatística, para efeito de derivação deste procedimento, resume-se no emprego da média e variância de cada uma das variáveis envolvidas.

Uma questão particular aqui é que as variâncias de estado e controle, quando tomadas para o sistema (1) sem o ajuste ótimo fornecido pelo regulador linear Gk definido em (16), têm a tendência de crescerem ao longo dos períodos, atingindo seus respectivos valores máximos no último e penúltimo período de tempo (isto é, em Vx(N) e Vu(N-1)). Isto pode ser explicado pelo fato de que, quanto mais distante do presente a decisão é para ser tomada, maiores são os riscos e as incertezas, devido principalmente às flutuações aleatórias da demanda. Uma conseqüência negativa disto é que os espaços definidos pelos limites dados em (18) e (19) tendem a estreitar-se, podendo ocasionar a degeneração de uma ou ambas restrições, tornando assim o problema (17) infactível (SILVA FILHO, 1996). Para reduzir este risco é necessário encontrar um ganho ótimo que minimize o crescimento no tempo de ambas variâncias. Para este fim, um problema de Variância Mínima (ASTRON, 1970) pode ser proposto:

(20)

onde Vx(k+1) = (A+BGk)Vx(k)(A+BGk)T + Vd(k) e Vu(k)=×Vx(k)denotam a evolução das variâncias e lk denota o termo de compromisso entre as variâncias de estado e controle. Resolvendo-se (20) obtém-se uma representação analítica para o ganho linear que é dada por: Gk = –(BTA)× [lkI+BBT]-1, onde IÎÂnxn denota a matriz identidade. Para escolha do ganho ótimo , deve-se inicialmente determinar, por algum procedimento de busca, o valor de lkÎÂ+que minimiza a soma acumulada dos valores das variâncias de estado e controle até os períodos k e k–1, respectivamente, ou seja, Minj(lk)=Vx(k)+Vu(k–1).

8. Estudo de Caso

Considere-se uma firma que produz uma grande variedade de produtos distintos, porém bastante similares em termos do uso dos recursos de produção (ou seja, idêntico uso da capacidade de produção, aproximadamente o mesmo tempo de set-up, quantidade fixa de mão-de-obra e flutuação de demanda estatisticamente similar). Com estas características, torna-se possível propor, com certa confiabilidade, a agregação deste diferentes produtos em uma única família de produtos. Assim, a idéia é desenvolver um plano ótimo de produção multiperíodo para esta família, que forneça os níveis ótimos de estoque e produção resultantes da solução do seguinte problema estocástico:

(21)

O objetivo deste plano é fornecer uma visão ao gerente sobre o uso dos recursos agregados da firma e portanto ajudá-lo na tarefa de antecipar decisões gerenciais que melhorem o processo de tomada de decisão da cadeia de decisão como um todo. Os dados principais do problema estão resumidos na Tabela 2.

É importante acrescentar que para este estudo de caso, considerou-se tanto a quanto g iguais a ½. Isto significa que se assume o risco de obter soluções infactíveis, ou seja, que violem os limitantes físicos impostos pelas restrições de estoque e produção (vide (21)) para algum k.

Com base nestes dados, pretende-se analisar numericamente o efeito da aplicação dos diferentes procedimentos, estudados na seção 7, na solução do problema de planejamento (21). Os procedimentos aplicados são colocados na seguinte ordem: (a) procedimento Malha-Fechada via PDE (MF-PDE); (b) procedimento MVC; (c) procedimento NFC; (d) procedimento OLFC; e (e) procedimento PMF. Os procedimentos (b), (c), (d) e (e) terão suas trajetórias subótimas de produção e estoque, além do custo final obtido comparados com os resultados da solução ótima malha-fechada (a).

Outro detalhe importante a ser considerado, relacionado à aplicação do algoritmo de programação dinâmica, diz respeito ao passo de discretização (Dp). Neste estudo adotou-se Dp=1 para formar o grid de possibilidades relacionados aos espaços de estoque, produção e demanda. Com isto, a faixa de variação que compreende os limites mínimo e máximo de cada variável de decisão do problema será discretizada tendo como intervalo Dp=1.

8.1 Solução Malha-Fechada via PDE (MF-PDE)

Para aplicação do algoritmo de PDE, deve-se inicialmente definir qual é o espaço de variabilidade da demanda. Neste sentido, considera-se os dados fornecidos na Tabela 1 sobre a média e desvio padrão da variável de demanda d(k) e determina-se os seguintes limites (mínimo e máximo) como segue: d(k)=(k)-2,58× e (k)=(k)+2,58×. Desta forma garante-se uma concentração em torno de 99% do espaço de ocorrência da variável aleatória d(k) (vide CHOU, 1972, páginas 105-110).

Aplicando-se então o algoritmo (10) ao problema (21), segue que o custo ótimo da operação foi de $ 1,560. As trajetórias ótimas de estado e controle relacionadas com esta operação (ou seja, o plano ótimo de produção) são dados como ilustra a Figura 2.


8.2 Soluções Geradas pelos Procedimentos Subótimos

Usando os resultados discutidos na seção 7, implementou-se os procedimento subótimos pelo emprego do algoritmo de programação dinâmica (PD). Com exceção do procedimento MVC, os demais procuram tirar vantagem da informação disponível, ou seja, eles usam o nível de estoque medido do sistema, no início de cada mês, para atualizar suas respectivas soluções. Em particular o procedimento PMF mereceu um pouco mais de atenção, em virtude dele requerer a determinação do ganho ótimo Gk. Neste caso, o primeiro passo foi calcular o valor ótimo do parâmetro de ponderação lk. Para isto, adotou-se um esquema de busca, num intervalo de (0, +¥), visando minimizar a função j(lk) = Vx(k) + Vu(k–1), definida a partir do problema (20). Os valores acumulados de Vx(k) e Vu(k-1) são determinados a partir das seguintes equações:

(22)

Sem perda de generalidade, foi assumido que =lN"k. A razão disto é que o valor obtido para lk no período k=N contém a situação onde o crescimento das variâncias dadas em (22) atinge seu valor máximo, o que pode levar à inviabilização do procedimento PMF (vide SILVA FILHO, 1996 para maiores detalhes). Como resultado, o valor ótimo obtido neste processo de busca foi l*=0.85, o que implicou em um ganho ótimo de G*(l)=0.46.

Análise dos Resultados: a solução Malha-Fechada, obtida pelo procedimento MF-PDE, oferece uma solução ótima global para o problema (21), desde que escolhe dentro de todas as possibilidades disponíveis nos espaços das variáveis de decisão do problema, aquela de menor custo. Entretanto, como visto na seção 6, ela é uma solução cara e muitas vezes inviável para problemas de grande dimensão. Deste modo, os procedimentos subótimos, em particular aqueles que utilizam algum esquema de realimentação, são preferíveis para geração de planos de produção. A Tabela 3 confirma esta característica; a partir dela, verifica-se que o procedimento malha-fechada apresenta o menor custo, enquanto que a solução malha-aberta MVC traz o custo mais alto. Conseqüentemente, eles oferecem os limites extremos para identificarmos qual o procedimento que apresenta a estratégia mais adaptativa, como discutido na seção 4. Neste sentido, comparando-se os custos gerados pelos procedimentos subótimos, apresentados na Tabela 3, conclui-se que: JMF<JPMF<JOLFC<JNFC<JMVC. Assim, pode-se observar que o procedimento mais adaptativo, ou seja de melhor desempenho, foi o PMF. Isto não deve causar surpresa, haja visto que ele utiliza um mecanismo de realimentação, baseado na estratégia RDL (vide seção 4), para atualização dos níveis de estoque observados do sistema, a cada período de tempo k.

É interessante acrescentar que este tipo de solução pode substituir a solução MF-PDE no que tange a fornecer uma visão da utilização dos recursos e também para fornecer um plano ótimo de produção que possa ser empregado, como metas de produção, na cadeia hierárquica de decisões, como discutido na seção 2.

As políticas ótimas de estoque e produção, para cada um destes procedimentos, são apresentadas na forma de trajetórias (curvas) de estoque e produção pela Figuras 4(a)-(d) , sendo comparadas individualmente, com as trajetória ótimas do procedimento MF-PDE.




Uma interessante observação destes resultados é que as trajetórias fornecidas pelos procedimentos NFC e OLFC (Figuras 4(b) e 4(c)) são mais sensíveis às flutuações de demanda que o procedimento PMF (Figura 4(d) ). Um explicação para este fato está no emprego do ganho ótimo Gk que funciona como um regulador capaz de ajustar, de modo suave, a política de produção em respostas às oscilações de demanda.

A seguir analisa-se o emprego da solução PMF em um processo de simulação, onde o objetivo é desenvolver cenários que possibilitem à gerência adquirir uma visão antecipada sobre o uso dos recursos industriais da firma.

8.3 Análise de Cenários Usando o Procedimento PMF

Para efeito de simulação do procedimento PMF, adota-se o diagrama da Figura 5. Neste diagrama, as variáveis (k)e û(k), que denotam, respectivamente, as trajetórias ótimas de estoque e produção obtidas usando o procedimento PMF (Figura 4(d) ), são utilizadas como referência (metas) durante a execução da simulação. As variáveis x(k) e u(k) conterão as decisões simuladas de estoque e produção para cada período k.


A simulação foi realizada para um horizonte de planejamento de vinte e quatro meses (isto é, N=24); para obter este efeito, as trajetórias do procedimento PMF (Figura 4(d) ), para os 12 meses iniciais, foram replicadas para os doze meses consecutivos (ou seja, k=13, 14, ..., 24). O objetivo disto foi oferecer uma visão de longo prazo à gerência. Considerou-se, ainda, que as flutuações de demanda foram geradas a partir de um modelo de previsão não estacionário sazonal, dado por: d(k) = (6.0+0.25× k)× (1+seno(3.14× k/6))+ z(k), onde z(k) é gerado aleatoriamente a partir de uma distribuição normal com média 0 e desvio padrão ½. A Figura 6 ilustra os resultados obtidos.


A principal observação, extraída desta análise, é que o esquema de realimentação definido pelo ganho linear Gx promove os ajustes necessários na política de produção u(k), de modo que as trajetórias simuladas mantêm-se sempre próximas dos níveis desejados pela gerência, para o uso dos recursos de produção, mesmo sob o efeito das incertezas de demanda.

9. Conclusão

Neste artigo discutiu-se procedimentos subótimos para solução de problemas de planejamento da produção seqüenciais estocásticos. Foram analisados e comparados, com a solução ótima malha-fechada (MF-PDE), quatro procedimentos da literatura: MVC, NFC, OLFC e o PMF. O procedimento PMF foi o que apresentou maior adaptabilidade à solução malha-fechada e, como era de se esperar, o MVC, técnica malha-aberta, foi o que apresentou o pior desempenho. A principal vantagem destes métodos seqüenciais em comparação com os métodos estáticos é que eles permitem manter a característica temporal do problema estocástico original, além de permitir que observações sobre o estado das variáveis de decisão possam ser incorporadas à solução do problema. Este aspecto garante maior confiabilidade no emprego desta solução dentro da cadeia hierárquica de decisões. Outra vantagem foi observada com o emprego do procedimento PMF, que devido a sua característica de utilizar informações extraídas diretamente do sistema dinâmico, via um esquema de realimentação, tem-se mostrado um recurso a mais para ajudar os gerentes a obterem uma visão racional sobre o uso dos recursos materiais de produção da firma.

Agradecimento

Ao CNPq pelo apoio através do processo no: 52.0196/96-1 e aos anônimos revisores pelas sugestões de melhoria do texto.

  • APICS Dictionary:The American Production and Inventory Control Society, 500 West Annadale Road, Falls Church, Virginia, 5th Edition, 1994.
  • ASTRON, K.J.:Introduction to Stochastic Control Theory, Academic Press, N.Y., 1970.
  • BELLMAN R.:Dinamic Programming, Princeton University Press, Princenton, USA. 1957.
  • BERTESEKAS, D.P.:Dynamic Programming and Optimal Control, vol. 1, Athena Scientific, Belmont, USA, 1995.
  • BITRAN, G.R. & YANASSE, H.H.: "Deterministic Approximations to Stochastic Production Problems", Operations Research, 5, 999-1018, 1984.
  • BRYSON, A.R. & HO, Y.:Applied Optimal Control, Hemisphere Publishing Corp., N.Y., 1975.
  • CHARNES, A. & COOPER, W.W.: "Chance-Constraint Programming", Management Science, 6, p. 73-79, 1959.
  • CHOU, Y.:Probability and Statistics for Decision Making, Holt, Rinehart & Winston, N.Y., 1972.
  • GERSHWIN, S.B.; HILDERBRANT, R.R.; SURI R. & MITTER, S.: "A Control Perspective on Recent Trends in Manufacturing Systems", IEEE Control System Magazine, vol. 6, n. 2, p. 3-15, 1986.
  • GERSHWIN, S.B.: "Opportunities for Control in Manufacturing", IEEE Trans. on Automatic Control, vol. AC-30, n. 9, 1985.
  • GONEDES, N.J. & LIEBER, Z.: "Production Planning for Stochastic Demand Process", Operations Research, vol. 22, p. 771-787, 1974.
  • GRADY, P.J. & BONNEY, M.C.: "A General Approach to Linear-Quadratic Production Planning Problems". In: DOUMEINGTS, G. et al. (Eds.): Advances in Production Management Systems, Elsevier Science Publishers (North-Holland), p. 183-191, 1984.
  • HAY, G.A. & HOLT, C.C.: "A General Solution for Linear Decision Rules: An Optimal Dynamic Strategy Applicable under Uncertainty", Econometrica, 25, p. 346-349, 1975.
  • HAX, A.C. & CANDEA, D.:Production and Inventory Management, Prentice-Hall, N.J., 1984.
  • KLEINDORFER, P.R.: "Stochastic Control Models in Management Science: Theory and Computation". In: BENSOUSSAN, A. et al. (Eds.): Applied Optimal Control. North-Holland, p. 69-88, 1978.
  • KLEINDORFER, P.R. & GLOVER, K.: "Linear Convex Stochastic Optimal Control with Applications in Production Planning", IEEE Trans. on Automatic Control, AC-18, p. 56-59, 1973.
  • LASSERE, J.B.; BES, C. & ROUBELAT, F.: "The Stochastic Discrete Dynamic Lot Size Problem: An Open-Loop Solution", Operations Research, vol. 3, n. 3, p. 684-689, 1985.
  • MEIER III, L.; LARSON, R.E. & TETHER, A.J.: "Dynamic Programming for Stochastic Control of Discrete Systems", IEEE Trans. on Automatic Control, vol. AC-16, 6, p. 767-775, 1971.
  • MINOUX, M.: Programmation Mathematique: Theory et Algorithmes, Dunod, Paris, 1983.
  • NECK, R.: "Stochastic Control Theory and Operational Research", European Journal of Operational Research, 17, p. 283-301, 1984.
  • NELLEMANN, D.O. & HARMON, R.L.: Developing the Production Plan in: Computer in Manufacturing, vol. 2, Auerbach Publishers Inc., 1986.
  • PARLAR, M.: "A Stochastic Production Planning Model with a Dynamic Chance Constraint", European Journal of Operational Research, 20, p. 255-260, 1985.
  • PAPOULIS, A.: Probability, Random Variables, and Stochastic Processes, McGraw-Hill, 1991.
  • RAO, S. & SCHNELLER IV, G.O.: "On the Stochastic Non-sequential Production Planning Problem", Journal of the Operational Research Society, 3, p. 241-247, 1990.
  • SHEN, R.F.C.: "Aggregate Production Planning by Stochastic Control", European Journal of Operational Research, 73, p. 346-359, 1994.
  • SETHI, S.P.: "A Survey of Management Science Applications of the Deterministic Maximum Principle", In: BENSOUSSAN, A. et. al. (Eds.): Applied Optimal Control. North-Holland, Amsterdam, p. 33-67, 1978.
  • SILVA FILHO, O.S.: "An Aggregate Production Planning Model with Demand under Uncertainty," Production Planning and Control, Taylor and Francis Ltd, vol. 10, 8, p. 745-75, 1999.
  • SILVA FILHO, O.S. & VENTURA S.D.: "Optimal Feedback Control Scheme Helping Manager to Adjust Aggregate Industrial Resources", Control Engineering Practice, vol. 7, p. 555-563, 1999.
  • SILVA FILHO, O.S. & CEZARINO, W.: "Providing Optimal Production Policies for Make to Stock Systems", 14th World IFAC Congress, vol. A, p. 249-254, 1999.
  • SILVA FILHO, O.S.: "A Constrained Optimal Control Problem with Application to Production Planning", In: PEREIRA, C.E & KOPACEK, P. (Eds.): 5th IFAC Workshop on Intelligent Manufacturing Systems, p. 339-344, Gramado, Brazil, 1998.
  • SILVA FILHO, O.S. & CARVALHO, M.: "A Revised Optimal Production Planning by Sequential Sub-optimal Approach". In: MOREL, G. & VERNADAT, F. (Eds.): 9th Conference INCOM'98, vol. 2, p. 473-478, Nancy-Metz, France, 1998.
  • SILVA FILHO, O.S.: "A Linear Feedback Rule for Stochastic Production Planning", 13th IFAC World Congress, vol. B, p. 1-6, San Francisco, 1996.
  • SINGHAL, K.; FINE, C.H.; MEREDITH, J.R. & SURI, R.: "Research and Model for Automated Manufacturing", Interfaces, 17:6, p. 5-14, 1987.
  • SINGH, M.G. & HINDI, K.: "A Multilevel Multilayer Framework for Manufacturing Control", Journal of Intelligent and Robotic Systems, n. 4, p. 75-93, 1991.
  • SURI, R.: "Quantitatives Techniques for Robotics Systems Analysis". In: NOF, Shimon Y. (Ed.): Handbook of Industrial Robotics, John Wiley and Sons, New York, p. 605-638, 1985.
  • THEIL, H.: "A Note on Certainty Equivalence in Dynamic Planning", Econometrica, 25, p. 346-349, 1957.
  • Datas de Publicação

    • Publicação nesta coleção
      15 Dez 2004
    • Data do Fascículo
      Dez 2000
    Universidade Federal de São Carlos Departamento de Engenharia de Produção , Caixa Postal 676 , 13.565-905 São Carlos SP Brazil, Tel.: +55 16 3351 8471 - São Carlos - SP - Brazil
    E-mail: gp@dep.ufscar.br