SciELO - Scientific Electronic Library Online

 
vol.17 issue3Evaluation of process failure prevention using decision-making methodsEWMA and X-bar control charts for the monitoring of autocorrelated processes author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

Share


Production

Print version ISSN 0103-6513On-line version ISSN 1980-5411

Prod. vol.17 no.3 São Paulo Sept./Dec. 2007

http://dx.doi.org/10.1590/S0103-65132007000300009 

Otimização conjunta de gráficos de X-barra – S ou X-barra – R: um procedimento de fácil implementação

 

Joint optimization of X-bar – S or X-bar – R charts: an easily implemented procedure

 

 

Eugenio K. Epprecht; Adriana Leiras

PUC-Rio

 

 


RESUMO

Este trabalho desenvolve um modelo para escolha ótima dos parâmetros de operação de gráficos de X-barra e R (ou de X-barra e S) que minimiza a razão entre o custo de amostragem e a rapidez de detecção de desvios na média ou aumentos na dispersão do processo. Admitem-se três formas alternativas para o problema: minimizar os tempos médios de sinalização sob uma restrição ao custo de amostragem; minimizar esse custo sob uma restrição aos tempos de sinalização; e o problema multiobjetivo de minimizar o custo e os tempos de sinalização. Restrições adicionais são permitidas, para tratar de variantes do problema encontráveis na prática. O procedimento evita a complexidade dos modelos de projeto econômico usuais. São detalhados métodos para determinação dos poucos parâmetros de especificação e entrada exigidos pelo modelo. Um exemplo mostra que o procedimento é de fácil aplicação. Tudo isto aumenta sua aplicabilidade para um grande espectro de situações práticas típicas.

Palavras-chave: Controle estatístico de processos, gráficos de controle, projeto semi-econômico, otimização, multiobjetivo


ABSTRACT

A model is developed for optimum choice of the operation parameters for X-bar - R (or X-bar - S) charts, which minimizes the ratio of sampling costs to detection speed of shifts in the process mean or increases in the process dispersion. Three alternative problem formulations are allowed: minimization of the average time to signal subject to a sampling cost constraint; minimization of the sampling cost subject to a constraint on the average times to signal; and multi-objective optimization of both the average time to signal and the sampling cost. Through optional additional constraints, several practical variants of the problem are admitted. The procedure avoids the complexity of usual economic design models, and methods for determining the values for the few input and specification parameters required are given in detail. An example shows that the procedure is easy to apply. All these features increase its applicability for a wide range of typical practical situations.

Key words: Statistical process control, control charts, semi-economic design, optimization, multi-objective.


 

 

INTRODUÇÃO

A implementação do controle estatístico de qualidade de um processo por gráficos de controle traz em seu bojo o problema do planejamento do gráfico, i.e., da escolha dos valores para os seguintes parâmetros: n (tamanho de amostra), h (intervalo de tempo entre amostras consecutivas), e distância dos limites de controle à linha média do gráfico.

Os valores desses parâmetros influenciam diretamente a rapidez com que o gráfico detectará alterações no processo, bem como a freqüência de ocorrência de alarmes falsos, além dos custos de amostragem para monitoramento do processo. Os objetivos de maximizar a rapidez de detecção de alterações no processo, minimizar a freqüência de ocorrência de alarmes falsos e minimizar os custos de amostragem são conflitantes, configurando um problema de otimização. Esse problema tem recebido diversas formulações e tratamentos. O mais simples é a recomendação de retirar "periodicamente" (sem maior orientação sobre o intervalo de tempo) amostras "pequenas" e usar limites de controle de "3-sigma" (Saniga (1989) reporta: "The heuristic usually attributable to Shewhart (1931) takes a sample of size 4 or 5, sets three-sigma control limits on both charts (...), and samples once every hour for high-volume processes. The last factor, sampling frequency, is usually not precisely stated. Duncan (1986) wrote that ‘samples consist of four or five items taken fairly frequently’."). Os tratamentos mais sofisticados contam com os modelos ditos econômicos, que otimizam uma função-objetivo "custo total esperado por tempo", considerando, para a composição do custo total, uma série de custos básicos, como: os custos de retirar e examinar uma amostra, calcular suas estatísticas e lançá-las nos gráficos; o custo por unidade de tempo de operar com o processo fora de controle, produzindo unidades não-conformes; o custo de investigar um alarme falso; o de investigar um alarme verdadeiro e eliminar a causa especial e, eventualmente, outros custos, conforme o modelo; todos esses custos expressos em unidades monetárias, ou numa mesma unidade. Tais modelos ainda consideram diversos intervalos de tempo, que compõem o "ciclo" entre o início do processo e seu reinício após ocorrência, detecção, investigação e eliminação da causa especial. Isto requer suposições sobre a forma e os parâmetros da distribuição do tempo que o processo permanece sob controle. O trabalho pioneiro nesta linha foi o de Duncan (1956), seguido pelos de Gibra (1969, 1975), Baker (1971), Ladany (1973), Ladany et al. (1975, 1976), Chiu (1975) e Montgomery et al. (1975). Lorenzen e Vance (1986) estenderam o modelo original de Duncan (1956) para uma forma genérica aplicável a uma grande variedade de gráficos de controle. Seguiram-se, entre outros, os trabalhos de Saniga (1977, 1979), Collani (1985, 1986, 1987, 1997), Del Castillo e Montgomery (1993), Turnes et al. (2002, 2004), Turnes e Ho (2004, 2005). A literatura neste tema é vasta. As obras aqui citadas são apenas exemplos de trabalhos, na maioria relacionados aos gráficos de , isolados ou em conjunto com gráficos de R ou de S. Revisões mais abrangentes são encontradas em Montgomery (1980), Svoboda (1991), Ho e Case (1994) e Keats et al. (1997). Uma introdução, com alguma discussão e exemplos numéricos, é encontrada em Montgomery (2001, seção 9-6).

Apesar de a abordagem de planejamento econômico pretender levar em conta todos os custos e tempos relevantes (podendo, neste sentido, ser considerada a forma mais completa de planejar um esquema de controle), ela também possui limitações: Woodall (1986) criticou-a com base na inadequação da representação de certos custos e mostrou que, por exemplo, algumas soluções ótimas obtidas por Gibra (1978) levavam a uma probabilidade de alarme falso de 32%, o que indica que aspectos importantes deixaram de ser considerados pelo modelo. Saniga (1989) e Keats et al. (1997) reportam uma probabilidade de alarme falso de aproximadamente 20% em um dos exemplos de Duncan (1956). Tal limitação, porém, é fácil de solucionar, pelo acréscimo de restrições estatísticas adequadas, como um limite mínimo para o NMA0 (número médio de amostras até um alarme falso), ou ainda um NMA máximo (número médio de amostras até um alarme verdadeiro) para alguma alteração na média ou na dispersão do processo diferente daquela para a qual o esquema está sendo otimizado, e ainda, se desejado, restrições a algum dos parâmetros de implementação: n ou h. Os modelos resultantes de tal incorporação de restrições estatísticas a modelos econômicos são classificados como modelos econômico-estatísticos. Vide, por exemplo, Saniga (1989), que é um trabalho pioneiro no assunto, e também Saniga et al. (1995).

Ainda assim, e apesar do grande número de trabalhos de pesquisa em modelos de planejamento econômico e em planejamento econômico-estatístico, o uso de tais modelos é muito raro na prática. Uma possível explicação para este fato é que os parâmetros por eles demandados (referentes aos diversos custos básicos e aos valores – ou distribuições – dos diversos tempos que compõem o ciclo) são na maioria das vezes desconhecidos e trabalhosos de determinar na prática, dificultando a sua implementação. Vários autores argumentam que não seria necessário estimar estes parâmetros com precisão, dado que a superfície da função-objetivo (custo total por tempo) é muito achatada na vizinhança do ótimo. Não está no escopo deste artigo fazer uma análise de sensibilidade de modelos econômicos, inclusive pela dificuldade de generalizar resultados de diferentes casos; porém, mesmo não sendo necessário fornecer os valores dos parâmetros de custo com muita precisão, os modelos continuam pouquíssimo usados na prática (como constatado e reportado por Chiu e Wetherill (1975) e por Saniga e Shirland (1977), sendo que, passados 20 anos, no conhecimento dos autores do presente artigo, a situação não mudou). Talvez em muitos casos o problema seja o mero desconhecimento de tais modelos; talvez, em outros, a dificuldade de compreendê-los. Na vivência dos autores deste artigo – corroborada pela de colegas –, freqüentemente as pessoas na indústria têm resistência a aplicar modelos que não compreendem bem, pois não têm confiança neles. Finalmente, em outros casos, é possível que os utilizadores dos gráficos tenham dificuldade de fornecer estimativas mesmo não muito precisas dos parâmetros requeridos. Montgomery (2001, pág. 494) ecoa essas constatações, e atribui as causas a (pelo menos) a relativa complexidade dos modelos, que, além disso, costumam ser apresentados de forma que é difícil para o praticante entender e usar. Menciona que não é necessário estimar custos com alta precisão, mas salienta a necessidade de programas para obtenção das soluções ótimas (cuja disponibilidade está aumentando, argumenta).

A meio caminho entre a escolha de valores empíricos (ou arbitrários) para os parâmetros dos gráficos e o uso de modelos econômicos ou econômico-estatísticos complexos para esta escolha, situam-se os modelos estatísticos e os modelos semi-econômicos. Nos primeiros, as probabilidades de alarme falso e o poder do gráfico (ou outra medida alternativa de "rapidez de detecção", como o NMA) são especificados. Com base na probabilidade de alarme falso especificada, são determinados os limites para o(s) gráfico(s) e, com base no poder ou no NMA especificado, é determinado o tamanho de amostra. O intervalo de tempo entre amostras pode ser ainda determinado com base em outras considerações (por exemplo, se houver sido especificado um limite para o valor esperado do tempo até um alarme verdadeiro), mas muitos dos modelos estatísticos não tratam da freqüência de amostragem. Exemplos de trabalhos nessa categoria são Saniga (1984) e Woodall (1985).

Os modelos semi-econômicos consideram alguns custos e algumas grandezas associadas a custos, como por exemplo: o custo de amostragem, a freqüência de alarmes falsos e o tempo até a detecção de um descontrole. Destes últimos, há modelos de otimização para gráficos isolados. Trabalhos pioneiros são, entre outros, o de Girshik e Rubin (1952) e o de Weiler (1952). Descrições sucintas e comentadas destes trabalhos são encontradas, respectivamente, em Montgomery (2001, seção 9-6.4) e em Epprecht e Santos (1998, seção 7). Estes últimos autores desenvolveram um modelo para gráficos de , que fornece os valores para os parâmetros do gráfico que, com uma restrição de custo máximo de amostragem, minimizam o tempo até a detecção de um descontrole (problema primal), ou que, a partir de uma restrição no tempo até a detecção de um descontrole (limite máximo para o seu valor esperado), minimizam o custo de amostragem (problema dual). Em ambos os casos, maximiza-se a razão entre a rapidez de detecção de descontroles e o gasto com amostragem, i.e., a eficiência do gráfico. Este modelo, que considera o custo de amostragem proporcional ao tamanho de amostra, foi mais tarde estendido para incorporar uma parcela fixa a esse custo (EPPRECHT; TEIXEIRA, 2001). O modelo também foi aplicado a gráficos EWMA (EPPRECHT et al., 1998) e a gráficos por atributos (ASTOLFI; HAMACHER, 2001). A otimização de gráficos de isoladamente possui uma limitação: tais gráficos são utilizados em conjunto com gráficos de R ou de S, e os parâmetros ótimos para os gráficos de – i.e., que maximizam sua eficiência em sinalizar alterações na média do processo — não necessariamente coincidirão com os parâmetros que maximizam a eficiência do par de gráficos em sinalizar alterações no desvio-padrão do processo; portanto, é relevante considerar o problema de otimização conjunta do par de gráficos contra os dois tipos de alteração.

A otimização conjunta desses gráficos não é inédita: Saniga (1977, 1979) e Costa (1993), para citar apenas dois autores, propõem modelos econômicos para esse problema. Saniga (1989) propõe ainda um modelo econômico-estatístico. Esses modelos, ainda que rigorosos e detalhados, defrontam-se com as já mencionadas barreiras gerais à utilização dos modelos econômicos: devidas aos parâmetros a estimar, à necessidade de programas para solução e à resistência por parte do pessoal da indústria – barreiras que, embora contestáveis, na prática têm se revelado obstáculos à implementação desses modelos. Assim, o propósito do presente trabalho é um modelo mais acessível ao utilizador real. Keats et al. (1997) advogam, para uma maior acessibilidade, entre outras coisas, o desenvolvimento de procedimentos simples e padronizados, que possam ser resolvidos em software de fácil uso e compreensão, que requeiram a estimação de poucos parâmetros, e que métodos para essa estimação sejam fornecidos. Assim, o objetivo do presente trabalho é um modelo semi-econômico, requerendo poucos parâmetros (juntamente com métodos para estimação dos mesmos), que pode ser solucionado em planilha eletrônica, e que considera uma abordagem alternativa para a otimização conjunta do par de gráficos, contra os dois tipos de alteração do processo.

Por otimização conjunta da eficiência dos gráficos em sinalizar ambos os tipos de alteração (na média ou na dispersão do processo), entende-se que se deseja detectar rapidamente um ou outro tipo de alteração, aquele que venha a ocorrer eventualmente, pois não se pode garantir que ambas ocorrerão simultaneamente – e, no caso de ocorrerem, a sensibilidade do par de gráficos (traduzindo-se na "rapidez" média de sinalização dos descontroles) será, de qualquer forma, maior do que no caso de apenas uma alteração.

O modelo pode ser chamado de semi-econômico porque considera explicitamente apenas um dos custos envolvidos: o de amostragem (e não se minimiza, portanto, um "custo total"). Os objetivos de manter baixa a freqüência de alarmes falsos e de detectar rapidamente alterações no processo (relacionados, evidentemente, aos custos de alarme falso e de produzir com o processo fora de controle) são, efetivamente, considerados, mas não são representados formalmente como custos, em unidades monetárias. A freqüência de alarmes falsos é tratada como restrição e o tempo médio até a detecção da alteração é tratado como restrição ou como função-objetivo a minimizar (pois o método admite duas formas alternativas para o problema). Se, por um lado, considerar de forma explícita apenas o custo de amostragem pode levar, segundo um critério de custo total, a soluções subótimas (ressalvando-se porém que este não é o critério adotado neste trabalho), por outro lado acredita-se que o usuário que não se sinta capaz de atribuir custos a alarmes falsos e ao tempo de produção com o processo fora de controle sentir-se-á mais confortável em especificar diretamente limites para a freqüência de alarmes falsos e para o tempo médio até a detecção da alteração. A freqüência de alarmes falsos é algo que os utilizadores dos gráficos percebem concretamente; além disso, como mencionado, modelos puramente econômicos poderiam levar a soluções com uma freqüência de alarmes falsos inaceitável, indicando que restrições à taxa de alarmes falsos são uma maneira mais efetiva de atender ao objetivo de mantê-la num nível aceitável (como proposto por Saniga (1989), e adotado por muitos autores de modelos econômico-estatísticos posteriores).

Quanto ao custo de amostragem (aqui considerado na forma a+bn, onde n é o tamanho de amostra e a e b são constantes de custo), caso o utilizador não se sinta capaz de atribuir valores monetários a a e b, o modelo admite – como será visto adiante – que ele forneça, por exemplo, duas opções de tamanho de amostra com os correspondentes intervalos de tempo entre amostras, que considere corresponderem à maior intensidade de inspeção aceitável. Os autores deste artigo têm visto que equipes ligadas a um processo não têm dificuldade em dizer quais tamanhos de amostra e quais intervalos de tempo entre amostras são aceitáveis e inaceitáveis. Além disso, além de recusarem intervalos de tempo entre amostras muito curtos, também são capazes de estabelecer um limite máximo para tal intervalo (entendido por eles, explicitamente, como o tempo máximo que consideram razoável deixar o processo sem observação, em função da taxa de produção). Isso permite supor que eles sejam capazes de especificar o limite que consideram aceitável para o tempo médio em que uma causa especial passe não detectada.

Em suma, o objetivo é um modelo não tão "completo" como os de planejamento econômico, porém mais acessível. O modelo é uma extensão do de Epprecht e Teixeira (2001), que por sua vez é uma extensão do de Epprecht e Santos (1988), para considerar o par de gráficos em conjunto, pois aqueles se limitavam ao gráfico de .

Consideram-se aqui as duas formas do problema, "primal" e "dual", propostas por Epprecht e Santos (1998). Na forma primal, o objetivo é minimizar o tempo médio até a detecção da causa especial, com uma restrição de custo de amostragem por unidade de tempo. Na forma dual, o objetivo é minimizar o custo de amostragem por unidade de tempo, com uma restrição de tempo médio até a detecção da causa especial. Também será considerado o problema multi-objetivo, em que tanto o custo de amostragem como o tempo até a detecção são objetivos a minimizar.

Na seção seguinte define-se mais precisamente o problema, que é formalizado matematicamente na Seção "Modelagem matemática do problema". A Seção "Solução" desenvolve o procedimento para solução (que é resumido objetivamente, na forma de um roteiro de aplicação, na Subseção "Resumo do Procedimento"). As seções seguintes tratam de orientações para a determinação de valores de alguns parâmetros de entrada (dados ou especificações para o problema) utilizados pelo procedimento ("Determinação dos parâmetros de entrada para o problema"), do caso de restrições adicionais de ordem prática ("Restrições adicionais ao problema") e da forma multiobjetivo do problema ("Uma terceira forma para o problema: otimização multiobjetivo"). A Seção "Exemplo" ilustra a aplicação do procedimento, e finalmente são apresentadas as conclusões.

 

O PROBLEMA CONSIERADO E CONCEITOS BÁSICOS

Suponha um processo produtivo sendo monitorado por gráficos de e S (ou, alternativamente, por gráficos de e R) e que o monitoramento se inicie sempre com o processo sob controle (com média µ = µ0 e desvio-padrão s = s0). Eventualmente, causas especiais podem deslocar a média para um valor µ1 = µ0 + ds0 (onde d pode ser um valor positivo ou negativo), e/ou aumentar o desvio-padrão para um valor s1 = gs0, g > 1. O processo permanece neste estado ("fora de controle", com µ = µ1 e/ou s = s1) até que haja uma intervenção para eliminar a causa especial, reajustando sua média ou reduzindo seu desvio-padrão para o valor em controle. Daí a importância de que os gráficos sinalizem rapidamente a ocorrência da(s) causa(s) especial(ais).

O problema que se coloca aqui é: estabelecer os parâmetros a adotar para os gráficos de controle (tamanho de amostra n, intervalo de tempo entre amostras h e limites de controle para os gráficos) que maximizem a eficiência dos gráficos contra alterações que se deseja detectar rapidamente, mantendo a freqüência de alarmes falsos dentro de limites aceitáveis.

Para efeitos de modelagem e solução do problema, seguir-se-á a hipótese, amplamente adotada por outros autores na maioria dos trabalhos de planejamento e de análise de desempenho de gráficos de controle, de que a mudança do valor da média de µ0 para µ1 e/ou do desvio-padrão de s0 para s1 ocorre instantaneamente, e que o(s) parâmetro(s) alterado(s) permanece(m) estável(eis) no novo patamar. Mudanças de tal tipo podem ocorrer devido à entrada de um novo lote de matéria-prima, a uma mudança de operador, ou a um novo "set up", por exemplo.

No caso de afastamentos progressivos da média do processo em relação ao valor-alvo (ou de aumentos progressivos do desvio-padrão do processo), os tempos até a sinalização pelos gráficos serão menores que os fornecidos pelo modelo aqui apresentado, se for considerado como origem dos tempos o instante em que a média atingir, ou cruzar, o limiar µ1 (ou o instante em que o desvio-padrão cruzar o limiar s1).

Para que a formulação do problema enunciado três parágrafos acima esteja completa, é necessária a definição precisa dos seguintes pontos:

a) Eficiência dos Gráficos

Conforme mencionado, segue-se aqui a proposta de Epprecht e Santos (1998) de duas formulações alternativas para o problema: Forma Primal: obter o projeto (valores para os parâmetros de implementação dos gráficos) que minimiza o tempo médio de sinalização de descontroles, a um custo fixo de amostragem por unidade de tempo; Forma Dual: obter o projeto que garante um valor especificado para o tempo médio de sinalização com o menor custo possível de amostragem. Eficiência, assim, fica definida como a razão entre a rapidez de detecção de descontroles e o custo de amostragem.

b) Magnitude das Alterações na Média e na Dispersão

Na verdade, os valores de d e g são considerados como especificações do problema, e devem ser fornecidos pelo usuário; determiná-los é outro problema; mas como o propósito deste trabalho é fornecer um procedimento de fácil implementação prática, considera-se útil tratar desse problema preliminar também (vide "Determinação das magnitudes |d| e g das alterações no processo que é importante detectar rapidamente" no presente artigo).

c) Tempo Médio de Detecção

Como a rapidez dos gráficos em sinalizar alterações na média difere da sua rapidez em sinalizar aumentos na dispersão, o usuário deve especificar uma medida que combine, da maneira que faça mais sentido em seu caso, os tempos médios de detecção (pelo par de gráficos) de cada tipo de alteração no processo. Essa função dos dois tempos médios de detecção é que será minimizada (na forma primal do problema), ou haverá uma restrição para o seu valor (na forma dual). Neste trabalho são consideradas três alternativas possíveis para esta função: a soma, uma média ponderada, ou o maior entre os dois tempos médios de detecção. O usuário, porém, pode especificar outra função qualquer. A abordagem é geral: requer-se apenas que a função especificada satisfaça uma condição muito pouco restritiva, que será vista adiante, na seção "Definição formal do problema".

d) Limites de Controle

Os "limites de 3-sigma", preconizados por Shewhart (1931) e amplamente utilizados na prática, têm a vantagem da simplicidade. Para o gráfico de , correspondem a uma probabilidade nominal de alarme falso igual a 0,0027 (apenas um alarme falso a cada 370 amostras, em média).

Já para os gráficos de S e R com limites de 3-sigma, a probabilidade de alarme falso difere deste valor, variando com o tamanho da amostra. Para manter a probabilidade de alarme falso em um nível especificado, a solução é utilizar limites de probabilidade: aqueles que têm uma probabilidade especificada pelo usuário de serem ultrapassados quando o processo estiver sob controle. Contudo, para que a real probabilidade de ultrapassagem (ou "de alarme falso") seja igual ao valor especificado, é necessário que as estatísticas monitoradas (, R ou S) possuam, de fato, as distribuições teóricas utilizadas no cálculo dos limites. Por isso, alguns autores, como Wheeler (1995, cap. 5), defendem a superioridade dos limites de "3-sigma", como valores robustos, no sentido de resultarem numa baixa probabilidade de alarme falso com praticamente qualquer distribuição.

Devido à existência de argumentos para a utilização dos dois tipos de limites, neste trabalho serão considerados ambos os casos; ou seja, o procedimento aqui proposto se aplica tanto a gráficos com limites de 3-sigma como a gráficos com limites de probabilidade. Interessa detectar apenas aumentos na dispersão do processo; por conseguinte, os gráficos de S e R considerados serão unilaterais: sem limite inferior de controle. O procedimento pode ser adaptado facilmente (e de maneira bastante óbvia) para os casos de gráficos de S e de R com um par de limites.

Antes de apresentar a formulação matemática do problema, serão apresentadas as fórmulas dos limites de probabilidade e dos limites de 3-sigma para os gráficos de controle, bem como alguns conceitos relacionados.

Representando os limites de controle do gráfico de por

o limite superior do gráfico de R por

e o limite superior do gráfico de S por

as constantes k, kR e kS que, para cada gráfico respectivo, resultam numa probabilidade de alarme falso igual a a são dadas pelas expressões a seguir.

Para o gráfico de :

sendo F a função de distribuição normal padrão e F–1 a sua inversa.

Para o gráfico de R:

onde FW,n é a função de distribuição da variável Wn = R/s; amplitude relativa de uma amostra de tamanho n de uma variável normal, e é a sua inversa. A função FW,n foi desenvolvida por Hartley (1942) e tabulada por Pearson (1942), para 2<n<20. Uma tabela para 2<n<19 também pode ser encontrada em Costa et al. (2005).

Finalmente, para o gráfico de S:

onde é o valor da inversa da função de distribuição da variável qui-quadrado com n–1 graus de liberdade em 1– a; ou seja, é o valor da variável que tem uma probabilidade a de ser ultrapassado, uma vez que P(S > kss0) = P(S2 > (kss0)2) e que .

No caso de limites de 3-sigma, para o gráfico de , k=3; para o gráfico de R,

e, para o gráfico de S,

Nessas fórmulas, d2, d3 e c4 correspondem, respectivamente, ao valor esperado da amplitude relativa W, ao desvio-padrão de W e ao valor esperado de S/s, e só dependem do tamanho de amostra n. Tabelas dessas "constantes" são encontráveis em qualquer livro de controle estatístico de qualidade, como Montgomery (2001), Costa et al. (2005) ou Wheeler (1995).

 

MODELAGEM MATEMÁTICA DO PROBLEMA

Notação empregada

Será usada a seguinte notação:

m0, µ1

-

média do processo sob controle e fora de controle, respectivamente

s0, s1

-

desvio-padrão do processo, sob controle e fora de controle, respectivamente

d

-

deslocamento da média que é importante detectar, em número de desvios-padrão do processo (i.e., d=(µ10)/s0).

g

-

fator de aumento na dispersão do processo que é importante detectar (i.e., g =s1/s0)

n

-

tamanho da amostra

h

-

tempo entre amostras (também chamado de "intervalo amostral")

k

-

fator de abertura dos limites de controle para o gráfico de (tal que a distância de cada limite de controle à linha média do gráfico é ks0 / )

kR, kS

-

fatores de abertura do limite superior de controle dos gráficos de R e de S (dados respectivamente por kRs0 e kSs0)

F( )

-

função de distribuição normal padrão

FW,n( )

-

função de distribuição da variável Wn = R/s; amplitude relativa de uma amostra de tamanho n de uma variável normal

Ca

-

custo de amostragem por unidade de tempo

a

-

parcela fixa do custo de retirar e examinar uma amostra

b

-

custo adicional por unidade da amostra

TES

-

tempo médio entre a ocorrência da alteração no processo (suposta instantânea) e o sinal emitido por pelo menos um dos gráficos

NMA

-

número médio de amostras desde a ocorrência da alteração no processo (suposta instantânea) até a sinalização (um ponto fora dos limites de controle) por pelo menos um dos gráficos

NMA0

-

número médio de amostras até um alarme falso

J

-

função especificada pelo usuário, que combina os TES’s para os casos de alteração na média e de aumento na dispersão em uma única medida de "demora" até o sinal.

NMA0min

-

valor da restrição a NMA0 (limite mínimo aceitável)

Cmax

-

valor da restrição a Ca (limite máximo aceitável)

Jmax

-

valor da restrição a J (limite máximo aceitável)

Pd

-

poder (probabilidade de sinalizar um descontrole em uma amostra), de um gráfico de controle ou do par de gráficos, conforme o caso considerado

a

-

probabilidade de alarme falso

Definição formal do problema

Dados: |d|, g e os coeficientes a e b do custo de retirar e examinar uma amostra, calcular os valores de e de S (ou de e de R) e lançá-los nos gráficos, custo este suposto na forma a+bn, o problema pode ter duas formulações alternativas:

Forma primal:

Forma dual:

onde (em ambas as formas do problema):

Ca é o custo de amostragem por unidade de tempo, na forma:

TES (tempo esperado até o sinal) é o valor esperado do tempo entre a ocorrência da alteração no processo (suposta instantânea e para cuja eliminação faz-se necessária uma intervenção no processo) e o sinal de descontrole por pelo menos um dos gráficos. TES|d| e TESg são esses valores esperados no caso de um deslocamento da média ou de um aumento na dispersão do processo, respectivamente. Em qualquer um dos casos, de acordo com Costa et al. (2005), o TES é dado por:

sendo NMA o número médio de amostras entre a ocorrência da alteração no processo e a sinalização pelo gráfico. As expressões para obtenção do NMA conjunto do par de gráficos em cada caso – alteração na média ou aumento na dispersão do processo — serão vistas adiante. Elas são desenvolvidas detalhadamente em Costa et al. (2005).

J(TES|d|, TESg) também é uma função dos tempos médios até a detecção de um deslocamento na média e até a detecção de um aumento na dispersão pelo par de gráficos em conjunto. Os dois tipos de descontrole são aqui tratados separadamente; conseqüentemente, tem-se dois valores de TES e o TES conjunto será definido algebricamente. Exemplos de função (a serem usados como função-objetivo ou dentro de uma restrição) são:

A primeira função (J1) pode ter um apelo intuitivo à primeira vista como "minimização do tempo total esperado que o processo opera fora de controle" (pode-se ainda utilizar a média dos dois TES’s, já que trabalhar com J1/2 leva aos mesmos resultados que trabalhar com J1); porém a média aritmética ou a soma dos dois TES’s só minimizará o tempo total esperado do processo fora de controle se os dois tipos de descontrole ocorrerem com igual freqüência; caso eles ocorram com freqüências diferentes, proporcionais a l e a (1–l), a função a utilizar é J2. É, porém, provável que em grande parte das situações reais o usuário não tenha uma estimativa dessas freqüências e queira considerar o "pior caso" adotando, nesse caso, a função J3.

O procedimento aqui é geral, admitindo qualquer uma das três funções que o usuário queira utilizar, ou mesmo outra função por ele especificada. A única condição que a função J precisa satisfazer para que o procedimento possa ser aplicado é que ela tenha uma forma funcional tal que J(u h, v h) = J(u, vh. Note-se que a função "máximo dos argumentos" (função J3), bem como qualquer combinação linear dos argumentos (como é o caso das funções J1 e J2), e algumas funções mais complexas (como, por exemplo, uma média ponderada do máximo e do mínimo dos argumentos) satisfazem essa condição, que, assim, deixa bastante flexibilidade para a escolha de uma função J de interesse prático.

Cmáx e Jmáx são constantes: valores máximos aceitáveis pelo usuário para Ca e para J(TES|d|, TESg), conforme a forma do problema.

Além disso, qualquer uma das formas do problema admite duas versões: gráficos com limites "de três sigma" (em que os limites de controle não são variáveis de decisão), e gráficos com limites de probabilidade. Para gráficos com limites de três-sigma, as definições dos problemas em (10) e (11) estão completas. Para gráficos com limites de probabilidade, ambas as formulações recebem a seguinte restrição adicional:

onde NMA0 é o número médio de amostras até a ocorrência de um alarme falso para cada gráfico individualmente e NMA0mín é o menor valor que o usuário considera aceitável para NMA0. Os limites de probabilidade para os gráficos são então obtidos pelas expressões (1) a (7), com a = 1/NMA0mín.

O utilizador, ao especificar o valor NMA0mín, deve ter em conta que o NMA0 conjunto do par de gráficos (número médio de amostras até um alarme falso por qualquer um dos gráficos) é diferente do NMA0 individual de cada gráfico. Denotando as probabilidades de alarme falso individuais dos gráficos por aA e aB, seus NMA0s individuais serão NMA0A= 1/aA e NMA0B= 1/aB, e a probabilidade conjunta de alarme falso será aconj = aA + aBaA aB. O NMA0 conjunto para o par de gráficos será NMA0conj = 1/aconj. Substituindo o denominador aconj pela sua expressão acima e, nela, aA e aB por 1/NMA0A e 1/NMA0A respectivamente, chega-se à seguinte relação entre o NMA0 conjunto e os NMA0s individuais dos gráficos: NMA0conj = [NMA0A×NMA0B / (NMA0A + NMA0B – 1)]. No caso de NMA0s individuais iguais e muito maiores que 1, esta relação mostra que o NMA0 conjunto é praticamente a metade do NMA0 individual. O utilizador dos gráficos deve ter isso em mente ao especificar o valor de NMA0mín para o problema.

 

SOLUÇÃO

Em cada forma do problema, a solução ótima está sobre a restrição: na forma primal, o custo de amostragem da solução ótima coincide com o limiar Cmáx; na forma dual, o valor de J(TES|d|TESg) da solução ótima coincide com o limiar Jmáx.

Demonstração: na forma primal, dada qualquer solução com Ca = Cmáx, a redução de Ca só poderia ser obtida com a redução de n ou com o aumento de h; as duas alternativas aumentariam TES|d| e TESg, piorando portanto a solução.

Raciocínio análogo se aplica ao problema na forma dual: dada qualquer solução com J=Jmáx, para reduzir os TESs de maneira a obter J(TES|d|, TESg) menor que Jmáx, seria necessário aumentar n ou reduzir h, aumentando em conseqüência o custo Ca. Assim, essa solução ótima também está sobre a restrição em J.

O fato de a solução ótima estar sobre a restrição implica que ambas as formas do problema podem ser resolvidas minimizando a função

uma vez que, em cada uma das formas, um dos termos desse produto será uma constante (igual ao valor da restrição, Cmáx ou Jmáx) e o outro será a função-objetivo.

Substituindo (12) e (13) na expressão (18), obtém-se:

Dada a condição de que J(u h, v h) = J(u, vh, pode-se então simplificar (19), eliminando h e escrevendo:

Finalmente, como dividir ambos os termos por b não altera a solução ótima, o problema se reduz a

Minimizar

Como, em termos das variáveis de decisão, os NMAs não dependem de h, mas só de n e dos limites de controle (que por sua vez são determinados em função de n, seja pelas fórmulas dos "limites de 3 sigma", seja pelas expressões (1) a (7), no caso de limites de probabilidade), o problema de minimizar a função g em (21) é um problema de minimização com apenas uma variável: n. Em conseqüência, o projeto ótimo do gráfico pode ser solucionado em etapas: otimizar n, determinar os limites de controle, obter h ótimo.

Como os tamanhos de amostra (n) admissíveis na prática são um subconjunto finito dos inteiros (cujo valor máximo, no caso de controle por variáveis, tipicamente está entre 20 e 30, se tanto), o valor ótimo para esse parâmetro pode ser encontrado simplesmente calculando g(n) para todos os valores admissíveis para n, para posteriormente localizar o valor mínimo (o procedimento para cálculo de g(n) será detalhado adiante). O valor de n que fornecer o menor valor para g(n) é o valor ótimo para ambas as formas do problema, primal ou dual, e independe do valor da restrição. Denote-se esse valor ótimo por nótimo. Com este valor de n, os limites de controle ótimos (seja de três sigma, seja de probabilidade) estão determinados. A etapa seguinte é a obtenção do valor ótimo para h (hótimo), por uma fórmula fechada:

Na forma primal, como Ca = (a+bn)/h (equação (12)), o fato de que na solução ótima Ca=Cmáx leva a:

Na forma dual, dado que J(u h, v h) = J(u, vh, o fato de que na solução ótima J=Jmáx leva a:

onde os NMAs são evidentemente calculados com n = nótimo.

Faltou mostrar como calcular g(n). Pela equação (21), nota-se que, dados n, a e b, falta apenas obter NMA|d| e NMAg. Lembrando, NMA|d| é o número médio de amostras examinadas desde a ocorrência de uma alteração na média do processo de µ0 para µ1 = µ0 + dµ0 (ou para µ1 = µ0 ds0) até o sinal de descontrole por pelo menos um dos dois gráficos. Portanto, é o NMA conjunto para a sinalização de uma alteração na média do processo com magnitude de |d| desvios-padrão. Analogamente, NMAg é o NMA conjunto para a sinalização de um aumento no desvio-padrão do processo para s1 = gs0, g > 1. Em qualquer um dos dois casos, por se tratar de gráficos de Shewhart, NMA = 1/Pd, onde Pd é o poder conjunto do par de gráficos: a probabilidade de sinalização por pelo menos um dos gráficos, em cada amostra. O problema se reduz, portanto, à determinação do poder conjunto do par de gráficos contra cada tipo de alteração.

Como e R são variáveis aleatórias independentes, o poder conjunto dos gráficos de e R é dado por (vide SANIGA, 1989):

Por argumento idêntico, o poder conjunto dos gráficos de e S é dado por

Tais fórmulas (onde, evidentemente, , PdR e PdS são os poderes individuais de cada gráfico) são genéricas, valendo para qualquer tipo de alteração no processo: na média ou na dispersão.

Poder de cada um dos gráficos em sinalizar alterações na média do processo

As expressões para os poderes individuais dos gráficos de , R e S em sinalizar alterações na média do processo são:

Há várias expressões alternativas para , todas equivalentes – essencialmente diversas formas de uma mesma expressão: de uma chega-se à outra, por manipulações triviais. A forma acima (expressão (26)) foi retirada de Costa et al. (2005); ela corresponde ainda ao complemento da expressão para a probabilidade (b) de erro do tipo II na forma adotada por Montgomery (2001). Saniga (1989) fornece expressões gerais para os poderes individuais dos gráficos de e de R, que se aplicam aos casos de alterações apenas na média, alterações apenas na variância, ou em ambas. No caso de alteração apenas na média, sua expressão para o poder do gráfico de reduz-se a uma forma equivalente a (26), e sua expressão para o poder do gráfico de R se reduz — no caso de gráfico sem limite inferior – à expressão (27).

Nas expressões (27) e (28), como os gráficos de R e de S são insensíveis a alterações na média, as probabilidades de que sinalizem coincidem com aR e aS, as suas probabilidades de alarme falso. No caso de gráficos de controle com limites de probabilidade, essas probabilidades de alarme falso nem precisam ser calculadas pelas expressões fornecidas, pois são especificadas pelo utilizador dos gráficos:

Neste caso, o valor de kR (ou de kS, conforme o gráfico) é que é determinado em função de aR (ou aS), pela fórmula (6) (ou (7)).

No caso dos limites de três sigma, a probabilidade de sinal pelo gráfico de R ou pelo gráfico de S (conforme o caso) precisa ser determinada pela expressão (27) ou (25).

Poder de cada um dos gráficos em sinalizar aumentos na dispersão do processo

As expressões para os poderes individuais dos gráficos de , R e S em sinalizar aumentos na dispersão do processo são dadas a seguir.

(note que contra aumentos na dispersão é constante para todo n).

Para o gráfico de R, tem-se:

E, para o gráfico de S, o poder é dado por:

As expressões (30) e (31) são equivalentes às expressões genéricas de Saniga (1989) para o caso particular de µ1 = µ0 e de gráfico de R sem limite inferior, quando nelas se substitui s1/s0 por g, e também são equivalentes às expressões fornecidas por Costa et al. (2005): sua expressão para , no caso de média sem alteração, reduz-se a (30); e sua expressão para PdR corresponde à substituição de (8) em (31). A expressão (32) para PdS equivale à sua expressão para o poder do gráfico de S2, já que P(S>s)=P(S2>s2).

Resumo do procedimento

O procedimento para se chegar à otimização de qualquer uma das três funções-objetivo é resumido a seguir. Este resumo serve como um roteiro para sua aplicação, em etapas que são facilmente implementadas em uma planilha eletrônica.

Especificações do usuário:

- Forma do problema (primal ou dual);
- Tipos de gráficos ( e R ou e S);
- Tipo de limites ("de 3 sigma" ou "de probabilidade")
- Expressão da função J que combina os TESs contra os dois tipos de alteração no processo (por exemplo max{TES|d|, TESg} ou [lTES|d| + (1–l)TESg])

Dados fornecidos pelo usuário:

- Maior valor admissível para n: nmáx;
- |d| e g : deslocamento na média e fator de aumento no desvio-padrão que é importante detectar, expressos como: |d|=|µ1–µ0|/s0 e g=s1/s0;
- a e b: coeficientes do custo de retirar e examinar uma amostra, calcular as estatísticas e marcá-las nos gráficos, sendo a a parcela fixa e b o custo variável adicional por item da amostra (não é necessário fornecer a e b, apenas a razão a/b);
Na forma primal: Cmáx;
Na forma dual: Jmáx;

No caso de limites de probabilidade: NMA0mín (valor mínimo desejado para o número médio de amostras até um alarme falso por cada gráfico individualmente).

Passo 1: Para cada n Î{2, 3, ... nmáx}:

1.1) Calcular os limites de controle para os gráficos:

- No caso de limites de 3 sigma, por qualquer conjunto de fórmulas usuais (por exemplo pelas expressões (1), (2), com k=3, para o gráfico de , e pelas expressões (8) e (3), para o gráfico de R, ou (9) e (4), para o gráfico de S).
- No caso de limites probabilísticos, primeiro calcular a = 1/NMA0mín e em seguida calcular os limites do gráfico de pelas expressões (5), (1) e (2), e o LSC do gráfico de R, pelas expressões (6) e (3), ou o LSC do gráfico de S, pelas expressões (7) e (4)).

Nas expressões que contenham s0, utilizar para s0, evidentemente, a estimativa disponível (/d2, /c4).

1.2) Calcular, para cada gráfico, o poder contra alteração na média de magnitude |d| (para o gráfico de , pela expressão (26). Para o gráfico de R ou S, da seguinte forma: no caso de limites de 3 sigma, pela expressão (27) ou (28); no caso de limites probabilísticos, pela expressão (29)).

1.3) Calcular o poder conjunto do par de gráficos contra alteração na média, pela expressão (24) para gráficos de e R, ou pela expressão (25), para gráficos de e S.

1.4) Calcular o NMA conjunto contra deslocamento na média, NMA|d| = ou NMA|d| = , conforme o par de gráficos utilizado.

1.5) Calcular, para cada gráfico, o poder contra aumento na dispersão por um fator g (expressão (30) para o gráfico de , (31) para o gráfico de R ou (32) para o gráfico de S).

1.6) Calcular o poder conjunto do par de gráficos contra alterações na dispersão, pela expressão (24) para gráficos de e R, ou pela expressão (25) para gráficos de e S.

1.7) Calcular o NMA conjunto contra aumento na dispersão, NMAg = ou NMAg = , conforme os gráficos em uso.

1.8) Com NMA|d| e NMAg, calcular a função g(n) pela expressão (21).

Passo 2: O valor n que fornece o menor valor de g(n) é o valor ótimo para n; os limites de controle calculados no passo 1.1 para este valor de n são os limites ótimos.

Passo 3: Obtenção de hótimo:

Na forma primal: equação (22);

Na forma dual: equação (23).

Uma tabela da função de distribuição FW,n (para 2<n<19) em planilha (Excel) pode ser obtida por solicitação aos autores, para facilitar o cálculo das expressões (6), (27) e (31) para o gráfico de R, por busca de valores (e interpolação). Os valores dessa tabela foram obtidos com um programa Fortran construído com base nas equações de Hartley (1942).

 

DETERMINAÇÃO DOS PARÂMETROS DE ENTRADA PARA O PROBLEMA

Determinação da razão a/b entre os coeficientes do custo de amostragem, e da restrição Cmáx para a forma primal do problema

A expressão (21) mostra que, em qualquer uma das duas formas do problema, o valor ótimo para n não depende dos valores individuais de a e b, mas apenas da razão entre eles, a/b. Para a solução do problema dual, nenhuma outra informação de custo é necessária, pois o valor de h será obtido por (23), de modo a satisfazer a restrição em J, e o custo Ca será minimizado, mesmo que não se calcule o seu valor. Na forma primal, porém, o valor ótimo de h é função dos valores individuais de a, b e de Cmáx, pela equação (22). Como será visto a seguir, contudo, essa exigência dos valores de a e b pode ser relaxada, permitindo resolver o problema primal também apenas em função da razão a/b. Assim, trata-se aqui da determinação desta razão (e, para o problema primal, também de Cmáx) no caso de o utilizador não saber fornecer ou estimar os valores individuais de a e b, e em conseqüência também não ser capaz de especificar um valor Cmáx para o problema primal.

Nesse caso, ele deverá fornecer dois pares de valores de n e h, (n1, h1) e (n2, h2), que considera "de custo máximo", isto é, correspondendo à máxima intensidade de inspeção que está disposto a aceitar.

Então, admitindo-se que Ca (dado por (12)) é igual nos dois casos (pois, por definição os dois pares (n1, h1) e (n2, h2) correspondem a Ca=Cmáx), pode-se escrever:

o que, após manipulações algébricas triviais, fornece uma expressão para o valor de a/b:

Lembrando que os dois membros de (33) são iguais a Cmáx, pode-se reescrever Cmáx como:

O termo entre parênteses na equação (35) resulta em um valor numérico, constante, pois só contém valores conhecidos. Denote-se esse valor por C, ou seja, Cmáx fica expresso em função de "b", de valor monetário desconhecido, mas que é o "custo marginal de inspecionar um item": Cmáx=C b.

Isso não altera a função g nem os cálculos para a solução; nada se altera no procedimento; e, para o cálculo de hótimo, na forma primal do problema, a substituição de Cmáx=C b na expressão (22) leva a:

Para o problema dual, não é sequer necessário que os dois pares (n1, h1) e (n2, h2) sejam considerados de custo máximo pelo usuário; basta que ele forneça dois pares que considere de custo equivalente.

Se o utilizador fornecer mais de dois pares de valores de n e h, será necessário verificar sua consistência — ou seja, se os pares (n, h) dois a dois levam ao mesmo valor de a/b. Provavelmente não levarão exatamente, e será necessário calibrar — interagindo com o utilizador — o valor final de a/b e de Cmáx=C b. Mesmo no caso em que apenas dois pares de valores sejam fornecidos, é interessante, obtidos os valores de a/b e de C, identificar outros pares (n, h) que satisfaçam a condição [(a/b)+n]/h=C, para verificar se ele concorda com esses pares de valores. Trata-se de "calibrar" sua percepção de Cmáx e da relação entre a e b.

Finalmente, se ocorrer de o usuário se sentir capaz de fornecer diretamente a razão a/b, isto é informação suficiente para o problema dual. Para o problema primal, fornecida a razão a/b, bastará fornecer um par de valores (n, h) que ele considere de custo máximo. Neste caso, Cmáx também será expresso na unidade "b", e hótimo ainda será determinado por (36), mas a obtenção de Cmáx se faz diretamente por (35), sem a necessidade de estimar a/b por (34).

De qualquer forma, a recomendação feita acima de "calibrar" os valores finais de a/b e de C permanece também neste caso. Para tanto, deve-se verificar se o utilizador concorda com outros pares (n, h) que satisfaçam a condição [(a/b)+n]/h=C.

Determinação das magnitudes |d| e g das alterações no processo que é importante detectar rapidamente

A razão do objetivo de minimizar (ou limitar) o tempo de detecção de alterações no processo é evitar a produção de uma proporção significativa de unidades não-conformes. Assim, as magnitudes das alterações que é importante detectar rapidamente são aquelas que elevariam a fração não conforme do processo para um nível p especificado pelo usuário, como o limiar do tolerável.

Supondo que a característica de qualidade X sendo controlada tenha distribuição normal, que, quando sob controle, o processo esteja centrado no ponto médio das especificações (valor-alvo), e denotando por zesp a distância dos limites de especificação LSE e LIE ao valor-alvo em números de desvios-padrão do processo (portanto zesp=3×Cp, onde Cp é o tradicional índice de capacidade dado por Cp=(LSE–LIE)/(6s) – ver por exemplo WHEELER, 1995), os valores relevantes de |d| e de g podem ser determinados, a partir do limiar especificado para p, como aqueles que fazem P(X>LSE)+P(X<LIE)=p. Padronizando a distribuição normal, chega-se facilmente a:

onde F é a distribuição normal padrão acumulada, e

A expressão (37) para |d| (já apresentada em EPPRECHT; SANTOS, 1998) considera que, no caso de aumento da média do processo, P(X<LIE) é desprezível; no caso de redução da média, considera desprezível P(X>LSE); essa suposição é razoável pois tais probabilidades serão bem menores que metade da fração defeituosa enquanto o processo está sob controle.

 

RESTRIÇÕES ADICIONAIS AO PROBLEMA

Restrições adicionais a n ou a h podem ser facilmente incorporadas. Restrições do tipo nmín < n < nmáx são incorporadas direta e trivialmente ao se restringir a busca do nótimo a este intervalo.

Possíveis restrições diretas a h são: um intervalo entre amostras mínimo hmín (suposto operacionalmente muito pequeno) e um intervalo máximo hmáx. Além dessas, pode haver uma restrição de valor máximo rmáx para a taxa de inspeção n/h: n/h < rmáx, o que leva a h > n/rmáx. O utilizador dos gráficos pode também desejar impor uma restrição ao intervalo médio de tempo entre alarmes falsos, TMAF = NMA0×h (ver Costa et al., 2005); a restrição adicional TMAF > TMAFmín resulta em h > TMAFmín/NMA0(n).

Note-se que todas essas restrições correspondem a um valor constante para h ou a um valor para h que só depende de n. Então, a maneira mais prática de obter a solução do problema com restrições adicionais a h é, em vez de minimizar a função g(n), obter primeiro, para cada n, os valores de todas as restrições para h e, em seguida (para cada valor de n) calcular o valor da função-objetivo com o "melhor" valor possível para h. "Melhor valor possível para h" significa, na forma primal, o menor valor possível de h que seja maior ou igual a (a+bn)/Cmáx e satisfaça as demais restrições; e, na forma dual, o maior valor de h que seja menor ou igual ao membro direito de (23) e satisfaça as demais restrições (para alguns valores de n, poderá não haver solução factível).

Obtidos assim os valores de h e da função-objetivo para cada valor de n, o menor valor obtido para a função-objetivo corresponde à solução ótima.

 

UMA TERCEIRA FORMA PARA O PROBLEMA: OTIMIZAÇÃO MULTIOBJETIVO

O utilizador dos gráficos pode julgar sem sentido (ou inadequado) definir um valor de restrição Cmáx ou Jmáx independente do valor resultante para a função-objetivo. Isso porque, na verdade, ele tem dois objetivos (conflitantes): minimizar o custo de amostragem por unidade de tempo e minimizar o tempo médio de sinalização (ou, rigorosamente, a função J dos tempos médios de sinalização de cada tipo de alteração no processo). É razoável supor, então, que o valor tolerável para um desses objetivos (J e Ca) depende do valor obtido para o outro. Isso configura um problema de otimização multiobjetivo, ou multicritério (ver, por exemplo, EHRGOTT; GANDIBLEUX, 2000 e 2002).

A minimização da função g(n) aqui apresentada presta-se perfeitamente à solução deste problema: como g(n)=J Ca, para qualquer solução com g(n) diferente de g mínimo (i.e., com n?nótimo) existem duas soluções com n=nótimo: uma, que fornece o mesmo valor de Ca porém menor valor de J, e outra, que fornece o mesmo valor de J porém menor valor de Ca. Em outras palavras, qualquer solução com n?nótimo é dominada por duas soluções com n=nótimo. Já entre duas soluções distintas com n=nótimo (essas soluções se distinguem por diferentes valores de h), nenhuma domina a outra, pois a que tiver menor valor de Ca terá maior valor de J e vice-versa. Isso mostra que o conjunto de soluções não dominadas para este problema (fronteira eficiente, ou fronteira ótima de Pareto) é formado por todos os pares (J, Ca) possíveis com n=nótimo.

Em conseqüência, o problema pode ser resolvido pelo procedimento proposto até o Passo 2, obtendo nótimo. Feito isso, os pares de valores (J, Ca) da fronteira eficiente podem ser determinados pela substituição de n=nótimo e de diversos valores para h na expressão (12) para Ca e na expressão para a função J especificada pelo usuário, por exemplo (15) ou (16) (a rigor, os valores não serão substituídos diretamente em J, mas nas expressões intermediárias dos poderes (Pd) e NMAs, e dos TESs que são argumentos de J). Para tanto, pode-se variar h com pequenos incrementos, ou podem ser considerados apenas valores operacionalmente convenientes para h, tais como 10, 15 ou 30 minutos, 1 hora, 2 horas, etc. Em seguida podem-se tabelar as soluções encontradas – valores de h, J e Ca – para que o utilizador escolha uma delas. Pode-se ainda, para melhor visualização, plotar curvas de J versus Ca, ou as duas curvas J versus h e Ca versus h num mesmo gráfico. Note-se que todas as soluções serão equivalentes do ponto de vista da razão custo por rapidez (definindo rapidez como o inverso de J, a função g corresponde a essa razão, cujo valor mínimo é o das soluções da fronteira eficiente).

 

EXEMPLO

Deseja-se otimizar conjuntamente os gráficos de e S, com limites de 3 sigma, para controlar uma característica de qualidade de um processo, cujas especificações são 78±2. Quando sob controle, o processo está centrado no valor-alvo (µ0=78) e seu desvio-padrão é s0=0,476. Portanto, Cp=(80–76)/(6×0,476)=1,40. Deseja-se detectar o mais rápido possível causas especiais que elevem a fração não-conforme para 0,7%. No caso, a equipe quer minimizar o tempo médio de sinalização no pior caso, o maior dos dois tempos médios de sinalização, ou seja, quer minimizar máx{TES|d|, TESg}. A equipe tem dificuldade em quantificar os custos de amostragem em unidades monetárias, mas avalia que a parcela fixa do custo de retirar uma amostra tem valor baixo, equivalente ao custo de examinar um item; e admite retirar e examinar, por exemplo, uma amostra de até 5 itens por hora.

Tem-se, portanto, o problema na forma primal, com a = b \ a/b = 1 e, de (35), = 6b.

(Assim, C=6). Para verificar, validar, este valor obtido para C, experimentou-se outro par (n, h) que satisfizesse , com , ou seja, . Com h igual a 2 horas, tem-se n=11. A equipe concordou que extrair uma amostra de 11 itens a cada duas horas seria equivalente em custo a extrair amostras de 5 itens de hora em hora. Assim, o valor C=6 está validado.

Para determinar os valores de |d| e de g, entra-se com p=0,007 e com zesp=3×Cp=3×1,40=4,20 nas equações (37) e (38), obtendo |d| =1,74 e g = 1,56.

O valor máximo admissível para n (nmáx), definido pela equipe, é 20. A planilha na Figura 1 ilustra a aplicação do procedimento. Para melhor entendimento, as duas últimas linhas da planilha indicam: o Passo do procedimento correspondente a cada coluna, e as equações utilizadas. A solução ótima obtida é: n=2, h=0,5 horas (30 min), e o maior dos dois tempos médios de sinalização será o de sinalização de aumento na dispersão, igual a 3 horas e 13 minutos (calculado pela expressão (2), com os valores obtidos para h e para NMAg: TESg=(6,938–0,5)×0,500=3,22). O tempo médio de sinalização de deslocamento na média é de 1 hora e 25 minutos.

 

 

Os resultados ilustram alguns fatos interessantes: primeiro, mostram a diferença entre os parâmetros ótimos para cada tipo de alteração no processo (contra deslocamento na média apenas, o projeto ótimo tem n=6 e h=1,167 horas, ou seja, 1 hora e 10 min, e leva a um tempo médio de sinalização de apenas 43 minutos — calculado também por (2): TES|d|=(1,115–0,5)×1,167=0,7174 horas; mas, com esses valores para n e h, o tempo médio de sinalização de aumentos na dispersão seria de 4 horas e 7 minutos). Daí a importância da otimização do desempenho conjunto.

Vale salientar que o NMA0 do gráfico de S em questão seria de apenas 109 amostras (o que pode ser facilmente verificado lembrando que o valor PdS na 6ª coluna da planilha na Figura 1 é idêntico à probabilidade de alarme falso do gráfico de S). De fato, com n=2 e n=3, os limites de 3-sigma fornecem NMA0s para os gráficos de S e de R inferiores a 200 amostras. Isso deve ser levado em conta ao planejar gráficos com limites de três sigma. A alternativa de limites de probabilidade, em que os NMA0s são especificados pelo usuário, elimina trivialmente esse inconveniente de NMA0s pequenos. Com limites de 3-sigma, o inconveniente pode ser evitado por meio de uma restrição adicional para o problema, de que o tamanho de amostra mínimo seja igual a 4 unidades. O procedimento para solução seria o mesmo, e a planilha do exemplo seria idêntica, apenas sem as linhas para n=2 e n=3. Nesse caso, a solução ótima teria n=4 – valor que minimiza g(n). O intervalo entre amostras seria de 0,833 horas (50 minutos), o tempo médio de sinalização de deslocamentos na média seria de 47 minutos e o tempo médio de sinalização de aumentos na dispersão seria de 3 horas e 54 minutos.

 

CONCLUSÕES

Quando se utilizam dois gráficos de controle conjuntamente ( e S ou e R) para detecção de alterações na média ou na dispersão do processo, a escolha dos parâmetros operacionais para os gráficos (tamanho de amostra, intervalo de tempo entre amostras e limites de controle) deve buscar otimizar o desempenho conjunto dos dois gráficos, considerando a possibilidade de ocorrência de um ou outro tipo de alteração. Modelos de planejamento econômico ("economic design") usuais requerem como entrada parâmetros de custo e outros parâmetros de difícil quantificação ou estimação pelo usuário. Este artigo apresenta um procedimento para otimização conjunta de gráficos de e S ou de e R, atrelado ao custo de amostragem, que dispensa o fornecimento de outros parâmetros de custo e é acessível a praticamente qualquer usuário. As soluções fornecidas minimizam a razão entre o custo de amostragem por unidade de tempo e a rapidez de detecção de descontroles no processo; portanto, as soluções fornecidas são de eficiência máxima.

O procedimento admite três formulações alternativas para o problema: especificar o gasto admissível com inspeção por unidade de tempo, para minimizar o tempo médio que o processo permanece fora de controle (forma "primal" do problema); especificar o valor máximo admissível para o valor esperado do tempo que o processo permanece fora de controle, para minimizar o gasto com inspeção (forma "dual"); e a forma multiobjetivo do problema, que fornece o conjunto de soluções (pares custo – tempo médio fora de controle) de eficiência máxima, como um leque de alternativas para o usuário.

O modelo pode ser facilmente resolvido em uma planilha eletrônica, tornando-se assim acessível a qualquer interessado.

Visando o maior alcance possível de aplicação do procedimento, são propostas soluções para as diversas situações em que o usuário possa ter dificuldades de quantificar qualquer um desses dados de entrada. Para o caso de dificuldade em especificar os valores de |d| e g, são fornecidas expressões para determinação de pares de valores de |d| e g que levam a uma mesma fração não-conforme especificada, em função do Cp do processo sob controle. Para o caso de dificuldade em quantificar os coeficientes a e b do custo de amostragem, também são oferecidas alternativas.

Para cobrir o maior espectro possível de casos reais, também se possibilita incorporar restrições adicionais de ordem operacional aos valores de n, de h, da taxa de inspeção n/h, ou ainda ao tempo médio entre alarmes falsos.

Com isso, o usuário tem uma ferramenta simples, flexível e largamente acessível para determinar completamente os parâmetros de operação que otimizam a eficiência do seu esquema de controle estatístico de processo.

 

Agradecimentos

Os autores agradecem o apoio do CNPq – Conselho Nacional de Desenvolvimento Científico e Tecnológico, e da CAPES – Coordenação de Aperfeiçoamento de Pessoal de Nível Superior. Também agradecem a dois revisores anônimos — muito especialmente ao que fez anotações ao texto todo e forneceu referências adicionais — cujas sugestões contribuíram para uma melhora substancial do artigo.

 

Referências

ASTOLFI, C. N. N.; HAMACHER, F. C. Projeto Ótimo de Gráficos de Controle por Atributos. Anais do XXXIV Simpósio Brasileiro de Pesquisa Operacional, Rio de Janeiro, 2002.         [ Links ]

BAKER, K. R. Two processes in the economic design of an X-bar-chart. AIIE Transactions, v. 3, n. 4, p. 257-263, 1971.        [ Links ]

CHIU, W. K. Economic Design of Attribute Control Charts. Technometrics, v. 17, n. 1, p. 81-87, 1975.        [ Links ]

CHIU, W. K.; WETHERILL, G. B. Quality Control Practices. International Journal of Production Research, v. 13, p. 175-182, 1975.        [ Links ]

COLLANI, E. v. Optimal Inspections Intervals. Mathematische Institut der Universität Würzburg, Preprint 351, 1985.        [ Links ]

COLLANI, E. v. A Simple Procedure to Determine the Economic Design of an Control Chart. Journal of Quality Technology, v. 18. p. 145-151, 1986.        [ Links ]

COLLANI, E. v. The Economic Design of X-bar-Control Charts. Proceedings of IASTED International Symposium on Reliability and Quality Control, Paris, p. 186-189, 1987.        [ Links ]

COLLANI, E. v. Determination of the Economic Design of Control Charts. Optimization in Quality Control, eds. K.S. Al-Sultan and M.A Rahim, Kluwer Academic, Boston, 1997.        [ Links ]

COSTA, A. F. B. Joint Economic Design of X-bar and R Control Charts for Processes Subject to Two Independent Assignable Causes. IIE Transactions, v. 25, n. 6, p. 23-27, 1993.        [ Links ]

COSTA, A. F. B.; Epprecht, E. K.; CARPINETTI, L. C. R. Controle Estatístico de Qualidade. 2. ed. São Paulo: Atlas, 2005. 336 p.        [ Links ]

DEL CASTILLO, E.; MONTGOMERY, D.C. Optimal Design of Control Charts for Monitoring Short Production Runs. Journal and Newsletter for Quality and Reliability, n. 8, v. 4, p. 225-240, 1993.        [ Links ]

DUNCAN, A. J. The Economic Design of X-bar-Charts when there is a Multiplicity of Assignable Causes. Journal of the American Statistical Association, v. 66, p. 107-121, 1971.        [ Links ]

DUNCAN, A. J. Quality Control and Industrial Statistics. 5. ed. Homewood, IL: Richard D. Irwin, 1986.        [ Links ]

EHRGOTT, M.; GANDIBLEUX, X. A Survey and Annotated Bibliography of Multiobjective Combinatorial Optimization. OR Spektrum, v. 22, n. 4, p. 425-460, 2000.        [ Links ]

EHRGOTT, M.; GANDIBLEUX, X.Multiple Criteria Optimization: State of the Art - Annotated Bibliographic Survey. Kluwer’s International Series in Operations Research and Management Science, v. 52, Kluwer Academic Publishers, Boston, 2002.        [ Links ]

EPPRECHT, E. K.; NINIO, A. L.; DE SOUZA, M. O. Projeto Ótimo de Gráficos de Médias Móveis Ponderadas Exponencialmente (EWMA) para Controle Estatístico de Processo. Pesquisa Operacional, v. 18, n. 2, p. 109-130, 1998.        [ Links ]

EPPRECHT, E. K.; SANTOS, A. B.: Um Método Simples para o Projeto Ótimo de Gráficos de X-bar. Gestão e Produção, v. 5, n. 3, p. 206-220, 1998.        [ Links ]

EPPRECHT, E. K.; TEIXEIRA, R. B. M. Um Método Semi-Econômico para Otimização de Gráficos de Controle de Processos. Anais do XXXIII Simpósio Brasileiro de Pesquisa Operacional, Campos do Jordão, São Paulo, 2001.        [ Links ]

GIBRA, I. N. Economically Optimal Determination of the Parameters of X-bar–Control Chart. Management Science, v. 17, p. 635-646, 1969.        [ Links ]

GIBRA, I. N. Recent Developments in Control Chart Techniques. Journal of Quality Technology, v. 7, n. 4, p. 183-192, 1975.        [ Links ]

GIBRA, I. N. Economically Optimal Determination of the Parameters of p-Control Chart. Journal of Quality Technology, v. 10, p. 12-19, 1978.        [ Links ]

GIRSHIK, M. A.; RUBIN, H. A Bayes’ Approach to a Quality Control Model. Annals of Mathematical Statistics, v. 23, 1952.        [ Links ]

HARTLEY, H. O. The Probability Integral of the Range in Samples of N Observations from a Normal Population: Numerical Evaluation of the Probability Integral. Biometrika, v. 32, p. 309-10, 1942.        [ Links ]

HO, C.; CASE, K. E. Economic Design of Control Charts: a Literature Review for 1981-1991. Journal of Quality Technology, v. 26, n. 1, p. 39-53, 1994.        [ Links ]

KEATS, J. B.; DEL CASTILLO, E.; COLLANI. E. v.; SANIGA, E. M. Economic Modeling for Statistical Process Control. A Discussion on Statistically-Based Process Monitoring and Control. Journal of Quality Technology, v. 29, n. 2, p. 144-162, 1997.        [ Links ]

LADANY, S. P. Optimal Use of Control Charts for Controlling Current Production. Management Science, v.19, n.7, p. 763-772, 1973.        [ Links ]

LADANY, S. P.; ALPEROVITCH, Y. An Optimal Set-up Policy for Control Charts. Omega, v. 3, p. 113-118, 1975.        [ Links ]

LADANY, S. P.; BEDI, D. N. Selection of the Optimal Set-up Policy. Naval Research Logistics Quarterly, v. 23, p. 219-233, 1976.        [ Links ]

LORENZEN, T. J.; VANCE, L. C. The Economic Design of Control Charts: a Unified Approach. Technometrics, v. 28, n.1, p.3-10, 1986.        [ Links ]

MONTGOMERY, D. C., HEIKES, R. G.; MANCE, J. F. Economic Design of Fraction Defective Control Charts. Management Science, v. 21, n. 11, p. 1272-1284, 1975.        [ Links ]

MONTGOMERY, D. C. The Economic Design of Control Charts: a Review and Literature Survey. Journal of Quality Technology, v. 12, n. 2, p. 75-87, 1980.        [ Links ]

MONTGOMERY, D. C.: Introduction to Statistical Quality Control. John Wiley, 4. ed., 2001.        [ Links ]

PEARSON, E. S. The Probability Integral of the Range in Samples of N Observations from a Normal Population: Foreword and Tables. Biometrika, v. 32, p. 301-8, 1942.        [ Links ]

SANIGA, E. M. Joint Economically Optimal Design of X-bar and R Control Charts with Alternate Process Models. Management Science, v. 24, p. 420-431, 1977.        [ Links ]

SANIGA, E. M.: Joint Economic Design of X-bar and R Control Charts with Alternate Process Models. AIIE Transactions, v. 11, p. 254-260, 1979.        [ Links ]

SANIGA, E. M. Isodynes for X-bar and R Control Charts. Frontiers in Statistical Quality Control 2. In: LENZ H. L.; WETHERILL G. B.; WILRICH P-T (Eds.), Viena: Physica-Verlag, p. 268-273, 1984.        [ Links ]

SANIGA, E. M.: Economic-Statistical Control Chart Design with an Application to X-bar and R Charts. Technometrics, v. 31, p. 313-320, 1989.        [ Links ]

SANIGA, E. M.; DAVIS, D. J.; McWILLIAMS, T. P. Economic, Statistical and Economic-Statistical Design of Attribute Charts. Journal of Quality Technology, v. 27, p. 56-73, 1995.        [ Links ]

SANIGA, E. M..; SHIRLAND, L. E. Quality Control in Practice: A Survey. Quality Progress, v. 10, p. 30-33, 1977.        [ Links ]

SHEWHART, W. A.Economic Control of Quality of Manufactured Product. New York: Van Nostrand, 1931.        [ Links ]

SVOBODA, L. Economic Design of Control Charts: a Review and Literature Survey (1979-1989). Statistical Process Control in Manufacturing, J. B. Keats e D. C. Montgomery (eds.), Marcel Dekker, New York, 1991.        [ Links ]

TURNES, O.; HO, L. L. Effect of Process Variability on the Efficiency of X-bar-Control Chart Designs. Student, v. 5, n. 2, p. 97-111, 1977.        [ Links ]

TURNES, O.; HO, L. L. Monitoring Process Mean and Process Variance Using Collani’s T02 Statistic. Economic Quality Control, v. 20, n. 2, p. 223-229, 2005.        [ Links ]

TURNES, O.; HO, L. L.; IMANA, C. Comparison of Semi-Economic X-bar and X-bar-R Control Charts for Non-Ageing and Ageing Process. Economic Quality Control, v. 17, n. 1, p. 99-112, 2002.        [ Links ]

TURNES, O.; HO, L. L.; IMAÑA, C. R. Planejamento Econômico de Gráficos de Controle X-bar e R para Processos Regenerativos e Não Regenerativos. Gestão e Produção, v. 11, n. 1, p. 91-100, 2004.        [ Links ]

WEILER, D. J. On the most economical sample size for controlling the mean of a population. Annals of Mathematical Statistics, v. 23, p. 247-254, 1952.        [ Links ]

WHEELER, D. J. Advanced Topics in Statistical Quality Control: The Power of Shewhart’s Charts. Knoxville: SPC Press, 1995.        [ Links ]

WOODALL, W. H. The Statistical Design of Quality Control Charts. The Statistician, v. 34, p. 155-160, 1985.        [ Links ]

WOODALL, W. H. Weaknesses of the economic design of control charts. Technometrics, v.28, n.4, p. 408-409, 1986.        [ Links ]

 

 

Artigo recebido em 22/06/2007
Aprovado para publicação em 09/11/2007

 

 

Sobre os autores
Eugenio K. Epprecht
PUC-Rio/ Departamento de Engenharia Industrial
Professor Associado
End.: R. Marquês de S. Vicente, 225 – Rio de Janeiro, RJ – 22453-900
Tel./Fax: (21) 3527-1284, 3527-1285, 3527-1288
E-mail: eke@puc-rio.br

Adriana Leiras
PUC-Rio/ Departamento de Engenharia Industrial
Doutoranda
End.: R. Marquês de S. Vicente, 225 – Rio de Janeiro, RJ – 22453-900
Tel./Fax: (21) 3527-1284, 3527-1285, 3527-1288
E-mail: aleiras@aluno.puc-rio.br

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License