Buscar

(1) Controle Estatístico de Processos

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 146 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 146 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 146 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Controle Estatístico de Processos
Unidade 1 – Ferramentas básicas de qualidade e ferramentas gerenciais de qualidade
A engenharia deve partir da hipótese de que dois produtos nunca são exatamente iguais, pois ocorrem variações dimensionais e geométricas geradas por fatores relacionados ao material e ao processo produtivo. 
Buscando a melhoria contínua da qualidade, os métodos estatísticos se tornaram ferramentas cotidianas para descrição da variabilidade de uma série de dados, tanto contínuos como discretos. O entendimento das variabilidades de um processo permite a tomada de ação sobre as causas raízes geradoras dos problemas e, com isso, é possível a busca da melhoria da qualidade de um produto ou serviço. O monitoramento dos limites de controle de variáveis críticas torna-se, então, um artifício elementar para o controle estatístico dos mais diversos processos. Desse modo, esta disciplina pretende avançar em direção desse entendimento muito relevante ao profissional que, direta ou indiretamente, estará envolvido na busca de atendimento de todas as necessidades dos clientes internos e externos de uma organização produtiva
UNIDADE 1.
Ferramentas básicas de qualidade e ferramentas gerenciais de qualidade
OBJETIVOS DA UNIDADE
Estudar as principais técnicas e ferramentas para o controle e melhoria da qualidade e da produtividade;
Entender como funcionam as ferramentas básicas da qualidade, tais como: gráfico de Pareto, histograma, diagrama causa e efeito, dispersão, lista de verificação e gráfico linear e de controle. 
Ferramentas básicas da qualidade
// Gráfico de Pareto
// Histograma
// Diagrama causa e efeito
// Diagrama de dispersão
// Gráfico linear e de controle
Ferramentas gerenciais da qualidade
–
// Diagramas de relacionamentos e de afinidades
// Processos sistemáticos
// Matrizes de decisão
// Gráfico do programa de decisão do processo (PDPC)
// Diagrama de setas
A qualidade não pode mais ser entendida como algo isolado ou como um setor específico de um empresa, mas sim como uma elevação no nível de pensamento e ações a serem praticadas por todas as pessoas envolvidas nos processos organizacionais. Assim, as ferramentas da qualidade precisam ser compreendidas como métodos que devem ser usados com o objetivo de definir, medir, verificar, analisar e propor soluções e planos de ações para resolver qualquer tipo de problema em produtos, processos ou serviços, por todos os envolvidos nessa cadeia de informações.
As ferramentas da qualidade foram propostas e colocadas em prática, principalmente, no pós-guerra, a partir da década de 1950, com base em ideias e práticas existentes. Desde então, a aplicação das ferramentas tem sido de grande importância para os sistemas de gestão dos processos em organizações produtivas, sendo um conjunto de ferramentas com bases estatísticas consagradas, para melhoria de produtos, serviços e processos em empresas de pequeno, médio e grande portes.
É importante compreender como o domínio das técnicas de aplicação e análise das ferramentas da qualidade podem auxiliar o profissional responsável pelo controle estatístico do processo em suas atividades de tomada de decisão, assim como direcionar a busca do equilíbrio do tripé da sustentabilidade – econômico, social e ambiental – em uma organização produtiva.
GRÁFICO DE PARETO
Um dos primeiros e grandes pensadores em trabalhos na área de qualidade, Joseph Juran (1904-2008), encontrou muitas semelhanças nos padrões encontrados pelo estatístico italiano Vilfredo Pareto (1848-1923) na distribuição dos tipos de defeitos de certo produto em um sistema produtivo ou em serviços.
Após diversas verificações, concluiu que, em grande parte das tentativas de melhoria, poucos tipos de defeitos eram as causas principais da maioria das rejeições, ou seja, cerca de 80% dos problemas de qualidade de um componente ou processo são gerados por apenas 20% dos tipos de defeitos. Desse modo, o princípio de Pareto é normalmente chamado de regra 80/20.
Alguns exemplos dessa regra:
80% das atividades são realizadas por 20% da equipe;
80% dos usuários de aplicativos usam só 20% de seus recursos;
80% da riqueza do planeta é controlada por 20% da população total mundial;
80% das reclamações advêm de 20% da clientela;
80% das vendas de certa linha de produtos são feitas para 20% dos clientes.
O objetivo principal dos gráficos de Pareto não é identificar as causas dos problemas. Eles são usados em um passo anterior e são úteis sempre que classificações gerais de problemas, erros, defeitos, feedback de clientes, entre outras variáveis, puderem ser classificadas para estudo e ações posteriores. Por exemplo, nas seguintes situações:
Dias que certos produtos químicos apresentaram padrões abaixo do especificado;
Tipos de informações em processo de faturamento em uma empresa;
Peças que apresentaram problemas de campo em um determinado produto;
Ferramentas de usinagem que quebraram durante o processo de fabricação.
O diagrama de Pareto é um gráfico de barras que coloca em ordem as frequências das razões de ocorrências, da maior para a menor, permitindo a priorização dos problemas. Sobreposta a essas barras, é apresentada a curva das porcentagens que se acumulam. O diagrama e sua análise são utilizados para definir prioridades na busca das causas raízes e na correção assertiva de defeitos.
Esses diagramas são extremamente úteis para identificar falhas que ocorrem com maior frequência em um processo produtivo ou serviço, todavia, observa-se que nem sempre os problemas mais importantes são identificados imediatamente. Os diagramas trazem à tona onde as ações devem ser concentradas para se obter uma melhoria satisfatória com um menor dispêndio de recursos.
Apesar de nem sempre ser necessário seguir os passos tradicionais, em algumas situações, os planos de ações com menor retorno podem ser imediatamente colocados em prática sem a necessidade de aguardar aqueles com maior retorno serem resolvidos. Em que, para montá-los, faz-se necessário seguir alguns passos básicos:
· 1
1
Ordenar as razões de ocorrências por ordem decrescente de grandeza;
· 2
2
Indicar os valores acumulados. Esse cálculo é feito somando o número de ocorrências de uma razão mais as ocorrências da razão anterior;
· 3
3
Calcular os valores percentuais referentes a cada tipo de ocorrência;
· 4
4
Indicar os valores percentuais acumulados. Esse cálculo é feito somando o número percentual de ocorrências de uma razão mais as ocorrências da razão anterior.
Imagine a seguinte situação: uma empresa de confecções fabrica e fornece roupas para várias lojas e magazines. Nos últimos tempos, a quantidade de reclamações a respeito da qualidade do produto mais que dobrou. Com o objetivo de entender o problema, inspecionou-se os produtos devolvidos nos últimos dois meses, que apresentaram os seguintes tipos e números de defeitos mostrados na lista de verificação do Quadro 1.
Quadro 1. Lista de verificação dos tipos e quantidade de defeitos levantados no processo de confecção, conforme exemplo de caso.
A partir dessa folha de verificação, pode-se estruturar um diagrama de Pareto que visa transformar esses dados em informações úteis para o processo de tomada de decisão. Para isso, deve-se seguir os passos indicados para ordenar as razões de ocorrência, verificar os valores acumulados, ponderar percentualmente as ocorrências e indicar os percentuais acumulados para, finalmente, se conseguir traçar o gráfico de Pareto. Assim, os dados mostrados anteriormente são desdobrados no Quadro 2.
Quadro 2. Dados ordenados e ponderados para montagem do diagrama de Pareto, conforme exemplo de caso.
Com os dados ordenados, é possível, então, traçar o diagrama de Pareto. Para isso, são utilizadas as informações da coluna “número de ocorrências”, que definem as barras azuis, e da coluna “percentual acumulado” que gera a curva vermelha contínua, como é possível observar no Gráfico 1.
Gráfico 1. Diagrama de Pareto resultante do caso da empresa de confecções.
Analisando esse diagrama e seguindo o que foi preconizado por Pareto,se for solucionado apenas o defeito “falha na costura”, que sozinho soma mais de 20% dos problemas, se alcançaria uma melhoria de 80% nas reclamações. Logicamente que as demais falhas acabam sendo trabalhadas de acordo com a ordem das ocorrências, mas com um nível menor de prioridade e recursos.
Uma derivação muito usada do diagrama de Pareto é a chamada curva ABC, cujo uso nas empresas se apresenta com uma métrica que traz a possibilidade de comparar e classificar dados e informações de maior relevância com as de menor importância. Sua aplicação é justificada pela oportunidade de obtenção de informações que ajudem na elaboração de planos de ações, políticas de estoques, vendas e demais situações a serem priorizadas ao longo do processo de tomada de decisões. Como para a administração de estoques, em que o administrador a utiliza como um parâmetro ou gatilho que indica a necessidade de aquisição de itens – mercadorias ou matérias-primas – para esse controle do estoque, que pode variar de acordo com a demanda do consumidor.
HISTOGRAMA
Os gráficos de distribuição de frequências, também conhecidos como histogramas, são representações gráficas que visam ilustrar a distribuição de dados numéricos. Os histogramas são usados para analisar as variações, em termos quantitativos, das grandezas e de medidas nas amostragens de um processo, indicando se estão dentro dos padrões e se estão atendendo ou não aos requisitos de especificações e de qualidade. Trata-se de um método estatístico para a organização dos dados oriundos de listas de verificação, que exibe a frequência de ocorrência d''e uma determinada amostra. Eles sempre utilizam variáveis quantitativas como: peso, dimensões, volume, tempo, temperatura, entre outras. Neles, os dados são dispostos graficamente, permitindo a fácil e direta visualização de resultados históricos e a análise de evidências para a tomada de decisão da variação de frequências.
Um histograma mostra com que frequência ocorre cada valor diferente em um conjunto de dados. Parece muito com um gráfico de barras, mas existem diferenças importantes entre eles. Para montá-lo, faz-se necessário seguir alguns passos:
Em uma lista de verificação, coletar e organizar a amostra com um número significativo de dados;
Determinar o número de categorias e o intervalo entre as categorias. É indicado que se use a seguinte relação entre número de dados e número de classes:
1. Abaixo de 50 dados, usar de cinco a sete classes;
2. De 50 a 100 dados, usar de seis a dez classes;
3. De 100 a 250 dados, usar de 7 a 12 classes;
4. Acima de 250 dados, usar de 10 a 20 classes;
Organizar os dados, colando-os dentro das categorias, de acordo com o intervalo;
Colocar os dados no gráfico, com as categorias no eixo horizontal e a frequência de ocorrência no eixo vertical. Para isso, deve-se determinar a “largura” de cada classe e seus limites, calculando primeiro sua amplitude (R), que é a diferença entre o maior valor e o menor valor e, em seguida, a largura da base (L) que deve ser a razão entre a amplitude e o número de classes definido no passo 2 (L = R/n° classes);
Verificar e analisar a forma do gráfico.
O histograma mostra claramente os dados de uma população agrupados por filas de retângulos, sendo as áreas retangulares proporcionais às frequências dos dados atribuídos às respectivas classes. Essa distribuição de frequência indicada por esses gráficos de distribuição, mostra com que frequência ocorre cada informação diferente em um conjunto de dados. Todavia para se chegar a uma conclusão sobre um histograma, é importante se certificar de que o processo, que está sendo analisado, estava operando normalmente durante o tempo em estudo e tomada de dados. Se algum evento incomum afetou o processo durante a coleta dessas informações, a análise da forma do histograma provavelmente não pode ser generalizada para todos os períodos.
O histograma dá uma ideia da distribuição dos valores medidos. Primeiro, a faixa de números em que os valores medidos estão localizados é dividida em sub faixas. Essas subáreas, geralmente do mesmo tamanho, são chamadas de classes. O valor numérico que separa duas classes uma da outra é chamado de limite de classe.
Imagine a seguinte situação: você é responsável pela melhoria da qualidade de uma linha de produção de um certo lubrificante. Para avaliar o comportamento da vazão durante o envaze do lubrificante você coletou 80 amostras do produto. Para elaborar um relatório sobre como devem ser tomadas uma série de ações de melhoria, você precisou elaborar um histograma para organizar de modo visual a distribuição desses dados. Os volumes medidos nas 80 amostras estão na folha de verificação do Quadro 3.
Quadro 3. Folha de verificação com os volumes medidos nas 80 amostras coletadas, conforme exemplo de caso.
A partir dessa folha de verificação, pode-se estruturar um histograma para entender a distribuição das frequências do envaze. Para isso, deve-se seguir os passos indicados para definir o número de categorias e intervalo entre elas, organizar os dados dentro de cada categoria, definir a amplitude e largura das classes, para, finalmente, se conseguir elaborar o histograma. Nesse exemplo, como a indicação para 80 amostras é de utilização de seis a dez classes, foi definido a divisão em oito classes de volumes. Como o menor valor medido foi 35,4 mL e o maior foi 45,0 mL, a amplitude (R) é igual a 9,6 mL:
R = 45,0 - 35,4 = 9,6             (1)
Logo, a largura da base (L) será igual a 1,2: L = R / 8 = 9,6 / 8 = 1,2.
Desse modo, a quantidade de dados presentes em cada faixa de medidas são apresentadas no Quadro 4.
Quadro 4. Folha de verificação com os volumes medidos nas 80 amostras coletadas, conforme exemplo de caso.
Utilizando as informações das classes e quantidades de dados presentes no Quadro 4, pode-se montar o histograma, conforme apresentado no Gráfico 2, que deixa clara a distribuição das frequências para cada intervalo de volume de envaze do caso estudado.
Gráfico 2. Histograma demostrando a distribuição de frequência de volume de envaze, conforme exemplo de caso.
A elaboração e análise de um histograma possibilita avaliar o modo de distribuição dos dados, a grandeza das variações, a amplitude dos dados, a simetria da distribuição e, com isso, tirar conclusões sobre o desempenho do processo, o que auxilia na definição de ações para a busca da melhoria contínua.
DIAGRAMA CAUSA E EFEITO
O diagrama causa e efeito foi proposto por um dos gurus da qualidade, o engenheiro japonês Kaoru Ishikawa. Em sua homenagem, muitos estudiosos e organizações produtivas chamam essa ferramenta de diagrama de Ishikawa. Ainda no pós-Segunda Guerra Mundial – anos 1940 – ele preconizou que as causas de um problema são agrupadas a partir de seis espinhas principais presente nos processos produtivos, os chamados 6 Ms:
Falhas em materiais;
Falhas em métodos;
Falhas em mão de obra;
Falha em máquinas;
Falhas no meio ambiente;
Falhas nas medidas.
CURIOSIDADE
A contribuição mais importante de Kaoru Ishikawa (1915-1989) foi o desenvolvimento de uma estratégia de gestão com ampla participação na qualidade em todos os níveis de uma organização e não somente dos executivos. Ele introduziu o conceito de “círculo de qualidade” de onde, em 1943, seria proposto o diagrama de causa e efeito, como uma ferramenta eficaz que pode ser usada, inclusive, por não especialistas para a busca das causas raízes para solução de problemas.
Sendo uma ferramenta com grande apelo visual, como apresentado no Diagrama 1, e por ter seu conceito baseado em seis espinhas, essa abordagem também costuma ser chamada de diagrama espinha de peixe.
Diagrama 1. Típico formato do diagrama causa e efeito proposto por Ishikawa.
O diagrama de causa e efeito parte do pressuposto de que o efeito não é produzido por uma única causa, mas por um conjunto de fatores que desencadeiam todo o processo. Além disso, envolve um trabalho coletivo, pois as pessoas participam, opinando sobre as prováveis causas que teriam gerado o problema.
Esses diagramasem formato de espinhas de peixe têm como finalidade principal explorar do modo mais visual possível e indicar todas as causas possíveis de uma condição ou um problema específico. Foi proposto para ser usado e entendido em todos os níveis de uma empresa, já que, muitas vezes, as informações dos operadores diretos das linhas de montagem são muito importantes para o entendimento do problema e para busca de suas possíveis causas.
Cada uma das seis espinhas principais desse diagrama trata de questões como:
Clique nos botões para saber mais
Mão de obra
+
Materiais
+
Máquina
+
Meio ambiente
+
Método
+
Medidas
+
Com o diagrama causa e efeito estruturado, fica muito mais fácil e direta a elaboração de planos de ação que contemplem os seus seis eixos principais, assim como a definição de responsáveis e dos prazos de execução de cada ação presente nesses planos.
DIAGRAMA DE DISPERSÃO
Os diagramas de dispersão têm sido utilizados para verificar a inter-relação entre variáveis. Havendo relação entre duas delas, torna-se possível analisar uma das variáveis de modo dependente da outra ou ainda realizando a análise de cada variável de modo independente. Trata-se, portanto, de uma ferramenta visual estruturada por variáveis discretas e dispersas, que tem como objetivo demonstrar se um produto ou componente está ou não relacionado ao outro. Um exemplo prático seria a utilização de um diagrama de dispersão para avaliar se alguma característica de uma matéria-prima está ou não relacionada ao produto durante seu uso. Logo, demanda alto grau de interpretação das informações.
O diagrama de dispersão é usado para testar possíveis inter-relações entre causa e efeito, isso é, ilustra o que pode acontecer com uma variável discreta quando a outra variável mudar. Para exemplificar, vamos observar o Gráfico 3(a), em que é apresentado um diagrama de dispersão de pureza e teor de ferro em uma liga de aço. Nota-se que não se estabelece relação entre as duas variáveis – pureza e partes por milhão. Agora, imagine que foi verificado, durante a discussão do diagrama, que foram usados três equipamentos diferentes para a produção desse aço. Talvez, esses equipamentos fossem diferentes o suficiente para que os resultados encontrados mostrassem relações entre as variáveis. Assim, a equipe atualizou o diagrama de dispersão usando estratificação para separar os dados dos três equipamentos, conforme o Gráfico 3(b). Com isso, é possível afirmar que, para dois dos reatores – o indicado pelo triângulo azul e o indicado pelo círculo vermelho –, o aumento de partes por milhão do ferro estaria relacionado à diminuição da pureza.
Clique nas setas para saber mais
· 1
· 2
Gráfico 3. Exemplo de análise de diagramas de dispersão, conforme exemplo de caso.
Gráfico 3. Exemplo de análise de diagramas de dispersão, conforme exemplo de caso.
Desse modo, nota-se que um diagrama de dispersão pode ser usado para procurar relações entre variáveis, pois uma variável pode fazer com que uma segunda variável mude, ou um terceiro fator pode afetar as duas primeiras. Os diagramas de dispersão podem revelar essas relações ou verificar se as variáveis são independentes. Com isso, é possível levantar efeitos relativos que servem como dados de entrada para elaboração de outras ferramentas, como os diagramas de Ishikawa que, como visto, são aplicados para buscar as causas raízes desses efeitos.
Os gráficos de Pareto são estruturados com a sobreposição de um gráfico de barras e uma curva de porcentagens que vão se acumulando. Os histogramas são usados para analisar as variações, mostrando a distribuição de frequências de dados numéricos. Os diagramas de dispersão são usados para verificar a inter-relação entre causa e efeito.
GRÁFICO LINEAR E DE CONTROLE
Os gráficos lineares e de controle foram um dos primeiros modelos com base estatística aplicados na busca da melhoria da qualidade, ainda nos anos 1920. Entretanto seu uso se tornou muito mais popular quando um dos grandes pensadores da qualidade, o estatístico, físico e engenheiro Walter Andrew Shewhart, propôs sua aplicação em sistemas de produção seriadas, tornando-se uma das ferramentas da qualidade mais indicadas no controle estatístico de processos.
O objetivo dos gráficos de controle é a aplicação de conceitos estatísticos em um cenário gráfico de fácil compreensão. Esse foi o grande salto que possibilitou eliminar a segregação direta de itens com problemas no final das linhas de montagem, por uma análise mais científica do processo produtivo como um todo.
Esses gráficos são elaborados com a definição de que no eixo horizontal devem estar as variáveis de tempo ou as identificações das amostras e, no eixo vertical, as medições, como por exemplo, dimensões, volumes, temperatura, entre outras. A partir do desvio-padrão das medições, são definidos os limites de controle – limite superior de controle (LSC) e o limite inferior de controle (LIC). Com base nesses limites, à medida que mais amostras são tomadas do processo, analisa-se se o processo continua ou não sob controle. Essa análise toma como base se as novas amostras estão dentro ou fora dos limites definidos estatisticamente.
CITANDO
De acordo com Montgomery (2014, p. 86), o teorema central do limite estabelece que “a distribuição da soma de n variáveis aleatórias independentes é aproximadamente normal, independentemente das distribuições individuais das variáveis.” Assim, pode-se afirmar que 99,73% dos valores estão entre os limites definidos pela média, mais ou menos três vezes o desvio-padrão (MA ± 3σ) em uma distribuição normal.
O Gráfico 4 apresenta um típico gráfico de controle, também chamado de carta de controle. Note que existem pontos de medições fora dos limites superiores e inferiores. Isso indica que seu processo está instável ou fora de controle. Demandando, assim, tomada de ações para o colocar novamente sob controle.
LSC: limite superior de controle; LIC: limite inferior de controle.
Gráfico 4. Exemplo de análise de diagrama de dispersão.
É importante salientar que os limites de controle não têm relação com as tolerâncias de projeto. Essa relação entre limites de controle e tolerâncias só é feita para cálculos de capabilidade, o que foge do foco principal desse tópico. Assim, as cartas de controle são ferramentas que auxiliam no monitoramento da variabilidade e na avaliação da estabilidade do processo, nos alertando se o processo está ou não sob controle estatístico. Para isso, Shewhart preconizou que se fossem definidos limites superiores e inferiores iguais a três vezes o desvio-padrão de uma quantidade de amostras, garantiria-se que 99,73% da variação de causas comuns cairiam dentro desses limites estabelecendo, então, a definição de controle no processo. O desvio-padrão é calculado pela seguinte equação:
Onde:
DP = desvio-padrão;
xi = valor no conjunto de dados na posição i;
MA = média aritmética do conjunto de dados;
n = quantidade total de dados do conjunto.
Com isso, pode-se calcular o limite superior de controle (LSC) e o limite inferior de controle (LIC):
LSC = MA + 3. DP
LIC = MA - 3. DP  (3)
Nesse cenário, imagine a seguinte situação: uma empresa de envase de leite controla, por amostragem, o conteúdo de cada embalagem. Para isso, são coletadas 99 amostras ao longo de um dia de produção, pelas quais se obtém os seguintes dados que estão na folha de verificação apresentada no Quadro 5.
Quadro 5. Folha de verificação com os volumes medidos nas 99 amostras de leite coletadas, conforme exemplo de caso.
A partir dessa folha de verificação, pode-se estruturar uma carta de controle para checar o processo de envaze dos litros de leite. Para isso, deve-se seguir os passos indicados, para primeiramente calcular a média, em seguida, o desvio-padrão e, por fim, definir os limites de controle superior e inferior para verificar se o processo está ou não sob controle. Como se sabe que o número de medições é 99 e que a média das medições é 1.000,07 mL, pode-se calcular o desvio-padrão do seguinte modo:
Assim, os limites superiores e inferioresde controle devem ser:
LSC = MA + 3. DP = 1000,07 + 3. (2,72) = 1008,21
LIC = MA - 3. DP = 1000,7 - 3. (2,72) = 991,93       (5)
Com isso, pode-se elaborar a carta de controle, conforme o Gráfico 5.
LSC: limite superior de controle; LIC: limite inferior de controle.
Gráfico 5. Exemplo de carta de controle para um processo de envaze de leite, conforme exemplo de caso.
Como se pode observar no Gráfico 5, alguns pontos de verificação ficaram acima do LSC e outros abaixo do LIC. Desse modo, conclui-se que o processo não está sob controle e, assim, deve-se buscar as causas do problema e realizar planos de ação para tentar controlar as variações inevitáveis do processo e colocá-lo sob controle novamente.
Outras situações de verificação recomendadas por muitos estatísticos se dão quando sete ou mais pontos consecutivos aparecerem todos acima ou todos abaixo da média. Esses casos também costumam servir como gatilho para a equipe trabalhar em plano de ações e sequenciamento dos controles.
As cartas de controle definem limites superiores e inferiores, gerados a partir do histórico de medições de amostras que se ajustam à medida do processo produtivo e evidenciam variações e tendências que podem se tornar críticas, tornando o processo produtivo fora do controle estatístico.
As ferramentas gerenciais da qualidade são meios para resolver o problema de modo eficaz, com o pensamento em médio e longo prazo, em busca da melhoria contínua. Os modelos usados são sistemáticas simples para selecionar, implantar ou avaliar as alterações no processo por meio de análises objetivas de partes bem-definidas (PALADINI; CARVALHO, 2012). São artifícios usados para aplicar as métricas e estratégias de gestão da qualidade, aplicando seus princípios em benefício dos processos produtivos, bens de consumo, serviço, entre outros pontos do modelo de negócios em questão.
Nos últimos anos, percebeu-se a necessidade de ferramentas para promover a inovação, comunicar informações e planejar grandes projetos com sucesso. Para isso foram pesquisadas e desenvolvidas novas ferramentas e formas de aplicação para a melhoria da gestão da qualidade. Nem todas as ferramentas são novas, mas sua coleta e promoção, sim. Entre elas, destacam-se: os diagramas de relacionamento e de afinidade, os processos sistemáticos ou diagramas de árvore, as matrizes de decisão, o gráfico de programa de decisão de processo (PDPC) os diagramas de seta.
DIAGRAMA DE RELACIONAMENTOS E DE AFINIDADES
Quando se faz necessária a aplicação de alguma ferramenta que permita a organização de um grande número de dados em grupos e características semelhantes, surge o diagrama de afinidades como um excelente apoio ao processo de tomada de decisões gerenciais. Esses diagramas traçam pontos de ligação entre os resultados de um levantamento de dados e ideias disponíveis sobre um determinado tema.
Em geral, esses diagramas de afinidades são a ponte de ligação entre um brainstorming e a montagem do plano de ação para busca da melhoria da qualidade. O brainstorming é uma técnica baseada em uma dinâmica de grupos, onde representantes de várias áreas trabalham de modo integrado e criam um ambiente multidisciplinar para auxiliar a geração de ideias. Nele, todos os envolvidos podem lançar ideias livremente, sem questionamentos ou preconceitos, para buscar, por meio de ligações cognitivas, alternativas de inovação, busca de causas possíveis para problemas, soluções etc. Para organizar essa “tempestade de ideias” geradas nesse processo, indica-se a utilização de uma rede de relacionamentos entre elas. Essa rede é definida como diagrama de afinidades. Sendo que essa ferramenta gerencial da qualidade possibilita a organização de dados, agrupando-os de acordo com suas características.
Esses diagramas podem ser construídos graficamente com linhas que ligam ideias relacionadas ou, como é muito usado após as dinâmicas de brainstorming, classificando as ideias com notas adesivas coloridas, em que cada cor representa uma família de temas afins, como ilustrado na Figura 1. Trata-se, portanto, de uma análise qualitativa, que visa organizar ideias, identificar padrões e obter oportunidades para problemas inicialmente complexos. Sua grande contribuição está no fato de que o trabalho todo pode ser construído e analisado visualmente, em ambientes diversos, multidisciplinares ou multiculturais.
Figura 1. Modelo de diagrama de afinidades montado com notas adesivas coloridas após um brainstorming. Fonte: Shutterstock. Acesso em: 19/02/2021.
A fim de encontrar muitas boas ideias por meio da cooperação de todos os membros do grupo, os seguintes pontos devem ser observados por todos os participantes:
Clique nas setas para saber mais
1
Coleção de ideias
As ideias expressas pelos participantes não podem ser criticadas ou zombadas. Ideias incomuns são permitidas e estimuladas. Todas devem ser registradas por um líder que organiza a seção. Desse modo, todos os participantes podem gerar e ter acesso às sugestões (em quadros, flip-charts etc.). Com isso, cada nova ideia gerada abre novos portais neurais para uma série de novas ideias que surgem a partir dela. Para isso, a diversidade e quantidade de participantes é desejável;
Preparação de ideias
Após um primeiro momento livre para gerar o maior número de sugestões possíveis, as ideias devem ser classificadas. É possível se orientar por meio dos 5 Ms (homem, máquina, material, método, ambiente) ou pelas necessidades específicas que o modelo de negócio exige. Aqui, as linhas de afinidade entre as ideias devem ser traçadas ou separadas por cores. As sugestões também podem ser estruturadas e apresentadas pelo diagrama de causa e efeito;
Documentação e implementação
Na etapa final da dinâmica, as ideias e sugestões são discutidas, ponderadas e, então, analisadas suas viabilidades técnicas e econômicas. O resultado da discussão deve ser formalizado e distribuído com base em um protocolo. A implementação das sugestões pode ocorrer por meio de um procedimento planejado em um plano de ação bem estruturado.
PROCESSOS SISTEMÁTICOS
PROCESSOS SISTEMÁTICOS
Os diagramas sistemáticos ou tipo árvore são usados para determinar os caminhos necessários para se atingir objetivos específicos, definindo a causa raiz do problema e tornando o plano de ação visível e acessível. Os processos sistemáticos para montagem de um diagrama de árvore para auxiliar a gestão da qualidade ajudam a traduzir a voz do cliente, as necessidades e desejos das partes interessadas e até avaliações de autodesempenho.
Devem ser utilizados após a coleta de dados da voz do cliente para analisar os seus requisitos e determinar quais características de qualidade devem ser melhoradas, especialmente quando os requisitos do cliente são complexos, amplos ou vagos. Para isso, deve-se listrar os requisitos do cliente para o produto ou serviço em suas próprias palavras, colocando cada requisito em uma caixa na primeira camada de um diagrama de árvore. A partir daí, deve-se atentar ao primeiro requisito e fazer perguntas para tornar o requisito mais específico. Perguntas como:
Com essas primeiras perguntas respondidas, é possível passar para a próxima camada da árvore com uma nova série de questões, tais como:
É necessário atender a cada uma dessas características para que o cliente esteja satisfeito de que o requisito inicial foi atendido? Se o requisito pode ser alcançado sem atender a uma característica, essa característica deve ser removida;
Atender a todas essas características seria suficiente para o cliente ficar satisfeito de que o requisito inicial foi atendido? Se as características não forem suficientes, decide-se o que está faltando e adiciona-se.
E, assim, sucessivamente, repetindo as etapas, camada a camada, para cada resposta da camada seguinte até atingir as características em um nível de detalhe que sejam significativas para a organização e possam ser medidas. Não é necessário que cada galho da árvore tenha o mesmo comprimento. O importante é verificar se todas as características no final de cada ramosão mensuráveis. Se sim, pode-se definir metas para cada medida, estruturando um plano de ação.
Os processos sistemáticos de construção de um diagrama de árvore, possibilita a redução do tempo das análises e otimiza o processo de busca de soluções de problemas. Assim como, pode ser aplicado para mostrar de forma gráfica, fácil e direta o desdobramento de processos, transformando-os em ações e ajustes nas especificações de projetos e instruções de trabalho.
MATRIZES DE DECISÃO
.
Afinal, inúmeras decisões são buscadas todos os dias e, muitas vezes, acabam sendo muito complexas. Essas matrizes buscam transformar dados em indicadores que podem ser fundamentais em muitas situações, como por exemplo, na seleção de um fornecedor, na definição de gatilhos que alertem a necessidade de promoção de seus liderados, na priorização de tarefas, entre tantas outras necessidades cotidianas de uma empresa ou de um gerente.
Assim, tendo um problema e buscando a sua resolução, é importante entender se os processos envolvidos ocorrem sempre do mesmo modo ou não. Nesse cenário, as matrizes de decisão podem ser ferramentas aliadas e interessantes para melhoria contínua desses processos. Desde as mais populares, usadas pela área de marketing, como a matriz SWOT, que busca avaliar as forças (S), fraquezas (W), oportunidades (O) e ameaças (T) de um modelo de negócios, passando pelas matrizes de inovação que buscam estabelecer a simplificação de projetos sem perdas de oportunidades, até as matrizes de decisão, também chamadas de matrizes de gravidade, como a que vem sendo muito usada na melhoria de processo, a eficiente matriz GUT, que avalia gravidade (G), urgência (U) e tendência (T) de um problema, estabelecendo uma ordem de priorização para busca de soluções.
Imagine a seguinte situação: você é contratado como consultor para definir um plano de ações e a ordem de execução desse plano em um restaurante que está com seis problemas relatados pelo seu contratante. Os problemas são:
Porta de entrada está emperrando para trancar;
20% dos clientes reclamaram de falta de vagas de estacionamento;
Dois dos cinco garçons estão em aviso-prévio;
Fornecedores indicaram reajuste dos preços para o próximo mês;
Clientes tendo que aguardar muito tempo até desocupar uma mesa;
10% dos clientes reclamaram que a comida estava fria.
Com essas informações, faz-se necessário quantificar a priorização desses problemas, visando a otimização dos recursos. Para isso, as matrizes de decisões se apresentam como uma fácil, rápida e ótima ferramenta gerencial da qualidade. Uma boa opção, nesse caso, seria a aplicação da matriz GUT, pois se trata de uma ferramenta de gestão utilizada para priorização de tarefas por meio da identificação da gravidade, urgência e da tendência de comportamento de cada problema dos casos em estudo, ajudando o processo de tomada de decisão quanto ao que se deve fazer primeiro. Assim, cada um dos problemas listados deve ser pontuado de um a cinco para cada um dos três critérios – gravidade (G), urgência (U) e tendência (T), sendo que:
Gravidade
Analisa o seu real tamanho e potencial de gerar impactos negativos na empresa, podendo ser devastador (5) ou, por outro lado, sequer causar arranhões (1);
Urgência
Leva em consideração quanto urgente a questão precisa ser priorizada para evitar prejuízos maiores, definindo se é algo que precisa ser resolvido “para ontem” (5) ou que ainda pode esperar um momento mais oportuno para ser trabalhado (1);
Tendência
Pondera a probabilidade do problema se agravar com o passar do tempo se nada for feito, verificando se pode piorar rapidamente (5), em curto prazo (4), em longo prazo (2) ou se não irá mudar (1).
No Quadro 6, é apresentada a matriz de decisões GUT para esse caso do restaurante.
Quadro 6. Matriz de decisões GUT para o caso do restaurante com seis problemas.
É importante observar que na elaboração de uma matriz GUT, como a apresentada no Quadro 6, só se torna consistente se ela for elaborada por uma equipe multidisciplinar. No gerenciamento da qualidade, as decisões devem ser colegiadas para que todas as partes interessadas possam indicar suas necessidades e para todos se sentirem comprometidos com as decisões tomadas. No exemplo, os seis problemas foram listados, a equipe discutiu a pontuação de cada um quanto à gravidade, urgência e tendência e, por fim, fez-se o produto entre as pontuação de cada uma deles (GxUxT), destacando-se o sexto problema listado – 10% dos clientes reclamaram que a comida estava fria – com 80 pontos como sendo o de maior prioridade para resolução. Assim como, a matriz de decisões deixou claro quais as próximas prioridades de resolução entre os demais problemas, para as quais devem ser posicionados recursos disponíveis e planejados os cronogramas de execução. No caso, após a implantação das ações para o problema 6, a ordem de prioridades seria: problemas 4, 5, 3, 2 e 1.
GRÁFICO DO PROGRAMA DE DECISÃO DO PROCESSO (PDPC)
O gráfico do programa de decisão do processo, muito conhecido como PDPC, por ser o acrônimo da expressão em inglês Process Decision Program Chart, é definido como uma ferramenta de gestão da qualidade que auxilia o planejamento sistemático dos planos de desenvolvimento. As suas saídas principais são os planos de ação para prevenção ou resolução dos obstáculos que surgem durante o plano de trabalho.
Seu uso é indicado para antes de implementar um plano, especialmente quando o plano é grande e complexo, buscando reduzir as probabilidades de estouros do cronograma e dos investimentos. Esses gráficos lembram muito o diagrama de árvore, entretanto, trata-se de um desdobramento dele. Assim, os seguintes passos são estabelecidos para sua completa elaboração:
Deve-se obter ou desenvolver um diagrama de árvore do plano proposto. Esse deve ser um diagrama de alto nível mostrando o objetivo, um segundo nível de atividades principais e um terceiro nível de tarefas amplamente definidas para realizar as atividades principais;
Para cada tarefa no terceiro nível, pense no que pode dar errado. Um brainstorming é muito recomendado;
Reveja todos os problemas potenciais e elimine aqueles que são improváveis ou cujas consequências seriam insignificantes. Mostre os problemas como um quarto nível vinculado às tarefas. Algumas organizações formalizam esse nível como “mapeamento de risco”;
Decida quão prática é cada contramedida. Use critérios como custo, tempo necessário, facilidade de implementação e eficácia. Marque as contramedidas pouco práticas com um X e as práticas com O
O Diagrama 2 mostra uma organização possível de um gráfico PDPC, em que o retângulo azul indica um dos galhos do diagrama de árvore original, os retângulos alaranjados são as questões com potenciais de dar errado, os quadrados verdes indicam o mapeamento final de riscos que demandam planos de ação e os círculos vermelhos indicam cada um desses planos de contingência (contramedidas) marcados com X ou O, conforme sua praticidade.
Essas perguntas podem auxiliar o processo de identificação dos problemas:
Outros resultados podem acontecer também? 
Existem entradas indesejáveis associadas às boas entradas?
Quais resultados você está esperando?
Outros podem acontecer também?
O que isso deve fazer?
Há algo mais que possa ser feito “em vez de” ou “além de”? 
Isso depende de ações, condições ou eventos?
São controláveis ou incontroláveis?
O que não pode ser alterado ou é inflexível?
Isso permite alguma margem de erro?
Que suposições foram feitas?
Isso poderia estar incorreto?
Qual tem sido a experiência da empresa em situações semelhantes?
Como isso é diferente?
DIAGRAMA DE SETAS
O diagrama de setas mostra a ordem necessária das tarefas em um projeto ou processo, o melhor cronograma para todo o projeto e possíveis problemas de cronograma, recursos e suas soluções. Ele permite calcular o caminho crítico do projeto. Esse é o fluxo de etapas críticas em que atrasos devem afetar o tempo de todo o projeto e onde a adição de recursos pode acelerar o projeto. Ele é indicado para situações onde se faznecessário agendar e monitorar tarefas dentro de um projeto ou processo complexo com etapas e recursos inter-relacionados. Assim como quando se conhece as etapas do projeto ou processo, sua sequência e o tempo despendido para cada etapa, desde que essa cadeia seja otimizada. Ainda em casos quando o cronograma do projeto é crítico, com sérias consequências para a conclusão com atraso do projeto ou ainda na busca por vantagem significativa para concluí-lo antecipadamente.
Como nas demais ferramentas, é indicado para a elaboração de um diagrama de setas a participação de representantes de todas as áreas impactadas pela tarefa em questão. Não sendo necessário recursos especiais além de materiais como: notas adesivas ou cartões, canetas de marcação, grande superfície de escrita (quadro ou páginas de flip-chart). Os passos para sua elaboração podem ser descritos como:
Listar todas as tarefas necessárias no projeto ou processo. Um método conveniente é escrever cada tarefa na metade superior de um cartão ou nota adesiva. No meio do cartão, desenhe uma seta horizontal apontando para a direita;
Determinar a sequência correta das tarefas. Faça três perguntas para cada tarefa:
1. Quais tarefas devem acontecer antes que essa possa começar?
2. Quais tarefas podem ser realizadas ao mesmo tempo que essa?
3. Quais tarefas devem acontecer imediatamente após essa?
Pode ser útil criar uma tabela com quatro colunas – tarefas anteriores, essa tarefa, tarefas simultâneas, tarefas seguintes;
Traçar um diagrama da rede das tarefas. Se estiver usando notas adesivas ou cartões, organize-os em sequência em uma folha grande de papel. O tempo deve fluir da esquerda para a direita e as tarefas simultâneas devem ser alinhadas verticalmente. Deixe um espaço entre os cartões;
Entre cada duas tarefas, desenha-se círculos para eventos. Um evento marca o início ou o fim de uma tarefa. Assim, eventos são os nós que separam tarefas;
Procurar três situações de problemas comuns e as redesenhar usando simulações ou eventos extras. Uma tarefa fantasma é uma seta desenhada com linhas pontilhadas usada para separar tarefas que, de outro modo, iniciariam e parariam com os mesmos eventos ou para mostrar a sequência lógica. Tarefas fantasmas não são tarefas reais, somente estudos;
Quando a rede estiver completa, rotular todos os eventos em sequência com os números dos eventos nos círculos. Pode ser útil rotular todas as tarefas em sequência, usando letras;
Determinar os tempos das tarefas. O tempo da tarefa é a melhor estimativa do tempo que cada tarefa deve exigir. Use uma unidade de medição (horas, dias ou semanas) em toda a consistência. Escreva hora na seta de cada tarefa;
Determinar o caminho crítico. O caminho crítico é o caminho mais longo do início ao fim do projeto. Marque o caminho crítico com uma linha grossa ou cor diferente das demais. Calcule o comprimento do caminho crítico: a soma de todos os tempos de tarefa no caminho.
No processo de elaboração de um diagrama de setas, é importante o envolvimento de uma equipe de pessoas com amplo conhecimento sobre o projeto ou sobre os detalhes do processo. O modo mais fácil de construir o diagrama ao definir a sequência pela primeira vez é encontrar o caminho com a maioria das tarefas. Desenhe esse caminho primeiro e, em seguida, adicione outros caminhos paralelos.
Quanto mais eficientes forem os controles, melhores devem ser as capacidades dos gestores da qualidade em medir o progresso dos processos em relação ao que foi planejado, aplicando ajustes na duração, sequência e recursos usados nas atividades, se necessário. Os gráficos de setas organizam de modo visual esse acompanhamento que deve ser atualizado ao longo de todo o trabalho, de modo que o gerente tenha em mãos dados fidedignos sobre a sua execução e possa acompanhar e ajustar o cronograma.
No Diagrama 3, é exemplificada a utilização de um diagrama de setas para avaliação do cronograma de atividades de um caso simples de concepção de uma linha de biscoitos artesanais. Notem que as atividades somam um total de 20 semanas, mas com a utilização da análise do diagrama de setas, encontra-se um caminho crítico de 18 semanas. Sendo, então, um artifício gerencial muito relevante para o processo de tomada de decisões em organizações produtivas e de serviços.
Diagrama 3. Modelo de um diagrama de setas, conforme exemplo de caso.
Os diagramas de setas são muito utilizados no mundo empresarial e, algumas vezes, com outros nomes, tais como diagrama de rede de atividades e diagrama de nó. Todavia, em atividades mais extensas e complexas, apenas a análise visual dos caminhos críticos não se faz suficiente e mais técnicas devem ser empregadas para reduzir as probabilidades de falhas de dimensionamento de recursos para cada atividade. Derivações do diagrama de seta são muito utilizadas em diversas organizações, como o respeitado PERT.
EXPLICANDO
PERT é o acrônimo da expressão em inglês Program Evaluation and Review Technique (técnica de avaliação e revisão de programas), introduzido no final da década de 1950, que considera um projeto como um elemento independente dentro de uma organização. Atualmente, os estudos de risco de projetos partem do conceito do PERT e avaliam mais profundamente projetos anteriores, criando uma abordagem estatística entre probabilidades e consequências de risco. Tratando os prazos dos projeto como faixas de tempo e não mais como uma data específica.
Ferramentas gerenciais da qualidade são artifícios usados pelos gestores para priorizar e resolver problemas por meio da aplicação de métricas e estratégias de gestão da qualidade que utilizam seus princípios em benefício dos processos inerentes do modelo de negócios em questão.
SINTETIZANDO
Nesta unidade, foram apresentados conceitos que devem permitir ao profissional, que irá atuar como agente da qualidade nas mais diversas organizações, identificar e aplicar as melhores práticas de ferramentas básicas e gerenciais da qualidade. Para todas as ferramentas da qualidade apresentadas foram estabelecidas as bases estatísticas e conceituais que são essenciais para o controle estatístico de processos.
Entre as ferramentas básicas da qualidade foi conceituado o gráfico de Pareto, que utiliza, em um ambiente de produção, a abordagem estatística de que ao se resolver apenas 20% das falhas, pode-se solucionar 80% dos problemas de um processo. Os histogramas, que são gráficos de distribuição de frequências usados para analisar quantas vezes as saídas de um processo estão padronizadas, atendendo aos requisitos estabelecidos. O diagramas causa e efeito que é uma ferramenta de grande apelo visual, cuja finalidade principal é explorar e indicar todas as causas possíveis de um problema específico. O diagrama de dispersão, como ferramenta básica para verificar a interrelação entre variáveis. E os gráficos lineares e de controle que podem ser utilizados para monitorar variáveis críticas que definem se um processo está ou não sob controle estatístico, ao definir limites superiores e inferiores de controle.
Das ferramentas gerenciais da qualidade, os diagramas de relacionamentos e de afinidades foram apresentados como ferramenta que auxiliam na organização de um grande número de dados, normalmente utilizadas no final de uma seção de brainstorming. Os processos sistemáticos, os gráficos do programa de decisão do processo e o diagrama de setas, foram apresentados como artifícios muito usados para definir os caminhos críticos e passos necessários para se atingir determinados objetivos. Por fim, abordamos as matrizes de decisão, de extrema utilidade para definição das prioridades e do grau de urgência de resolução de uma lista de problemas.
Todas essas ferramentas têm a finalidade de auxiliar o gestor de qualidade no processo de tomada de decisão.
UNIDADE 2.
Inspeção por amostragem e controle estatístico
Paulo Henrique Palma Setti
OBJETIVOS DA UNIDADE
Conhecer as principais técnicas estatísticas para inspeção por amostragem;
Aprender sobre causas de variações, estabilidade e capacidade de processo;Conhecer os gráficos de controle para variáveis e para atributos;
Aprender sobre a avaliação da capacidade de um processo.
TÓPICOS DE ESTUDO
Clique nos botões para saber mais
Inspeção por amostragem
–
// Curvas características de operação
// Distribuições de Poisson
// Distribuição binomial 
// Distribuição hipergeométrica
// Planos de amostragem: NBR 5426 e NBR 5429
Controle estatístico de processo
–
// Manufatura enxuta: causas de variações
// Gráfico de controle para variáveis
// Matrizes de decisão
// Gráfico de controle para atributos
// Estabilidade e capacidade de processo
INSPEÇÃO POR AMOSTRAGEM
Seção 2 de 3
As bases estatísticas para avaliação das distribuições de probabilidade são fundamentais para consolidação das ferramentas de controle estatístico de processos. O conhecimento e a definição de um plano de inspeção por amostragem é o alicerce para se modelar matematicamente variáveis críticas de um bem de consumo, ou na busca da melhoria contínua da quantidade de produtos ou processos. 
Inúmeros acontecimentos ao longo dos processos produtivos podem ser modelados a partir de distribuições de probabilidade, logo é importante entender os detalhes e limitações dos tipos mais usados de inspeções, de acordo com as formas de amostragem. Além disso, é preciso reconhecer que os parâmetros das distribuições, de forma geral, não são conhecidos, sendo assim, ajustes nos planos amostrais são corriqueiros. Nesse sentido, faz parte de todo esse processo estatístico realizar algumas aproximações usando embasamento estatístico.
Como profissional atuante na área de qualidade e que, naturalmente, aplicará conceitos estatísticos em suas análises, um dos seus maiores desafios para a análise de um processo será identificar o tipo de distribuição que mais se aproxima do comportamento das variáveis, intrínsecas à qualidade, a serem avaliadas. Só após essa identificação e ajuste é que o processo pode ser analisado de forma consistente. A partir desse ponto, inicia-se o processo de tomada de decisão como base nos resultados. 
A inspeção de um lote demanda a alocação de recursos da forma o mais otimizada possível. Logo, um plano de amostragem deve ser ajustado conforme a estabilidade do seu processo. Quanto mais estável ele for, menor a quantidade necessária de amostras e menos rigorosos os testes podem ser. Na Figura 1, pode-se observar o trabalho de um profissional que está fazendo os testes de validação sobre uma amostra oriunda da linha de produção de uma indústria da área de alimentos:
Figura 1. Profissional inspecionando amostra de carne na indústria de alimentos. Fonte: Shutterstock. Acesso em: 13/04/2021.
CURVAS CARACTERÍSTICAS OPERAÇÃO
A caracterização das distribuições de probabilidade de não conformidades é uma atividade que requer ajustes diários em um sistema produtivo, se a intensão for a aplicação consistente de ferramentas estatísticas para o controle de processos. A intensão é modelar matematicamente, da maneira mais precisa possível, as variáveis a serem avaliadas em um produto, ou algum item de percepção de quantidade de um bem de consumo, serviço ou processo. Para isso, alguns acontecimentos ao longo das linhas e postos de trabalho que definem os processos produtivos podem ser modelados, usando distribuições de probabilidade. Nesse sentido, é de extrema relevância o conhecimento dos parâmetros das distribuições para, se necessário, serem realizadas aproximações com base em artifícios estatísticos.
A análise de um produto ou processo é um grande desafio. Por isso, identificar a curva de distribuição que melhor descreve o comportamento do processo e as variáveis dos níveis de qualidade entregues possibilitam uma análise racional dos resultados que, a partir dela, se desdobrará em planos de ação que buscam a melhoria contínua. Para essa identificação, o processo precisa ser analisado levando em consideração as variáveis críticas que devam ser monitoradas, as técnicas estatísticas que podem ser utilizadas para ajudar o processo de tomada de decisão e os critérios de aceitação ou rejeição dos itens produzidos.
Uma alternativa eficaz para definir métricas e quantificar um plano de amostragem é a chamada curva característica de operação (muitas vezes chamada, nas empresas, de curva CO ou curva CCO). Seu objetivo é traçar um diagrama que cruza as variáveis da fração de itens não conformes (p) com a probabilidade de que aquele lote seja aceito (Pa). Observando uma típica curva CO no Gráfico 1, nota-se que quanto maior a quantidade de defeitos, menor a probabilidade de aceitação de acordo com a relação:
Em que:
n é o número de amostras do plano amostral;
c é o número de aceitação de defeitos;
d é o número de defeituosos de uma amostra aleatória.
Vamos a um exemplo. Se em um processo é definido um plano amostral no qual a cada 500 itens (n) sejam aceitos três defeitos (c), a probabilidade de aceitação do lote para diferentes valores de p se dá conforme mostrado no Gráfico 1. Para esse exemplo, se 2% dos itens não estiverem conformes (p valendo 0,02), a probabilidade de aceitação do lote estará em torno de 85%. É importante salientar que, conforme a fração de defeitos (p) aumenta, reduz-se a probabilidade de aceitação (P) e vice-versa.
Gráfico 1. Curva característica de operação para n = 500 e c = 3.
Os pontos azuis indicados na curva do Gráfico 1 foram plotados utilizando a relação da probabilidade de aceitação para p valendo 0,02, da seguinte forma:
Assim, como foi calculado o valor de Pa para p valendo 0,02 e c valendo 3, pode-se calcular a fração de defeitos do lote para infinitas frações entre zero e um.
Porém o fundamental para o profissional que atua na área de produção e na avaliação estatística da qualidade do processo é o entendimento do que seria o nível de qualidade aceitável (NQA) de uma determinada peça, produto ou serviço. Esses itens podem ser avaliados comparando curvas CO. Nesse sentido, é fundamental a observação do que acontece com as curvas à medida que se altera o número de aceitação. 
No Gráfico 2, pode-se verificar esse efeito, onde, para um mesmo tamanho de lote, nota-se que aumentando o número de aceitação, ocorre o deslocamento da curva para a direita:
Gráfico 2. Curvas CO como função do número de aceitação. Fonte: MONTGOMERY, 2016, p. 476. (Adaptado).
É comum que o profissional da área de qualidade, que busca controlar estatisticamente o processo, tenha interesse em pontos específicos da curva CO, enquanto clientes ou fornecedores podem se interessar pelo nível de qualidade dos itens ou serviços, assim como pelos processos envolvidos que resultem em alta probabilidade de aceitação.
Em uma mesma situação, um fornecedor pode esperar uma probabilidade de 0,90 do ponto de aceitação, por exemplo. Isso indicaria as falhas aceitáveis de seu processo, no qual haveria 90% de chance de que seus envios fossem aceitos. Por outro lado, o cliente poderia se interessar por um outro nível de qualidade, o chamado NQA (nível de qualidade aceitável), que, por exemplo, poderia ser de 98%. 
Logo, a busca por esse ponto de equilíbrio para atender as mais variadas necessidades, assim como as técnicas de negociação, são constantes no dia a dia de um gestor da qualidade que busca ajustar os parâmetros de seus controles estatísticos de processos.
CITANDO
Os riscos associados à escolha de um plano de amostragem, quanto à aceitação de um lote de má qualidade ou rejeição de um lote de boa qualidade, estão associados ao tamanho da amostra e ao número de aceitação adotado. [...] Contudo há sempre o risco de uma tomada de decisão errada, em que se rejeita um lote de boa qualidade ou aceita-se um lote defeituoso (CHAVES et al., 2010, p. 312).
DISTRIBUIÇÃO DE POISSON
Como muitas outras ferramentas estatísticas e métricas de probabilidade, a distribuição de Poisson foi originalmente aplicada ao mundo dos jogos. Em 1830, o matemático francês Siméon Denis Poisson desenvolveu uma distribuição para indicar a probabilidade de um jogador ganhar um jogo de azar como o bacará. Porém as grandes aplicaçõesda ferramenta estatística de Poisson tornaram-se evidentes vários anos depois, durante a Segunda Guerra Mundial, quando um estatístico britânico, R. D. Clarke, a usou para analisar ataques de bombas na cidade de Londres.
Ele refinou a distribuição de Poisson como um modelo estatístico e trabalhou para assegurar ao governo britânico que as bombas alemãs caíram aleatoriamente, ou puramente por acaso, e que seus inimigos não tinham informações suficientes para alvejar certas áreas da cidade.
Desde então, a distribuição de Poisson tem sido aplicada em uma ampla gama de campos de estudo, incluindo medicina, astronomia, negócios e esportes. Em alguns casos, o gestor do processo está preocupado com o número de defeitos de um tipo específico em um item, conjunto de peças ou serviços. 
Um produto é aceitável se o seu número de defeitos não for muito grande. O número de pixels de uma TV 4K que não funciona (sendo a tela de 75”) é um bom exemplo. Se apenas alguns pixels não estiverem funcionando nesse aparelho, o olho humano não será capaz de detectá-los e a tela terá boa qualidade, mas se muitos falharem, a tela não será aceitável (sendo que na verdade, todo monitor de tela plana sempre tem alguns pixels não funcionais).
O gráfico CO é baseado na observação de que se os defeitos estão ocorrendo completamente ao acaso, então a distribuição de probabilidade do número de defeitos por unidade de produção tem a distribuição de Poisson. Ela é uma das principais distribuições de probabilidade discreta, muito frequente no controle estatístico de processos. 
Segundo esse padrão de distribuição, l representa o verdadeiro número médio de defeitos em uma unidade de produção. Então, a probabilidade de que haja x defeitos em uma unidade é:
e vale 2,718;
x vale 0, 1, 2, ..., n;
l > 0.
Ao usar uma carta de controle para o número de defeitos, o tamanho da amostra deve ser o mesmo em cada inspeção. Dessa forma, estima-se o valor de λ a partir dos dados da linha de base, calculando a média da amostra do número observado de defeitos por unidade de produção. Quando λ ≥ 20, a distribuição normal fornece uma aproximação razoável para Poisson. 
A média e a variância do Poisson são iguais a l, assim, para grandes valores de λ, pode-se aproximar o desvio normal padrão, usando os limites tradicionais de mais ou menos três sigma, como limites superiores e inferiores para o gráfico de controle.
Na prática, as distribuições de Poisson são bastante indicadas em casos em que o número de possíveis ocorrências discretas é muito maior do que o número médio de ocorrências em um certo intervalo de tempo ou de distância. Como exemplo de aplicação das distribuições de Poisson no controle estatístico de processos, imagine que o número de falhas por unidade de medida de uma certa medida de um produto tenha uma distribuição de Poisson com λ valendo 3. Para calcular a probabilidade de falha em um item selecionado de forma aleatória, soma-se a probabilidade de o item não conter defeito com a probabilidade de ele conter um defeito. Logo:
Então, em casos em que λ < 20, as probabilidades cumulativas de distribuição de Poisson devem ser usadas para estabelecer limites de controle apropriados (ou seja, limites de controle em que cerca de 99% das observações de uma distribuição estável caiam dentro dos limites de controle). 
Alguns exemplos de distribuições de Poisson podem ser observados no Gráfico 3. O eixo horizontal representa a variação de x (número de defeitos) e o eixo vertical representa p(x) (probabilidade que haja x defeitos em um lote). Nota-se que as distribuições não precisam ser obrigatoriamente simétricas, no caso, apresentando um alongamento à direita. Conforme λ se torna maior, a distribuição de Poisson posiciona-se de maneira mais próxima à simétrica:
Gráfico 3. Diferentes valores de λ definem diferentes formas de distribuições de Poisson. Fonte: Shutterstock. Acesso em: 13/04/2021.
Para um melhor entendimento do significado dos dados e curvas que seguem a distribuição de Poisson, imagine uma região que sofre, em média, 180 descargas atmosféricas (raios) por hora. Os raios são independentes, e sofrer uma descarga, ou não, não altera a probabilidade de quando o próximo raio cairá. O número de descargas recebidas durante qualquer minuto tem uma distribuição de probabilidade de Poisson, ou seja, a quantidade mais provável é de três raios por minuto, mas dois e quatro também são valores possíveis. Além disso, há uma probabilidade ainda mais baixa de cair apenas um raio ou nenhum, assim como há uma probabilidade, também pequena, de caírem cinco ou seis raios.
DISTRIBUIÇÃO BINOMIAL
A abordagem do fluxo de trabalho de inspeção é apresentada a fim de auxiliar na coleta e monitoramento de dados críticos de processos produtivos. Os defeitos observados são categorizados de acordo com uma análise de Pareto, auxiliada por um diagrama de causa e efeito. A partir dessas informações, é realizada uma análise de capacidade de processo, por meio de uma distribuição binomial dos padrões de falhas encontradas ou não conformidades, com base em curvas operacionais produzidas especificamente para os casos em questão.
A análise de capabilidade deve seguir as cartas de controle para avaliar o processo de manutenção, utilizando a distribuição binomial, uma vez que ela caracteriza os defeitos (ou não conformidades) em uma amostra. A análise de capacidade binomial examina a proporção de itens defeituosos para cada grupo amostral. A distribuição binomial em aplicações de engenharia é definida como:
Em que x pode valer 0, 1, 2, ..., n.
E:
Essa relação é apropriada, se uma sequência de n amostras tiver as seguintes condições satisfeitas:
Cada amostra tenha como resultado duas opções: produto conforme ou produto não conforme;
O resultado de uma amostra independa do resultado das amostras anteriores;
A probabilidade de sucesso (p(x)) em cada amostra é constante.
Para colocar isso em prática, imagine que para esse tipo de distribuição binomial, em uma amostragem de dez itens (n = 10), a fração de itens não conformes do total de retirados é igual a 0,1 (p = 0,1). Logo, a probabilidade de obter três itens não conformes (x = 3) pode ser calculada por:
Isso vale para x valendo qualquer valor. Estruturando uma tabela de exemplos, conforme a necessidade, temos:
Tabela 1. Probabilidades p(x) para colher x itens não conformes.
Pode-se observar, no Gráfico 4, as distribuições binomiais para os valores de p(x) variando x de zero a dez. É importante observar a simetria da distribuição para x = 5, e que essa simetria é perdida à medida que os valores de x caem em direção ao zero ou aumenta em direção ao dez:
Gráfico 4. Variações das curvas binomiais de acordo com p, para n = 10. Fonte: MONTGOMERY, 2016, p. 59. (Adaptado).
DISTRIBUIÇÃO HIPERGEOMÉTRICA
A distribuição hipergeométrica é uma distribuição estatística de probabilidade discreta usada para expressar probabilidades de ocorrências amostrais sem reposição. Mais especificamente, uma distribuição hipergeométrica descreve as probabilidades de se encontrar k sucessos, em n tentativas sem substituição, de uma população finita de tamanho N, que contém exatamente K estados de sucesso.
De forma mais prática, pode-se imaginar uma quantidade N de peças de uma amostra, das quais uma quantidade K possui uma característica específica (como dimensões erradas das peças, falhas de pintura, atendimentos errados de clientes etc.) e o restante (a diferença entre N e K) não segue esse padrão (por exemplo, peças conformes). Agora, imagine que uma quantidade com n itens seja retirada da população de N totais produzidos e uma variável k, chamada de variável aleatória hipergeométrica, seja utilizada para observá-la. A probabilidade da distribuição é preconizada como:
Compreendendo que a forma:
Pode ser entendida como:
Um bom exemplo de utilização das distribuições hipergeométricas é no planejamento dos padrões de amostragem para validação de um lote de produção. Vamos partir da hipótese de que temos um lote de produção de 150 produtos,dos quais dez são não conformes, o que não satisfaz os requisitos dos clientes. Nesse cenário, se 15 componentes fossem retirados ao acaso desse lote, sem haver reposição, a probabilidade de três dessas 15 unidades serem classificados como não conformes pode ser calculada assim:
É importante ter em mente que muitos softwares matemáticos e planilhas eletrônicas possuem recursos que fazem esse cálculo diretamente. Por exemplo, no popular Excel, para calcular a probabilidade por distribuição hiperbólica, deve-se usar a função DIST.HIPERGEOM.N, cujos campos correspondem aos seguintes fatores: =DIST.HIPERGEOM.N(k; K; n; N; FALSO).
Só é preciso se atentar para casos, como o anterior, em que se deseja saber exatamente qual a probabilidade de um número exato de eventos ocorrer, e diferenciá-los de casos em que se deseja saber qual a probabilidade para até um certo número de casos ocorrer. 
Por exemplo, de um lote de produção de 50 produtos, dos quais cinco seriam não conformes, caso dez componentes fossem retirados ao acaso desse lote, sem haver reposição, a probabilidade de duas dessas dez unidades serem classificadas como não conformes é:
Porém se for necessário calcular a probabilidade de no máximo dois itens estarem não-conformes, devem ser considerar a soma das probabilidades de zero itens, um item e dois itens com defeito:
Veja que fica clara a maior probabilidade de até duas peças apresentarem problemas, se comparada à exata probabilidade de duas peças apresentarem problemas, nessas situações em que dez amostras são retiradas de forma aleatória e sem reposição ao lote. 
PLANOS DE AMOSTRAGEM: NBR E NBR
Em um ambiente produtivo, para se produzir um lote ou série de produção, primeiramente, é necessário decidir-se a respeito da sua disposição, isto é, quais serão os critérios para aceitar ou rejeitar o que será produzido. Dependendo do modelo de negócios, essa definição pode variar muito.
Por exemplo, podemos ter da necessidade de uma inspeção de 100% dos produtos produzidos, ou fazer a retirada de uma amostra do lote para, baseado nos dados dela, decidir-se sobre a aceitação ou não de todo o lote. Esses dois extremos costumam ser evitados, mas em algumas ocasiões acabam sendo a melhor alternativa. 
Para isso, a NBR 5426 estabelece planos de amostragem e procedimentos de inspeção por atributos (ABNT, 1989). Nesse mesmo sentido, a NBR 5429 estabelece planos de amostragem e procedimentos para inspeção por variáveis (ABNT, 1998). Quando especificadas, essas normas devem ser citadas nos planos, relatórios, instruções ou outros documentos.
Uma inspeção de 100% de tudo o que foi produzido parece uma decisão segura, todavia na maioria das vezes é inviável, pois o tempo e o custo para realizar essa operação costumam ser elevados, podendo inviabilizar o negócio, sem contar os casos em que os testes de avaliação tenham que ser destruídos. No outro extremo, retirar apenas uma amostra e decidir com base nos dados dessa única peça, pode parecer bastante econômico e rápido, porém demanda um conhecimento e confiança na estabilidade do seu processo. Logo, a definição de um plano amostral baseado nas curvas de características de cada operação é uma atividade de extrema relevância para os profissionais que trabalharão nas linhas de frente do processo produtivo e em contato, direto ou indireto, com o controle estatístico do processo.
Um plano de amostragem consiste na utilização de uma fração do lote produzido, extraída aleatoriamente de diferentes partes do processo, em uma quantidade suficientemente grande e sobre o qual seja possível se tomar uma decisão sobre a produção completa daquele lote. Essa amostragem mínima, mas suficiente para a aceitação, deve ser encaminhada para inspeção e teste, auxiliando na melhoria contínua da qualidade dos produtos inspecionados e do processo que os produziu. 
Caso as amostras não atendam às suas respectivas especificações técnicas, todo o lote deverá ser rejeitado, e ações sobre os produtos produzidos (como descarte ou retrabalhos), assim como sobre os processos produtivos, deverão ser tomadas, planejadas e executadas conforme as prioridades. 
Os planos de amostragem podem variar de acordo com o tipo de processo que se deseja incluir como um controle estatístico. Além disso, eles podem buscar a avaliação de características variáveis (medidas numéricas) da qualidade, assim como a avaliação de atributos (conforme ou não conforme/passa ou não passa). A NBR 5426 discorre sobre as questões de avaliação de atributos e, conforme preconiza, os planos de amostragem são destinados para inspeção de lotes contínuos, podendo ser usados para inspeção de séries isoladas em função de sua curva característica de operação (CCO) (ABNT, 1989). Os principais planos de amostragem são definidos de acordo com as seguintes curvas características de operação: 
Clique nos botões para saber mais
Plano de amostragem única
–
Quando apenas uma amostra é tirada do lote e a decisão de aceitar ou de rejeitar todo o lote se baseia naquela amostra;
Plano de amostragem dupla
–
Quando duas amostras consecutivas são tiradas do lote. Baseado nos dados coletados da primeira amostra, todo o lote poderá ser aprovado ou reprovado. Se reprovado, a segunda amostra é avaliada para validação dos resultados;
Plano de amostragem múltipla
–
Similar à amostragem dupla, esse tipo de plano utiliza mais de duas amostras para a tomada de decisão final;
Plano de amostragem sequencial
–
As amostras são tiradas da linha de produção em sequência numérica ou de tempos em tempos predefinidos. Nesse caso, a decisão é tomada com a linha rodando, podendo interromper o processo produtivo no caso de uma não conformidade ser encontrada ou deixar a linha correr.
A NBR 5429 discorre sobre as questões de avaliação de variáveis e, conforme preconiza, os planos de amostragem são destinados para inspeção de produtos terminados, componentes, matéria-prima, operações, materiais em processamento, materiais estocados e operações de manutenção (ABNT, 1998). 
Controle estatístico de processo
CONTROLE ESTATÍSTICO DE PROCESSO
SEÇÃO 3 DE 3
Os padrões tradicionais de controle estatístico de processos (CEP) exigiam a melhoria dos níveis de defeitos medidos em porcentagens (defeitos a cada 100 peças produzidas). Na década de 1980, as grandes indústrias da área de tecnologia perceberam que isso não era, nem de longe, adequado para enfrentar a concorrência.
Eles precisavam medir os defeitos em partes por milhão. As empresas também perceberam que seus problemas de qualidade eram causados pela maneira como gerenciavam a organização, isto é, mais pelo controle do processo produtivo do que pelo projeto do produto, propriamente dito. 
Essas empresas, então, desenvolveram e implementaram o pensamento da qualidade Six Sigma, que trazia uma abordagem única para melhorar drasticamente a qualidade. Em 1988, por exemplo, a Motorola se tornou uma das primeiras vencedoras do novo Prêmio Nacional de Qualidade Malcolm Baldrige (instituto que chancela níveis de qualidade e que é extremamente respeitado até hoje). 
Como os vencedores são obrigados a compartilhar seus métodos, a qualidade Seis Sigma se tornou de conhecimento e domínio público. Assim, outras empresas começaram a experimentar seu uso, alcançando excelentes resultados e, o mais importante, os aprimoraram, chegando nas décadas de 1990 e 2000 com seus conceitos sendo aplicados em centenas de outras organizações produtivas.
Os programas Seis Sigma relataram grandes economias quando aplicados a problemas complexos, até mesmo em toda uma organização que precisa de soluções inovadoras. É mais focado na redução da variação em qualquer processo principal, desde o chão de fábrica até os escritórios centrais. Requisitos do cliente, prevenção de defeitos e redução de desperdício e tempo de ciclo são os tipos de problemas que o Seis Sigma aborda. Problemas pequenos ou locais não precisam do grande investimento de um projeto Seis Sigma e são mais bem tratados por equipes locais ou departamentais. 
Mas o que significa Seis Sigmae quais suas relações com as abordagens estatísticas de controle estatístico de produção (CEP)? Bem, o Sigma (escrito com a letra grega σ) é uma medida da variação ou propagação de um processo. O processo é aprimorado ao tornar essa variação menor, produzindo uma saída mais consistente e com menos defeitos ou erros. 
Sob os padrões de qualidade tradicionais, o comumente chamado spread (variação, em inglês) é reduzido até que o limite de especificação esteja três vezes o Sigma (σ) de distância da média do processo. 
Isso fica mais claro observando o Gráfico 5, que traz a curva normal de três Sigma, usada para a definição dos limites superiores e inferiores de controle. Perceba que a garantia dos três Sigma garante que 99,7% da produção esteja dentro dos limites de controle, porém ainda existe uma pequena porção que ainda está fora das especificações. Isso, em alguns modelos de negócio, pode ser inaceitável em termos de custos, de baixa qualidade e perda de tempo, dinheiro e clientes. Nesses casos, a abordagem Seis Sigma, apesar do maior custo de implementação, é a escolhida pelos ganhos gerais do negócio. 
Gráfico 5. Para de curva normal para variações de três e seis sigma. Fonte: Shutterstock. Acesso em: 13/04/2021.
Com a qualidade Seis Sigma, a variação do processo é comprimida ainda mais, reduzindo σ até que o limite de especificação esteja seis σ de distância da média. Os limites de especificação não mudam, mas a régua de medição (σ) é menor. Com essas condições, a produção não conforme seria de apenas 3,4 peças por milhão, ou 0,00034%. Este é o desempenho de seis sigma. Algo quase utópico, mas que gera a busca pela melhoria contínua do processo produtivo. Assim, as organizações que adotam o Seis Sigma se esforçam para obter essas taxas de erro quase perfeitas em seus processos.
MANUFATURA ENXUTA: CAUSAS DE VARIAÇÕES
Com o entendimento de que em todo processo existe uma variação, nem que seja mínima, a manufatura enxuta surge como filosofia de melhoria contínua da qualidade por meio da aplicação de sistemáticas estatísticas para controle do processo. Esse conceito (também muito chamado de Lean Manufacture) se refere a um sistema de métodos que enfatizam a identificação e a eliminação de todas as atividades que não agregam valor (que geram desperdícios) de uma manufatura ou organização de suporte à manufatura. 
Os processos se tornam mais rápidos e menos caros. A manufatura enxuta é caracterizada por tempos de ciclo rápidos, métodos just-in-time, sistemas puxados, pouco ou nenhum estoque, fluxo contínuo ou tamanhos de lotes pequenos, nivelamento da produção e qualidade confiável por meio do monitoramento das cartas de controle de cada estágio do processo. As organizações enxutas são eficientes, flexíveis e altamente responsivas às necessidades dos clientes, porém a grande busca para essa sistematização se dá pelas causas raízes das variações.
Nesse contexto, as cartas de controle são formas para coletar e exibir graficamente valores medidos, parâmetros estatísticos ou resultados de contagem, assim como para compará-los com limites de controle previamente definidos. Se os limites de controle forem excedidos, planos de ação costumam ser definidos.
Mas o que define esses limites de controle? São as variáveis ou os atributos. Uma variável é uma medida, em escala numérica, de uma característica da qualidade (por exemplo, uma certa medida de uma peça, a temperatura de um fluído, o volume de envaze de um líquido, a densidade de um item, entre outras grandezas que podem ser quantificadas). Os gráficos de controle para esse tipo de variação servem como gatilho para a busca das causas geradoras dessas variações e, sobre essas causas, são desencadeados os planos de ação para trazer os processos ao controle novamente. 
É nesse sentido, de busca e avaliação das causas das variações, que as ferramentas da qualidade e o controle estatístico de processos trazem à tona alternativas para geração de métricas para tomada de decisões que busquem o controle e a otimização dos processos produtivos. Assim, a variabilidade pode ser entendida como um conjunto de diferenças nessas variações (medida, temperatura, vazão etc.) ou nos atributos (tonalidade, acabamento, bom atendimento etc.) que podem ser verificados nos componentes, produtos ou serviços presentes em qualquer atividade. Essas variabilidades podem ser comuns ou aleatórias, ou, ainda, especiais ou assinaláveis.
As variações comuns ou aleatórias têm efeitos cumulativos de causas incontroláveis, com pouca influência em itens individuais, como em casos de vibrações, variações de temperatura, umidade relativa do ar, pressão, entre outras. Já as variações especiais ou assinaláveis são falhas eventuais que ocorrem ao longo do processo, com grande influência em itens individuais, como em casos de falhas na composição da matéria-prima, erros humanos de operação, imprecisão no ajuste de moldes e equipamentos, consumo natural ou quebra de ferramentas, entre outras.
Baseado nesses conceitos, pode-se dizer que um processo está sob controle estatístico quando ele é estável, isto é, quando não tem ocorrências de causas especiais. Porém um processo pode estar sob controle estatístico e não estar produzindo dentro de um requisito de qualidade aceitável. Situações estudadas e validadas durante as análises de capacidade e performance.
Pode-se, também, relacionar essas duas formas de variação com os planos de ação necessários para ajustá-las. Isto é, para causa especial, espera-se ações locais, enquanto que para causa comum, espera-se ações sobre o sistema ou sobre o próprio processo gerencial. 
Segundo Slack, Brandon-Jones e Johnston (2018, n. p.), diferentes tipos de processos de fabricação demandam formas diferentes de organização das atividades em cada operação relacionada a eles. Essas operações se caracterizam por uma vasta possibilidade de variabilidades em cada etapa de sua produção. No Diagrama 1, pode-se observar que planejamento e controle de produção estão interligados e devem ser entendidos como etapas de um ciclo contínuo:
Diagrama 1. Ciclo de planejamento e controle de produção. Fonte: SLACK; BRANDON-JONES; JOHNSTON, 2018, p. 443.
No cotidiano das organizações produtivas, é comum as pessoas relacionarem o termo controle com proibições, fiscalizações, punições, impedimentos etc. Porém em um ambiente corporativo industrial, o termo controle de produção ou controle estatístico de processo deve ser entendido como a administração das atividades e processos para o melhor atendimento possível do planejamento, conforme as especificações de projetos. Assim, é importante entender o controle estatístico de processos (CEP) como uma função do profissional da qualidade que mede, avalia e ajusta as variações, prevenindo, assim, as causas que geram falhas ao longo do processo produtivo.
CURIOSIDADE
Segundo Slack, Brandon-Jones e Johnston (2018, n. p.), as organizações produtivas atuais são estruturadas em uma (ou várias) das seguintes modalidades de processos: sistema de manufatura flexível (FMS), sistema de manufatura celular (CMS) ou sistema de manufatura integrada por computador (CIM).
GRÁFICO DE CONTROLE PARA VARIÁVEIS
Os gráficos de controle são considerados por várias organizações como a principal técnica de controle estatístico do processo (CEP). Eles têm como objetivo verificar se um processo está ou não sob controle estatístico. 
Quando a avaliação da qualidade se dá pelas  medidas de um valor numérico (uma variável), como as medidas de um componente, a temperatura de um fluído ou a densidade de um material, os gráficos de controle para a média e desvio padrão ou para média e amplitude são os escolhidos. 
Porém, em algumas situações, os pontos de qualidade a serem controlados não podem serr epresentados por números e são classificados como conforme ou não conforme (com ou sem defeitos). Para esses casos, em que são avaliadas características do tipo passa ou não passa, com avaliações mais qualitativas (como manchas, cor, sabor etc.), são utilizados os gráficos de

Outros materiais