Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

Controle estatístico da qualidade e
auditoria da qualidade
Autor
Reinaldo Azevedo Vargas
Apresentação
Este material, na forma de apostila, inclui-se em um processo de introdução e compreensão
sobre o conhecimento do controle estatístico do processo da qualidade e noções de auditoria da
qualidade, que vem ganhando mais importância com o desenvolvimento das indústrias,
processos industriais, com a automatização e chegada da chamada indústria 4.0. Constituindo-
se em um importante ponto de inflexão nesse processo de sistematização e produção de
conhecimentos, tem por objetivo aprofundar algumas constatações básicas e apresentar
exemplos de situações comumente encontradas. As unidades, capítulos e subcapítulos foram
definidos construindo uma linha de raciocínio que abrange desde a noção de estatística,
passando por conceitos como organização de dados, tabulação, construção de gráficos, cálculo
e interpretação da média, desvio médio simples e desvio padrão, até sua aplicação na
construção dos gráficos de controle, interpretando as informações desses gráficos para os mais
diversos casos e relacionando-as com conceitos de auditoria da qualidade. O conteúdo foi
escrito da forma mais didática possível, sendo direcionado tanto para o público que está tendo
um primeiro contato com o controle estatístico como também para o público que já trabalha na
área ou tem algum contato prévio com a ferramenta. Por fim, os exemplos, tabelas, equações,
gráficos e casos explicados foram trabalhados para incentivar uma leitura conhecendo as
variáveis envolvidas, forçando o estudante desse conteúdo a treinar interpretações para se
acostumar com tomada de decisão e ajustes dos cálculos, quando necessário.
Videoaula - Introdução
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629150834".
Introdução1
Para iniciarmos, precisamos definir intuitivamente o conceito de qualidade. São várias as
maneiras de definir, dependendo dos propósitos de cada análise, como “adequação ao uso”,
“grau de excelência a um preço aceitável”, entre outros. Neste texto, enfatizamos como as
características mais importantes do produto, serviço ou do processodevem ser definidas
corretamente e mensuradas ou simplesmente contadas (como o número de defeitos em uma
peça ou de peças defeituosas) em determinada operação.
Para começarmos a estudar o controle estatístico dos processos de qualidade (CEP), devemos
levar em conta que a qualidade deverá ser assegurada, principalmente, com a minimização da
variabilidade das características importantes. Como Crosby (1996) destaca, “qualidade é a
conformidade às especificações”, e conformidade, nesse contexto, significa fazer corretamente e
repetidas vezes algumas tarefas que são necessárias, utilizando material de qualidade
consistente para conseguir resultados do processo de produção que refletem o desejo e o
interesse do consumidor.
No contexto do CEP, um produto ou serviço de qualidade é aquele que atende a todas as
especificações, atingindo o valor alvo com a menor variabilidade possível em torno dele. Cada
produto possui um número de elementos que, em conjunto, descrevem sua adequação ao uso.
Esses elementos são chamados características da qualidade ou indicadores de desempenho.
Tais características podem ser de diversos tipos: físicas, tais como comprimento, peso, voltagem
e viscosidade; sensoriais, como gosto, aparência e cor; ou de orientação temporal, como
confiabilidade, manutenção, utilidade e durabilidade.
O CEP é uma técnica estatística aplicada à produção que permite a redução sistemática da
variabilidade nas características da qualidade de interesse, contribuindo para a melhoria da
qualidade intrínseca, da produtividade, da confiabilidade e do custo do que está sendo produzido.
Definição do CEP
O controle estatístico de processo (ou CEP) pode ser entendido como sendo um sistema de
inspeção por amostragem, operando ao longo do processo, com o objetivo de verificar a
presença das chamadas causas especiais, ou seja, causas que não são naturais ao processo em
si e que podem prejudicar a qualidade do produto. Uma vez identificadas as causas especiais,
podemos atuar sobre elas, melhorando continuamente os processos de produção ou prestação
de serviços e, por conseguinte, a qualidade do produto desejado.
Além disso, o controle estatístico de processo fornece uma um “raio-x” do processo,
identificando sua variabilidade e possibilitando o controle dessa variabilidade ao longo do tempo
através da coleta de dados continuada, análise e bloqueio de possíveis causas especiais que
estejam tornando o sistema instável.
No atual mercado, dentro de um ambiente competitivo, o CEP abre caminho para melhorias
contínuas, uma vez que garante um processo estável, previsível, com identidade e capacidade
definidas, cuja evolução pode ser facilmente acompanhada, monitorada e corrigida, se for o
caso.
Objetivos do CEP
O principal objetivo do CEP é possibilitar um controle eficaz da qualidade, feito pelo próprio
operador em tempo real. Isso aumenta o comprometimento do operador com a qualidade do que
está sendo produzido e libera a gerência para as tarefas de melhoria.
O CEP também possibilita o monitoramento das características de interesse, assegurando que
elas irão se manter dentro de limites preestabelecidos e indicando quando devem ser tomadas
ações de correção e melhoria. É importante ressaltar a importância de se detectar os defeitos o
mais cedo possível, para evitar a adição de matéria-prima e mão-de-obra a um produto
defeituoso.
Por fim, o CEP objetiva aumentar a capacidade dos processos, reduzindo refugo e retrabalho, e,
por consequência, o custo da má-qualidade. Assim, ele proporciona às empresas a base para
melhorar a qualidade de produtos e serviços e, simultaneamente, reduzir os custos envolvidos.
Breve histórico
A aplicação de algumas ferramentas estatísticas para melhorar a qualidade começou com Walter
Shewhart, que colocou pela primeira vez em prática nas fábricas alguns conceitos básicos da
estatística e também da metodologia científica na década de 1930, nos Estados Unidos da
América. Shewhart foi o pioneiro da área de controle estatístico de processo. Atualmente, não
existe fábrica no mundo que não aplica pelo menos algumas ferramentas básicas e mais
simples de CEP com a finalidade de melhorar os processos industriais.
A percepção extraordinária do Shewhart é a de que a qualidade e a variabilidade são conceitos
antagônicos no sentido de que, onde tem muito de um, terá necessariamente pouco do outro.
Essa ideia funciona tanto para um processo quanto para um produto. Uma tarefa dentro de um
processo que leva um período de tempo irregular para se completar pode causar uma grande
confusão na linha de produção; por exemplo, no caso da irregularidade das medidas de uma
peça: uma hora saindo grande demais, outra hora pequena demais. Foi assim que Shewhart
entendeu que, para medir, analisar e monitorar a questão da variabilidade das informações, seria
necessário entender a estatística e que, através de aplicações desta ciência matemática nas
fábricas, os processos e produtos poderiam chegar a melhores níveis de qualidade. Para
alcançar esse objetivo, do ponto de vista da estatística, isso simplesmente significa menor
variabilidade nas medidas do processo e do produto e mais exatidão em alcançar metas e alvos.
Em seguida, Shewhart também propôs a aplicação da metodologia científica na linha de
produção. Simplificando a terminologia, sugeriu que a metodologia poderia ser conceituada em
quatro fases:
FASE 1: identificação da problemática e planejamento de experimentos
FASE 2: experimentação em si
FASE 3: análise dos resultados dos experimentos
FASE 4: reação do gerente para melhorar o processo
A Segunda Guerra Mundial foi decisiva para a aplicação do controle de qualidade e da estatística
moderna em um maior número de indústrias norte-americanas. Apóstambém é aplicada
em processos administrativos e de serviços e para dados numéricos divididos em seções (por
exemplo, diferentes setores na empresa no período de tempo).
O gráfico consiste na plotagem de três linhas contendo os pontos que representam as médias de
pequenas amostras (conhecidos também como chamados subgrupos racionais), cada uma de
tamanho n (onde n = 1, 5, 9, 23, 1.000, por exemplo), representando a quantidade de mensurações
periódicas de alguma característica importante de um processo (peso, cumprimento, volume,
entre outros), assim como o número ou percentual de peças defeituosas ou número de defeitos.
As três linhas representam dois limites de controle, um chamado de superior (ou limite de
controle superior - LCS), outro de inferior (ou limite de controle inferior - LCI) e uma linha no meio,
que é a média da variável ou o alvo da característica (ver Figura 4).
Tradicionalmente, as linhas de controle ficam localizadas a uma distância de três desvios-
padrão da média da série (ou alvo). A utilização de três desvios é arbitrária, mas na prática
funciona na maioria dos casos. Os limites definem uma área considerável que irá evitar
problemas que não existem na realidade, pois um profissional que gasta o precioso tempo
correndo atrás de causas especiais que não existem não está sendo um empregado útil para a
empresa. O desvio padrão utilizado é aquele das médias (ou erro-padrão), que é o desvio-padrão
da população dividido pela raiz quadrada do tamanho da amostra: 3δ/√n.
Na estatística, os dois limites de controle definem um intervalo de confiança com nível de
confiança de aproximadamente 99,73%. Esse número significa que um “alarme falso” pode
ocorrer uma vez em 370 subgrupos. Realmente é o “preço” a ser pago quando se utiliza a técnica
de amostragem, mas pelo menos a possibilidade de ocorrência é realmente muito pequena. Se
forem tiradas dezesseis amostras por dia na fábrica, ocorreria uma vez a cada 23 dias. Existe um
“preço” razoável, considerando o grande valor dos gráficos de controle.
A estimação dos limites de controle é válida para processos considerados estáveis, isto é, que
mantêm fixos o desvio padrão e a média e, portanto, não estão sob a influência de causas
especiais. No entanto, alguns processos aparentemente controlados podem ser influenciados
por uma causa especial, e o resultado é que medidas se deslocam para fora dos limites de
controle. No Gráfico 4, esse processo seria considerado sob a possível influência de alguma
causa especial, instável, porque um ponto está fora dos limites. Um processo é considerado
instável somente no momento da descoberta da causa especial.
Existem alguns padrões de pontos que assinalam a existência de causas especiais – por
exemplo, mais do que cinco pontos consecutivos, sendo todos acima ou abaixo da linha central.
Este padrão é raro de acontecer como um ponto que está a uma distância de três desvios padrão
da linha central.
Para compreender, isso equivale a sair oito vezes consecutivas a face cara lançando uma moeda
justa, o que certamente é uma ocorrência rara e, portanto, deverá ser investigada a suposição da
justiça no lançamento da moeda da mesma maneira que na influência de causas especiais no
processo produtivo. Outro padrão para se investigar é a ocorrência de dois pontos de três dentro
dos limites de controle e mais precisamente perto deles. Finalmente, há um último padrão que
normalmente assinala possíveis problemas na linha de produção: três pontos de um total de
Figura 4 - Controle conceitual
Fonte: adaptado de Samohyl (2009).
https://objetos.institutophorte.com.br/PDF_generator/img/04.png
https://objetos.institutophorte.com.br/PDF_generator/img/04.png
quatro de um dos lados da média, mas no meio da área, ou seja, nem muito perto da linha central
nem dos limites de controle. Dependendo da situação ou cultura existente na fábrica, outros
padrões podem ser utilizados, mas com cautela, pois o uso de padrões deve ser minimizado, uma
vez que muitos significam, na prática, alarmes falsos.
Com base nos conceitos apresentados, serão abordados nas próximas seções vários tipos
tradicionais de gráficos de controle e alguns derivados de situações especiais.
Para compreender os conceitos desse tipo de gráfico de controle, vamos imaginar a seguinte
situação: no processo de produção de uma ração para gatos de uma empresa desconhecida,
sempre houve problemas no enchimento do pacote de um quilograma (kg). Com o passar do
tempo, os clientes reclamavam sobre os pacotes contendo menos quantidade de ração do que a
norma estipulava e, eventualmente, a empresa começou a perder clientes. Após um breve período
de tempo, os pacotes de ração foram descobertos por fiscais, que encontraram diversos deles
contendo menos do que um quilograma, resultando em multas pesadas para a empresa. O
gerente então decidiu implantar um gráfico de controle no processo de produção,
especificadamente no ponto do enchimento dos pacotes.
Para a coleta de dados, decidiu-se utilizar amostras periódicas de hora em hora, cada uma com
cinco mensurações (n = 5 elementos). Esse perfil de amostragem foi escolhido considerando as
informações técnicas disponíveis na empresa. As indústrias normalmente possuem seus perfis
para amostragem e, às vezes, devem seguir normas da agência reguladora. Por exemplo, na
indústria química, diversas amostras são separadas em bateladas e o tamanho considerado é de
um elemento. Essa técnica de amostragem será explicada mais adiante. Após dois dias de coleta
de dados, foram separadas dezoito amostras com cinco mensurações cada, uma por hora,
durante três turnos de seis horas cada. Os resultados estão na Tabela 10.
Tabela 10 - Resultados de mensurações de dezoito amostras horárias
Amostras recolhidas de hora em hora (valores expressos em gramas)
1h 2h 3h 4h 5h 6h 7h 8h 9h
1º 1.006 1.009,69 1.033,68 1.051,89 963,31 1.021 981,37 987,4 1.030,14
2º 1.005 1.000 1.001 1.031 993,69 1.023,78 1.010,28 994,03 1.034,07
3º 1.006,04 985,31 1.000 1.027 1.022,02 1.020 990,56 990,67 973,01
4º 1.032,35 1.001 1.016,9 1.026,36 990,05 1.046,87 990,46 1.025,03 994,89
5º 1.011,35 987,81 1.033,01 1.005,77 968,85 1.009,24 954,43 1.048,18 973,62
O gráfico das médias8.1
Amostras recolhidas de hora em hora (valores expressos em gramas)
10h 11h 12h 13h 14h 15h 16h 17h 18h
1º 1.024,88 1.003 999 1.015,25 978,48 1.021,71 1.038,32 1.050 1.040,13
2º 967,38 1.031,54 1.039,08 1.020 995,55 1.026 1.013,77 1.001,73 1.025,99
3º 1.018,81 1.017,65 1.034 1.010 989,48 1.065,55 1.009,32 1.045 985,04
4º 984 979,96 1.001 1.006,9 1.006,95 1.050 998,27 1.023,59 1.000
5º 1.035,11 1.013,52 999,11 1.011,67 1.002,07 1.041,78 980,34 1.036 1.011
Fonte: adaptado de Samohyl (2009).
Sendo praticamente impossível tirar qualquer conhecimento dos dados presentes na Tabela 10,
os mesmos são plotados e ilustrados em formato gráfico (ver Figura 5). Entretanto, embora o
gráfico seja mais esclarecedor, ainda existem dúvidas sobre a série.
Analisando o gráfico, existem vários pontos que se afastam do valor 1.000 gramas (g) ou 1 kg,
mas será que os afastamentos são realmente grandes? Qual critério deve ser utilizado para
medir esse afastamento? Onde é que devem ser colocados os limites de controle para assinalar a
presença de causas especiais e melhorar o processo? A construção do gráfico de controle irá
auxiliar na resolução deste problema. A linha central do gráfico é a média dos dados ou o alvo do
processo. A média, neste caso, é 1.010,62 gramas (X). O valor parece alto, mas reflete o fato de
que a empresa sofreu a perda de clientes, multas e, dada a instabilidade do processo, está
sentindo a necessidade de proporcionar ração de graça para os compradores.
Figura 5 - Todas as noventa mensurações (medidas) dos pacotes de
ração
Fonte: adaptado de Samohyl (2009).
https://objetos.institutophorte.com.br/PDF_generator/img/05.png
https://objetos.institutophorte.com.br/PDF_generator/img/05.png
No momento em que o processoficar mais estável, a média tende a retornar para 1.000 gramas,
economizando despesas e melhorando os resultados.
Os limites de controle são iguais a três desvios padrão da média, ou três erros padrão, desde que,
na prática, utiliza-se a amplitude média dos subgrupos racionais e os coeficientes de Shewhart
presentes na Tabela 8 (SHEWART, 1931). Na indústria, é muito comum utilizar o desvio padrão
calculado com a média das amplitudes e com o coeficiente d , um dividindo o outro: (R/d ).
Para converter o desvio padrão em erro padrão, basta dividi-lo pela raiz quadrada do número
total de elementos da amostra, ou seja, (R/d )/√n. Portanto, os limites de controle são três erros
padrão acima e abaixo da média. De acordo com a Tabela 10, a coluna A  corresponde a um
coeficiente que facilita o cálculo dos limites de controle. Este coeficiente, que se modifica com o
tamanho da amostra, transforma a média das amplitudes em três erros padrão:
A utilização do coeficiente A  facilita muito o cálculo dos limites de controle para o próprio
operador no que está no “chão da fábrica”. Mesmo com as fábricas se tornando cada vez mais
informatizadas, os coeficientes do Shewhart sobrevivem como a base dos cálculos de
variabilidade (dispersão) (SHEWART, 2009). Desse modo, os limites de controle são:
Onde
2 2
2
2
2
 é a média total (média das médias parciais) e representa a linha central do gráfico.
Voltando para nosso exemplo referente aos pacotes de ração, já foi calculada a média de
1.010,62 gramas. O valor de A  da Tabela 8 é 0,577 para amostras de tamanho n = 5, e o valor da
amplitude média R que consta na Tabela 11 é 47,67. Portanto, o cálculo do limite de controle
superior é 1.010,62 + (0,577*47,67) = 1.038,12 e o cálculo do limite de controle inferior é 1.010,62
- (0,577*47,67) = 983,11.
Tabela 11 - Médias dos subgrupos, média total e média das amplitudes
1 2 3 4 5 6
Média (X)
1.012,15 996,76 1.016,92 1.028,4 987,58 1.024,18
27,35 24,37 33,68 46,11 58,7 37,62
7 8 9 10 11 12
Média (X)
985,42 1.009,06 1.001,15 1.006,04 1.009,13 1.014,43
55,85 60,77 61,06 67,72 51,58 40,08
13 14 15 16 17 18
Média (X)
1012,76 994,51 1.041,01 1.008 1.031,26 1.012,43
13,09 28,47 43,83 57,98 48,26 55,09
2
Média Total (
) = 1.010,17    Média das amplitudes (R) = 47,67
Fonte: adaptado de Samohyl (2009).
Com a tabela montada, basta plotar o gráfico de controle (Figura 6), construído por padrão,
contendo as três linhas para facilitar a interpretação:
O gráfico da Figura 6 contém os valores das médias dos dezoito subgrupos, além dos limites de
controle superior e inferior e da média das médias (média total). Nota-se que o subgrupo de
número 15 possui a média mais alta que o limite de controle, e, portanto, a média desde
subgrupo é suficientemente afastada da média do processo para justificar uma investigação e a
eventual eliminação de uma causa especial.
Figura 6 - Exemplo do gráfico de controle das médias
Fonte: adaptado de Samohyl (2009).
https://objetos.institutophorte.com.br/PDF_generator/img/06.png
https://objetos.institutophorte.com.br/PDF_generator/img/06.png
O gerente analisou a situação e descobriu a presença de um operador substituto e quase sem
treinamento no lugar do operador veterano que estava com médico marcado nesse horário. Com
isso, ocorreu nos próximos dias um treinamento rápido para garantir o desempenho de todos os
operadores nas tarefas mais importantes de toda a linha de produção. Quase sempre os
problemas na fábrica têm origem na gestão das operações. Se o operador foi ensinado de uma
maneira inadequada, a culpa é da gerência, e não do operador.
Os gráficos de controle devem ser atualizados periodicamente (uma vez por mês) e novos limites
deverão ser calculados. No entanto, jamais utilizarão nas atualizações os subgrupos que
estavam sob a influência comprovada de causas especiais. Esses dados devem ser arquivados
longe dos gráficos de controle, mas lembrados como parte da história das melhorias e outras
conquistas da empresa ao longo do tempo.
É muito importante construir um gráfico de controle para monitorar diretamente a variabilidade
do processo, já que a variabilidade contribui para a qualidade do produto. Alguns especialistas
defendem que o gráfico R é mais importante que o gráfico das médias. Na prática, os limites de
controle são calculados usando a teoria já discutida anteriormente a esta seção, além dos
coeficientes de Shewhart (Tabela 8). Entre várias alternativas, o gráfico das amplitudes R é o
mais comum para monitorar a variabilidade. A média das amplitudes R é a linha central do
gráfico e os limites de controle são:
Onde D e D  são coeficientes da Tabela 8, os quais convertem a média das amplitudes em
limites de controle.
O gráfico da Figura 7 é um exemplo de gráfico de controle das amplitudes R. Neste caso, o valor
de LCS é 2,115*47,67 = 100,58 e do LCI é 0 (pois D  é 0).
Nenhum ponto está fora dos limites de controle e, consequentemente, o gerente deve se sentir
tranquilo que nenhuma causa especial está influenciando o processo. Claro que tem um ponto
próximo ao limite superior e, se tiver tempo sobrando, o gerente poderia investigar as causas,
mesmo não existindo indícios fortes para a presença de causas especiais. Por outro lado, se as
amplitudes dos processos forem consideradas grandes demais, difíceis decisões terão que ser
tomadas para melhorar o processo, como a compra de novas máquinas, mais treinamento para
os funcionários, entre outras coisas.
O gráfico da variabilidade8.2
4 3
3
Existe mais um gráfico para o monitoramento da variabilidade do processo, mas na prática é
muito pouco utilizado: o gráfico do tipo S, baseado diretamente no desvio padrão dos subgrupos.
É mais apropriado quando os subgrupos possuem um tamanho maior – por exemplo, maior do
que dez, o que é raro acontecer.
Por fim, a decisão referente à empresa de rações para animais foi decidida pelo gerente, sendo
que a falta de treinamento foi o fator principal para explicar a variabilidade do processo. O que
apareceu como uma causa especial no gráfico em um determinado ponto no tempo foi
reconhecida mais tarde como um problema geral de todos os operadores.
A empresa começou uma série de treinamentos que ocupavam apenas três horas por semana,
mas o resultado se tornou surpreendente. A amplitude do peso do pacote de ração foi cortada
pela metade e a média do processo ficou em 1.001 gramas (praticamente o peso da norma: 1
kg). A clientela retornou a consumir o produto e os fiscais não encontraram mais pacotes com
não conformidades. Uma percentagem das economias realizadas foi distribuída na época do
Natal, e a outra parte ficou com o gerente.
Figura 7 - Exemplo do gráfico de controle das amplitudes R
Fonte: adaptado de Samohyl (2009).
https://objetos.institutophorte.com.br/PDF_generator/img/07.png
https://objetos.institutophorte.com.br/PDF_generator/img/07.png
Videoaula - O gráfico tipo Xi individual e amplitude móvel
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629156838".
O gráfico tipo X  individual é utilizado quando os subgrupos possuem apenas um elemento, como
acontece regularmente na indústria química e de alimentos. Um dos problemas, nesse caso, é
como definir a variabilidade e calcular a amplitude quando o subgrupo possui apenas um
elemento. A solução é trabalhar com uma amplitude móvel. A Tabela 12, por exemplo, contém
uma lista de temperaturas (em centígrados) de um produto químico.
Tabela 12 - Temperaturas (em ºC) de um produto químico
Número T (ºC) Amplitude móvel Número T (ºC) Amplitude móvel
1 95,43 4,42 13 97,81 0,03
2 99,85 0,24 14 97,84 5,25
3 100,09 1,65 15 103,09 7,91
4 101,73 0,45 16 95,18 2,42
5 102,18 3,81 17 97,61 0,39
6 98,37 2,84 18 97,22 4,56
7 101,21 4,96 19 101,78 1,54
O gráfico
tipo X  individual e amplitude
móvel
8.3 i
i
Número T (ºC) Amplitude móvel Número T (ºC) Amplitude móvel
8 96,26 2,64 20 103,321,29
9 98,90 1,98 21 102,03 1,98
10 96,92 1,23 22 104,02 5,34
11 95,70 0,65 23 98,68 0,30
12 95,05 2,76 24 98,38 -
Fonte: adaptado de Samohyl (2009).
As colunas de temperatura, representadas pela letra T e expressas em centígrados (ou graus
celsius: ºC) foram plotadas com a coluna da amplitude móvel. A amplitude móvel é a diferença
entre duas medidas sequenciais. Por exemplo, a primeira amplitude móvel (4,42) é a diferença
entre o segundo e o primeiro números (99,85 – 95,43). A segunda amplitude móvel (0,24) é a
diferença entre o terceiro e o segundo números (100,09 – 99,85) e assim sucessivamente,
sempre subtraindo o seguinte pelo anterior.
A média das amplitudes é 2,55. Essa amplitude pode ser utilizada para definir os limites de
controle da mesma maneira como foram determinados no gráfico de controle das médias.
Supondo que o tamanho da amostra é igual a 2, o gráfico de controle terá linha central igual a
99,11 (média da coluna dos dados) e os limites de controle são calculados com o coeficiente de
Shewhart, neste caso, d  = 1,128 para n = 2 (ver Tabela 8). O limite de controle superior é
calculado da seguinte forma: 99,11 + (3*2,55/1,128) = 105,89. Por sua vez, calcula-se o limite de
controle inferior desta forma: 99,11 – (3*2,55/1,128) = 92,33. Nenhum dado contido na Tabela 12
está fora dos limites de controle, assim o processo está sofrendo apenas causas comuns. Se o
engenheiro estiver insatisfeito com a variabilidade do processo, julgando que as temperaturas
estão variando consideravelmente ou demais, então ele terá que atacar o problema com
despesas grandes para comprar um novo aquecedor ou outro termostato.
2
Exemplo da estatística em ação para a melhoria da qualidade
O administrador Roberto trabalha em uma companhia de grande porte, com serviços de cartão de
crédito, e seus superiores querem agilizar o processamento de novos cartões. O processo em si já
foi mapeado e um ponto crítico identificado: checar as referências bancárias do novo candidato
ao cartão. Para levantar uma amostra (com a variável tempo, por exemplo) para essa tarefa, o
processo foi monitorado durante intervalos regulares e, depois de três dias, a média do processo
foi calculada em oito minutos, com desvio-padrão de cinco minutos. Com a primeira montagem
do gráfico de controle para os valores individuais X , são encontrados vários pontos fora dos
limites, indicando causas especiais e que o processo deve ser corrigido. Os pontos foram
eliminados da base dos dados e novos limites de controle calculados. No decorrer do tempo,
novos pontos aparecem fora dos limites de controle e quase sempre as causas especiais
encontradas. A causa especial de documentos perdidos foi solucionada aplicando normas
organizacionais na mesa dos funcionários. Outro problema foi a demora, ainda muito irregular, em
conseguir contato com o funcionário do banco, o que foi solucionado pelo estabelecimento de
uma série de convênios com os maiores bancos, padronizando um sistema de comunicação
através de formulários disponíveis pela internet, e-mails e a utilização do telefone. Em poucas
semanas, a média da tarefa baixou para três minutos, com desvio padrão de dois minutos. Com
essa melhoria, o número de candidatos processados por semana triplicou (SAMOHYL, 2009).
i
Até agora não foi mencionado algo sobre os limites com especificações de informações para
medir a tolerância permitida da variabilidade de uma característica importante do produto. Esses
limites são conceitualmente independentes dos limites de controle. A tolerância é calculada pelo
analista do processo ou produto na hora da sua concepção, ou seja, antes de qualquer tentativa
de fabricá-lo. Em outras palavras, a tolerância é um conceito teórico e nem sempre aplicado
efetivamente.
Os limites de controle, por outro lado, são valores calculados dos dados observados e são
valores práticos. Conceitualmente, a tolerância mede o que deve ser, enquanto os limites de
controle medem o que realmente é. O índice de capacidade é uma medida da relação numérica
entre os dois conceitos: é a distância entre o limite de especificação superior (LES) e o inferior
(LEI) dividido pela distância entre o limite de controle superior (LCS) e inferior (LCI) do gráfico de
controle para valores individuais, ou seja:
O valor (LCS – LCI) é conhecido como “seis sigmas”, representando uma distância de seis
desvios padrão. Quando o processo cumpre o objetivo, então os limites de controle ficam
inteiramente dentro dos limites de especificação, e o valor do índice é maior que 1,0. Com isso,
um índice igual a 1,0 significa que a taxa de rejeição do produto não conforme fica em 27 itens de
10.000. Geralmente, as indústrias desejam processos com índices maiores que 1,33 e, se
alcançar o valor 2,0 (cenário considerado ideal), a tolerância seria de doze desvios padrão da
distância, ou seis desvios padrão da linha central. Com um índice igual a dois, a taxa de rejeição
de defeituosas seria de apenas dois itens defeituosos em um total de dez bilhões.
No exemplo das temperaturas, os limites de especificação são 92,53 e 106,09; indicando que
uma temperatura adequada e dentro dos conformes deve ficar sempre entre essas duas
temperaturas para garantir a qualidade do produto. O índice de capacidade nesse processo
químico é (106,09 – 92,028) / (105,89 – 92,328) = 14,062/13,562 = 1,04. Portanto, pelo índice de
capacidade, as temperaturas estão fora das especificações quase 27 vezes para cada 10.000
amostras ou 0,27% do tempo total, um valor normalmente avaliado e considerado como
adequado pelo gerente da linha de produção.
Para compreender outro importante gráfico para o controle estatístico do processo, imaginemos
mais um exemplo fictício. Uma empresa de materiais para escritório tem como carro chefe de
fabricação uma caneta esferográfica customizada com a logomarca do cliente. O custo de
fabricação da caneta está em torno de 45 centavos, sendo vendida a $1,00 e com lotes sempre
entre 3.000 e 30.000 unidades.
Recentemente, as canetas vêm recebendo reclamações dos clientes por três razões:
1. O mecanismo de fechar e abrir a ponta da caneta não funciona bem.
2. A tinta da caneta é de baixa qualidade, secando rápido demais, o que é considerado o pior dos problemas.
3. A tinta da logomarca do cliente desaparece em apenas poucas horas.
Analisando esse caso, percebe-se que, obviamente, uma inspeção de 100% seria impossível,
dado o tamanho dos lotes e o custo baixo de cada item. O gerente da linha de produção toma a
iniciativa de implantar a utilização de um gráfico de controle na linha de produção, e como
primeira tentativa constrói o gráfico com valores que foram coletados na etapa final da linha de
O gráfico do tipop8.4
produção (Tabela 13). Neste caso, o gráfico utiliza a grandeza porcentagem (ou percentagem),
representado pela letra p de itens defeituosos.
Tabela 13 - Porcentagem de canetas defeituosas na linha de produção
Número /
tamanho da
amostra
Número de
canetas
defeituosas
Canetas
defeituosas
(em %)
Número /
tamanho da
amostra
Número de
canetas
defeituosas
Canetas
defeituosas
(em %)
1 / 100 8 8 18 / 100 5 5
2 / 100 8 8 19 / 100 4 4
3 /100 5 5 20 /100 5 5
4 / 100 2 2 21 / 100 3 3
5 / 100 5 5 22 / 100 8 8
6 / 100 7 7 23 / 100 2 2
7 / 100 2 2 24 / 100 6 6
8 / 100 5 5 25 / 100 2 2
9 / 100 3 3 26 / 100 5 5
10 / 100 12 12 27 / 100 6 6
11 / 100 3 3 28 / 100 9 9
12 / 100 6 6 29 / 100 2 2
13 / 100 2 2 30 / 100 3 3
14 / 100 7 7 31 / 100 9 9
15 / 100 8 8 32 / 100 7 7
16 / 100 3 3 33 / 100 5 5
17 / 100 3 3 34 / 100 4 4
Média = 5,12 5,12
Fonte: adaptado de Samohyl (2009).
Este tipo de gráfico é popular nas fábricas onde a utilização do CEP é ainda muito embrionária. A
peça é inspecionada e julgada conforme ou não conforme. Não é preciso nenhum equipamento
avançado de medida.
No caso da empresa de materiais de escritório, não é necessário mensurar alguma característica
da caneta, mas sim deve-se apenas analisar se a caneta preencheos três parâmetros de
qualidade discutidos acima. O gráfico exige tamanho de amostra grande, de 100 a 1.000 ou até
2.000. O gerente decidiu usar amostras de tamanho igual a cem elementos para facilitar a
conversão de número de defeituosas em porcentagem. Depois de três turnos de amostragem,
foram coletados dados em 34 subgrupos, como organizado pela Tabela 13.
Analisando a tabela anterior, pode ser verificado que a porcentagem defeituosa média é de 5,12%,
idêntica ao número médio de canetas defeituosas em cada um dos lotes (subgrupos), pois todos
possuem cem amostras. O cálculo do desvio padrão neste caso segue a fórmula (SAMOHYL,
2009):
Portanto, se os limites de controle se distanciam da porcentagem média em três desvios padrão,
mas com um peso de 2,2%, temos:
O limite de controle inferior resultou em -1,48%, número negativo, indicando uma
impossibilidade. Nesse caso, devemos considerar zero, pois não existe número de itens
defeituosos negativos. Após os cálculos, foi plotado o gráfico de controle (Figura 8) de
porcentagem de canetas defeituosas, com uma porcentagem defeituosa média igual a 5,12%,
além dos limites de controle inferior e superior a três desvios-padrão da média.
O gerente imediatamente nota que o 10º subgrupo possui um número de canetas defeituosas
maior do que o limite superior de controle (12 > 11,72). Uma investigação direcionada para
causas especiais é apontada, e, se for encontrada a causa da deterioração da qualidade do
produto, ela deverá ser eliminada.
Em muitos casos, na prática, a utilização do gráfico pode ser simplificada para facilitar as tarefas
do operador na linha de produção. Quando o item fabricado é pequeno, mas produzido em lotes
muito grandes e o custo de fabricação é muito baixo, o tamanho do subgrupo deve ser grande,
talvez contendo 1.000 ou 2.000 elementos. É o caso da fabricação de porcas ou parafusos, onde
o tamanho do lote pode ser de 100.000 ou mais.
Para facilitar os procedimentos, um subgrupo contendo 2.000 elementos não precisa ser
contado um a um, mas sim os 2.000 itens podem ser coletados em algum tipo de recipiente onde
cabem exatamente 2.000 parafusos, sendo então espalhados por uma mesa onde três ou quatro
operadores vão fazer inspeção dos itens de forma rápida e eficiente. Desse modo, o número de
peças defeituosas será relatado em uma ficha de verificação.
Figura 8 - Controle da porcentagem defeituosa de canetas
Fonte: adaptado de Samohyl (2009).
https://objetos.institutophorte.com.br/PDF_generator/img/08.png
https://objetos.institutophorte.com.br/PDF_generator/img/08.png
Exemplo da estatística em ação para a melhoria da qualidade
O supervisor de uma linha de produção de um tubo de PVC está com o problema de cortar o tubo
sem deixar nenhum vestígio do corte, como pó residual, fios de PVC no corte ou a beirada riscada.
A linha de produção é responsável por aproximadamente mil cortes por hora e, portanto, a
inspeção de 100% não é justificável. Dessa forma, a cada hora são colhidos aleatoriamente 150
cortes para inspeção, para a plotagem do gráfico de controle p. É a primeira vez na história da
fábrica que monitoram um processo com regularidade e disciplina. O supervisor estima que a
porcentagem de cortes rejeitadas deva ser de 5%. Para calcular o desvio-padrão:
 = 0,018. Com isso, o limite superior de controle é 0,05 + (3*0,018) = 0,10 e
o inferior é zero. Assim, de hora em hora ele calcula o valor de p na amostra de 150 cortes e plota
o gráfico de controle p. Muitas vezes o valor de p da amostra é maior que o limite de controle,
obrigando a busca das causas especiais. Uma depois da outra, as causas especiais são
descobertas: a serra de corte não era substituída regularmente, houve troca de operador sem
prestar atenção à fase do processo e os plásticos utilizados possuíam níveis de dureza
diferentes. Ao longo do tempo, as causas foram eliminadas e, depois de apenas uma semana de
monitoramento, o percentual de cortes defeituosos diminuiu para 1,5%. O resultado maior é que o
supervisor foi promovido à chefia de qualidade da empresa (SAMOHYL, 2009).
Se o gerente optar pelo número de peças defeituosas, e não a porcentagem, as fórmulas para a
linha central e os limites de controle serão diferentes. A linha central é a média das peças
defeituosas nos subgrupos, e o desvio-padrão é calculado com uma fórmula ligeiramente
diferente: p (1 − p)n, contendo o n (tamanho do subgrupo) no numerador.
Assim, os limites de controle serão calculados da seguinte forma:
Esse gráfico leva o nome de gráfico de controle np, desde que n é o tamanho da amostra e p a
porcentagem defeituosa na média, então o valor np é o valor esperado de peças defeituosas em
um subgrupo qualquer.
Quando a fabricação é de itens maiores, de maior custo e complexidade, a possibilidades de
encontrar defeitos é extremamente alta, como em carros, aviões, iates, geladeiras, paredes em
construções de grande porte, erros de datilografia em livros, entre outros. Surge então a
necessidade de contar o número de defeitos encontrados no item fabricado para melhorar a
qualidade. Por exemplo, abordaremos uma fábrica de geladeiras e uma pesquisa para avaliar os
defeitos (Tabela 14).
Tabela 14 - Número de defeitos por geladeira em 50 subgrupos
Geladeira
Defeitos
(número) Geladeira
Defeitos
(número) Geladeira
Defeitos
(número) Geladeira
Defeitos
(número)
1 0 14 0 27 1 40 1
2 3 15 0 28 5 41 2
3 1 16 0 29 1 42 1
4 0 17 1 30 0 43 1
5 0 18 1 31 2 44 0
6 0 19 0 32 1 45 0
7 0 20 0 33 0 46 2
8 0 21 3 34 0 47 3
9 0 22 0 35 2 48 1
10 1 23 1 36 0 49 3
11 3 24 2 37 1 50 3
12 0 25 2 38 0  
13 3 26 1 39 4 Média = 1,12
Fonte: adaptado de Samohyl (2009).
Certamente, existe uma série de falhas que podem aparecer na geladeira: arranhões na tinta,
problemas de fechamento de porta, pé mal-equilibrado, entre outros. Contando o número de
defeitos por geladeira, consegue-se uma quantidade de dados numéricos suficiente para a
montagem do gráfico de controle voltado para defeitos.
Após a montagem da tabela anterior, pode-se plotar o gráfico de controle para os defeitos das
cinquenta geladeiras. A linha central do gráfico é a média de defeitos por geladeira. Como
Gráficos para defeitos8.5
sempre e igual aos outros gráficos, os limites de controle superior e inferior distanciam-se em
três desvios padrão da média. Neste caso, o desvio padrão é calculado com uma fórmula
simples: é a raiz quadrada da média dos defeitos das geladeiras. No exemplo abordado, temos:
√1,12 = 1,058. Em outras palavras, a variância e a média são idênticas. Portanto, para esse caso,
os limites de controle são:
LCS: 1,12 + 3 √1,12 = 4,29 e LCI: 1,12 − 3 √1,12 = −2,05 → 0,00
Como no gráfico anterior sobre proporções defeituosas (p), o limite inferior possui valor negativo.
Entretanto, esse é o tipo de situação em que um valor negativo é uma impossibilidade, pois não
existe número negativo de defeitos. Por isso, no gráfico da Figura 9 substituiu-se o valor negativo
por zero.
A geladeira de número 28 possui cinco defeitos e está acima do limite de controle. O gerente,
portanto, deve entrar em ação e investigar o processo para possíveis causas especiais.
* *
Figura 9 - Gráfico de controle para o número de defeitos por geladeira
Fonte: adaptado de Samohyl (2009).
https://objetos.institutophorte.com.br/PDF_generator/img/09.png
https://objetos.institutophorte.com.br/PDF_generator/img/09.png
Videoaula - Gráficos dos deméritos
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629157556".
O gerente da linha de produção de geladeiras não ficou muito satisfeito com o gráfico contendo o
número de defeitos por unidade de geladeira, porque no final há uma grande diferença entre a
severidade dos próprios defeitos. Alguns são apenas superficiais, que não afetam a utilização do
produto, enquanto outros são fatais e devem ser evitados. Depois de levantar essa dúvida para o
professor de CEPda universidade, ele toma a decisão de implantar na linha de produção o gráfico
de deméritos em substituição ao de defeitos.
Nesse tipo de gráfico, os defeitos mais sérios possuirão um peso maior do que os defeitos mais
leves. Verifique a Tabela 15, derivada da Tabela 14 e compare. A diferença principal entre as duas
tabelas é que agora os mesmos defeitos da tabela anterior foram classificados como leves
(contendo peso igual a 1), médios (com peso igual a 3) e severos (com peso igual a 6). A segunda
geladeira contém três defeitos, mas agora os três defeitos valem dez deméritos (multiplicação do
número de defeitos pelo peso que representa): um primeiro defeito com peso 1, um segundo com
peso 3 e um terceiro com peso 6, somando um total de 10 deméritos. O cálculo foi utilizado para
todas as geladeiras com os valores da tabela anterior. A média dos deméritos é igual a 2,62 e é a
linha central do gráfico de controle. Os limites seguem a norma de três desvios padrão de
distância da média, e o cálculo do desvio padrão segue a fórmula da variância incorporando os
diferentes pesos:
Gráficos dos deméritos8.6
1 (média de defeitos leves) + 3 (média de defeitos médios) + 6 (média de defeitos severos) = 1 
(0,64) + 9 (0,30) + 36 (0,18) = 9,82
Como o desvio padrão é a raiz quadrada da variância, temos: √9,82 = 3,13. Sendo a média igual a
2,62 e o desvio padrão igual a 3,13, então os limites de controle são:
LCS: 2,62 + 3 3,13 = 12,01 e LCI: 2,62% − 3 3,13= −6,67 → 0,00
Tabela 15 - Defeitos de cada geladeira com diferentes pesos e seus respectivos deméritos
Identificação da geladeira
Defeitos
(peso 1)
Defeitos
(peso 3)
Defeitos
(peso 6) Deméritos
1 0 0 0 0
2 1 1 1 10
3 1 0 0 1
4 0 0 0 0
5 0 0 0 0
6 0 0 0 0
7 0 0 0 0
8 0 0 0 0
9 0 0 0 0
10 1 0 0 1
11 1 1 1 10
12 0 0 0 0
13 1 1 1 10
14 0 0 0 0
15 0 0 0 0
16 0 0 0 0
17 1 0 0 1
18 1 0 0 1
19 0 0 0 0
20 0 0 0 0
21 1 1 1 10
2
*
2
*
2
* *
* *
* *
Identificação da geladeira
Defeitos
(peso 1)
Defeitos
(peso 3)
Defeitos
(peso 6) Deméritos
22 0 0 0 0
23 1 0 0 1
24 1 1 0 4
25 1 1 0 4
26 1 0 0 1
27 1 0 0 1
28 3 1 1 12
29 1 0 0 1
30 0 0 0 0
31 1 1 0 4
32 1 0 0 1
33 0 0 0 0
34 0 0 0 0
35 1 1 0 4
36 0 0 0 0
37 1 0 0 1
38 0 0 0 0
39 2 1 1 11
40 1 0 0 1
41 1 1 0 4
42 1 0 0 1
43 1 0 0 1
44 0 0 0 0
45 0 0 0 0
46 1 1 0 4
47 1 1 1 10
48 1 0 0 1
Identificação da geladeira
Defeitos
(peso 1)
Defeitos
(peso 3)
Defeitos
(peso 6) Deméritos
49 1 1 1 10
50 1 1 1 10
Média = 0,64 0,30 0,18 2,62
Fonte: adaptado de Samohyl (2009).
A partir da análise da Tabela 15 e do gráfico da Figura 10, conclui-se que a geladeira de número
28 acusa a presença de causas especiais, precisando de investigação para não comprometer a
qualidade da linha de produção (SAMOHYL, 2009).
Analisando o gráfico da Figura 10, confirma-se que a geladeira número 28 continua dando um
alarme da presença de causas especiais que precisam ser investigadas.
Figura 10 - Controle para deméritos
Fonte: adaptado de Samohyl (2009).
Como foi abordado neste capítulo, o uso correto dos gráficos de controle depende da situação
em que o controle e o monitoramento serão aplicados e também da seleção do gráfico mais
correto para esse caso específico.
Quando a variável a ser mensurada é contínua, como peso ou volume, a situação exige o uso de
gráficos para médias (com o objetivo de monitorar as médias de pequenos subgrupos) e gráficos
de controle para variabilidade. Caso os dados numéricos estejam em subgrupos de tamanho
unitário, então é indicada a utilização de gráficos de dados individuais e da amplitude móvel. Se
o dado for uma porcentagem, representando, por exemplo, a proporção de peças defeituosas de
O gráfico de controle certo para cada
situação
8.7
https://objetos.institutophorte.com.br/PDF_generator/img/10.png
https://objetos.institutophorte.com.br/PDF_generator/img/10.png
uma amostra, o gráfico correto seria o gráfico de controle de defeitos em porcentagens, ou seja, o
gráfico do tipo p.
Um erro muito comum e problemático é aplicar porcentagens nos gráficos de médias. Se o
desvio padrão não for o mesmo nos dois gráficos, os cálculos dos limites de controle são
diferentes e não podem ser comparados. O resultado pode gerar muitos alarmes falsos, e os
alarmes verdadeiros podem não ser identificados.
Por fim, quando o dado numérico significa o número de defeitos em um determinado produto e
as possibilidades de encontrar defeitos são amplas, o gráfico correto é o de controle de defeitos,
onde a fórmula possui o desvio-padrão igual à raiz quadrada da média.
Práticas profissionais - O gráfico de controle padrão
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629158866".
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://www.youtube.com/watch?v=jcEpmmDvD_A".
Aproveitando ao máximo os gráficos de
controle
9
Os gráficos de controle, mesmo quando utilizados de forma não eficaz, podem resultar em
benefícios para a empresa. No entanto, com alguns ajustes e algumas sugestões importantes, os
alarmes falsos que resultam diretamente do mau uso dos gráficos podem ser reduzidos ao
mínimo e, consequentemente, economizar tempo, esforço e gerenciar melhor os recursos para as
tarefas e áreas da empresa mais importantes. Nada na empresa é mais real do que um alarme
falso, e naturalmente esses alarmes incorrem em custos altos e desnecessários, devendo ser
mantidos em um número mínimo.
Por outro lado, alarmes verdadeiros devem despertar o operador ou engenheiro imediatamente
depois de uma degradação do processo e também devem ser abundantes nos processos
instáveis. No final, nada é mais lucrativo do que uma fábrica ou escritório com processos
estáveis, e isso significa que poucos itens não conformes estão sendo produzidos, que o tempo
improdutivo é quase zero e, quando os processos se deterioram, são rapidamente observados,
identificados e corrigidos com a finalidade de manter a qualidade.
Quando algum processo parece estar fora de controle, questione a precisão dos aparelhos de
medição, mesmo que eles sejam dos mais modernos ou conhecidos. Em geral, uma hora ou duas
a cada semana é suficiente para testar todos os seus equipamentos e ficar mais confiante com
as mensurações obtidas.
Todos os alarmes têm que ser investigados, e o engenheiro não deve se sentir frustrado depois
de uma meticulosa investigação de um alarme falso onde nenhuma causa especial foi
identificada. Mesmo quando os gráficos de controle são construídos seguindo as regras básicas
da utilização científica da estatística, os alarmes falsos são inevitáveis, mas podem ser
reduzidos ao mínimo e, consequentemente, resultar em sequências longas de amostras sem
nenhum alarme falso. Por outro lado, um alarme verdadeiro que não soa é tão ruim – senão pior
– para a empresa do que um alarme falso, e possivelmente pode incorrer em custos altos. Desse
modo, todos os alarmes devem ser respeitados e investigados.
Algumas observações nas amostras não devem ser eliminadas dos dados dos gráficos de
controle simplesmente porque parecem diferentes das outras observações. Antes de tudo, uma
causa especial tem que ser encontrada e o processo corrigido – somente a partir daí as
observações dessa amostra podem ser eliminadas. Normalmente as observações são
eliminadas dos dados do gráfico porque foram caracterizadas como vindas de uma outra
população em consequência da causa especial.
Quando o engenheiro está trabalhando com dados discretos, como número de peças defeituosas
ou defeitos, não é correto aplicar um gráfico de controle das médias nas porcentagens
calculadas das peças consideradas não conformes, como já foi comentado anteriormente. Ao
cometer este erro, resultará em limites de controle absolutamente errados. Os gráficos de
controle das médias são construídos para o monitoramento de características medidas em uma
escalacontínua como pesos, diâmetros, comprimentos e semelhantes. Quase sempre os
gráficos dependem da suposição de dados na distribuição normal, o que exige dos valores
medidos uma variação entre menos infinito e mais infinito. Na prática, isso significa que não
existem limites ou restrições nos valores medidos. A medida pode assumir valores relativamente
grandes ou pequenos. Por outro lado, é claro que porcentagens possuem limites: um mínimo de
0% e um máximo de 100%.
A estratificação de uma amostra é muito mais importante do que um cálculo detalhado do
tamanho da amostra, pois define na ficha de verificação quais máquinas foram utilizadas, a hora
do dia, a fonte da matéria-prima, o operador e outras características importantes do processo,
sendo a única maneira de identificar problemas específicos. É verdade que a amostragem
estratificada envolve mais tempo e mais cuidados, mas aumenta a capacidade de investigação.
Para o gráfico das médias, o tamanho da amostra deve ser entre quatro e nove elementos, e
quando a estratificação é bem-feita, apenas quatro elementos por amostra são mais do que
suficientes. Os gráficos para porcentagens não conformes precisam de amostras muito maiores,
mas a peça em amostra é, em geral, quase insignificante em termos de custo por item, como
lápis, fósforos, porcas e parafusos. Finalmente, jamais utilize amostras de tamanhos diferentes.
Na literatura acadêmica, discute-se muito sobre amostras de tamanho variável, mas, na prática,
se o tamanho da amostra varia, isso não acrescenta vantagem alguma e provoca confusão no
momento da avaliação do processo pela análise do gráfico.
Muitas vezes, em gráficos que monitoram defeitos ou peças defeituosas, muitos zeros podem ser
observados. A abundância de zeros pode tendenciar os resultados, levando o engenheiro a
imaginar que existem menos peças defeituosas do que realmente há.
Para esse tipo de situação, as amostras devem ser grandes para evitar o aparecimento de zeros.
Uma alternativa seria utilizar um gráfico de médias, onde X  será definido como o tempo
decorrido entre o aparecimento de peças defeituosas. Mesmo que isso possa ser muito parecido
com o conhecido gráfico de controle para dados individuais, os dados jamais serão como em
uma distribuição normal. Como os engenheiros da área de confiabilidade sabem, o tempo é uma
i
variável com a qual se deve tomar cuidado, pois deve ser transformado para normalidade por
alguma manipulação algébrica, ou uma distribuição mais adequada terá que ser implementada.
No entanto, a filosofia deste capítulo é a de que, nos estágios iniciais da implantação pela
empresa de gráficos de controle, determinadas regras – como a da normalidade dos dados – são
ignoradas, mas serão corrigidas no decorrer do tempo, enquanto a empresa aprende as lições da
estatística.
A não normalidade dos dados é um problema raramente atacado no “chão da fábrica”.
Aprendendo a tratar esse problema de maneira correta, melhorará em muito a eficiência da
prática dos gráficos. Com isso, a empresa conseguirá um resultado financeiro interessante,
enquanto a taxa de rejeição e o retrabalho diminuem e causas especiais são encontradas.
Um último problema com os dados do gráfico de controle que contradiz as suposições básicas
da estatística é a dependência dos dados por meio do tempo. Gráficos de controle utilizados de
uma maneira correta exigem que dados não possuam tendências, subindo ou descendo ou
exibindo padrões de qualquer tipo. Dados como esses geralmente produzem limites de controle
muito mais largos do que os valores certos, significando que alguns alarmes verdadeiros não
serão identificados.
A implementação do controle estatístico de processo na empresa não é uma tarefa fácil e existe
somente uma única maneira para fazê-lo: passo a passo. Procedimentos devem ser
desenvolvidos no nível de “caso a caso” para encaixar novos procedimentos nos já existentes, e
isso em geral exige um gasto grande em esforço e dinheiro, mas, em quase todos os casos, o
retorno é considerável.
Pensemos nisso como se fosse a busca de melhorias dentro do próprio processo de busca de
melhorias. A empresa séria não deve nunca ficar com medo de avançar para procedimentos mais
complexos, contanto que apontem para níveis maiores de eficiência e lucratividade. No mínimo,
há uma coisa certa: alguns de seus concorrentes no mercado já estão lá na sua frente.
Como discutido anteriormente, os gráficos de controle “mal” utilizados possuem seu valor. O ato
de coletar dados regularmente, desenhando gráficos e analisando a variabilidade e o
comportamento dos processos empresariais, só pode trazer benefícios para a empresa.
A aplicação de controle estatístico do processo leva a empresa a “fazer o certo uma primeira
vez”, como Juran sempre falava, afirmando que os benefícios são grandes. Nessa linha de
raciocínio, é importante utilizar a construção de gráficos de controle no início do processo, e não
no final. No final, o valor adicionado pelo processo de fabricação já é grande, e qualquer rejeição,
nessa altura do jogo, tem implicações desastrosas em termos de custos. No início do processo, a
elaboração do produto quase não começou e, portanto, a rejeição e o retrabalho têm custos
considerados triviais.
Videoaula - A ISO 9001-2000 e o controle estatístico do processo
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629157788".
A ISO 9001-2000 e o controle estatístico
do processo
10
A certificação de ISO 9001-2000 proporciona a garantia de que a organização está sempre e
constantemente correndo atrás de melhorias nos insumos, nos processos produtivos e
administrativos da organização e na satisfação do cliente e funcionários. No entanto, não é o
intuito da ISO 9001-2000 propor ou exigir a utilização de procedimentos específicos para
alcançar as tão desejadas melhorias.
Para compreender melhor a essência da aplicação da ISO 9001-2000, pense em reunir uma
documentação dos deveres da organização, que deve ser continuamente levantada e organizada
de modo a servir como uma base de dados primária e essencial para a evolução e
aperfeiçoamento da organização. A ISO possui como prioridade o fluxo de informações
padronizadas e, o que não é menos importante, necessita do que foi armazenado nos chamados
bancos de dados de fácil utilização. Entretanto, não existe obrigação em utilizar as informações
armazenadas. Para armazenar as informações, pode-se utilizar fichas em papel depositadas em
arquivos metálicos, se for o caso, mas é claro que uma rede de computadores possui um
potencial de organização e de facilidade de acesso muito superior.
Além do mais, a ISO direciona a quantificação do conhecimento, refletindo a filosofia de que os
fatos numéricos, além de exigirem detalhamento e definição mais apurados, abre o caminho para
análises e estudos mais objetivos e científicos. O modelo de gerenciamento favorecido pelas
normas e descrito logo no início da ISO 9001-2000 é o famoso ciclo PDCA, baseado na
metodologia científica, onde P (planning = planejamento) significa levantar e definir o problema e
as metas, D (do = fazer) significa testar as situações reais da empresa e implantar
procedimentos de correção da situação, C (check = analisar) significa estudar se os
procedimentos realmente funcionam e, por fim, A (act = implementar) significa colocar em
prática ações específicas e contínuas para prevenir falhas e melhorar a qualidade. Os autores
mencionados acima fizeram grandes contribuições na área da estatística com aplicações em
procedimentos concretos e certamente aplicavam as metodologias para o ciclo PDCA.
Explicitamente, entre outras coisas, a ISO 2001-9000 envolve mensuração, análise e melhoria e
objetiva a satisfação do cliente, atentando às formas em que este pode influenciar na tomada de
decisões – até mesmo na linha de produção.
O objetivo principal deste capítulo é informar quais requisitos da ISO 9001-2000abordam
assuntos quantitativos e como eles são tratados com metodologias estatísticas.
É importante mencionar que a diretoria da empresa é responsável pelas revisões periódicas do
sistema de qualidade gerencial. As revisões são documentadas e devem utilizar, ao máximo,
medidas quantitativas de desempenho. Quando necessário, o sistema de qualidade deve sofrer
alterações para melhor fornecer o que o cliente deseja. É justamente nessa aplicação que os
gráficos de controle e histogramas podem ser reavaliados e atualizados, além de abordar os
requisitos do cliente visando à linha de produção. Mas como saber quais são os requisitos dos
clientes? Essa questão não apresenta nenhum problema quando o número de clientes é pequeno,
como a relação entre fornecedor e cliente/montadora no setor automobilístico. Neste caso, os
requisitos fazem parte de um minucioso contrato com obrigações legais. No entanto, existem
mercados onde o número de clientes está na quantidade dos milhares ou até milhões. A situação
exige a utilização de questionários, amostragem e metodologias mais complicadas de estatística
para categorizar e analisar correlações esclarecedoras sobre as exigências que determinam a
qualidade de um produto ou serviço. Para quem não possui ainda conhecimento nas
metodologias quantitativas ou que envolvam ferramentas matemáticas, é bom se recordar que
um questionário bem elaborado pode revelar o comportamento do consumidor, e existem
maneiras de identificar isso em gráficos de construções bem simples. A regra geral é nunca
tentar uma metodologia complicada antes de entender a abordagem e a análise gráfica.
Para a ISO 9001-2000, a melhoria da satisfação do cliente é alcançada somente conhecendo os
requisitos. Isso será feito, na maioria das vezes, por meio de questionários e análises
estatísticas. Procedimentos matemáticos também podem ser úteis para avaliar se um programa
de treinamento é válido, testando o empregado imediatamente depois do treinamento pelo
conhecimento adquirido, e, no longo prazo, pela pertinência do treinamento em melhorar relações
entre a empresa e seus clientes.
Nesse contexto, a eficiência do setor logístico é extremamente importante, e seu desempenho é
crítico para entregar o produto ou serviço na hora certa. O desempenho pode ser medido pelo
tempo de atraso, por exemplo, além de monitorado. Como nos questionários aos clientes, os
quais precisam de alta definição e clareza, a mesma característica aplica-se aos índices de
desempenho de um determinado processo ou serviço. Quando a questão é clara, a resposta
também é e pode-se dispensar, até uma próxima etapa de maior maturidade da empresa, a
necessidade de análises mais complicadas.
A necessidade de utilizar metodologias quantitativas da estatística se baseia na eficiência
destas para conhecer grandes populações de produtos ou insumos onde, então, a amostragem
se apresenta como ferramenta imprescindível para economizar tempo e recursos. Os dados são
coletados na linha de produção para assegurar que eles reflitam os requisitos dos clientes.
Estudos que envolvem índices de capacidade são apropriados aqui. A empresa deve exigir do
setor de projeto e desenvolvimento um nível de qualidade no processo que garante a satisfação
do cliente. Os requisitos dos clientes são mencionados, primeiro obrigando a empresa a medir as
características essenciais do produto do ponto de vista do cliente e, segundo, ao responsabilizar
a empresa para avaliar periodicamente todo o processo da relação entre características
essenciais e os requisitos do cliente. Nada é melhor do que a estimação de médias e desvios
padrão para monitorar a qualidade.
As etapas de mensuração, análise e aplicação de melhoria estão diretamente relacionadas com o
controle estatístico de processo. Entender os conceitos de produto conforme e não conforme,
auditorias internas (onde a amostragem será essencial) e monitoramento, que abre espaço para
o uso de gráficos de controle e índices de capacidade, direcionando para a área da estatística.
Ações corretivas sinalizam a busca por causas especiais, e ações preventivas dependem de
metodologias de previsão e análises de séries denominadas temporais.
Para a organização, na fase de certificação ou renovação da ISO 9001-2000, não
necessariamente é preciso implantar definitivamente um sistema de estatística altamente
avançado em cima das práticas tradicionais. A transformação da empresa do dia para a noite,
muitas vezes, senão sempre, não funciona direito. O investimento é grande, e a diminuição de
deficiências na organização será pequena nos primeiros meses. Portanto, uma organização
frustrada e descontente possui seu resultado financeiro ameaçado.
A implantação de qualquer procedimento novo na empresa, especialmente procedimentos com
base matemática, deve começar em um espaço pequeno na fábrica, oferecendo resultados
aparentes e contundentes. Iniciando-se a implantação de métodos estatísticos com apenas
gráficos e explicações intuitivas, sem entrar nos detalhes dos cálculos, já se oferece, em muitos
casos, as condições suficientes para uma análise melhor de um fenômeno considerado
problemático. Mais tarde, em algumas semanas ou talvez meses, com os empregadores
acostumados em pensar quantitativamente sobre os procedimentos da organização, técnicas
mais abstratas e complexas como amostragem, gráficos de controle avançados e
experimentação podem ser inseridas de modo mais generalizado.
Os famosos gráficos de controle se encontram atualmente na análise de todos os aspectos de
uma empresa, com aplicações das mais variadas.
A importância do Seis Sigma11
A cada dia mais empresas procuram oferecer produtos de alta qualidade. A excelência em
qualidade é o motivo do sucesso de inúmeras empresas, como:
1. Uma empresa operando livre de erros e dentro do cronograma.
2. Uma mensagem que chega muito rápido de um ponto a outro.
3. Uma companhia de seguros que paga o sinistro em alguns dias.
4. Um aeroporto que raramente perde uma bagagem.
Para atingir a excelência exigida pelo mercado atual, é necessário que as empresas definam os
padrões de qualidade a serem alcançados e sustentados. Essa é uma necessidade imediata, pois
reduz:
1. Defeitos
2. Retrabalho
3. Reclamações
4. Tempo de operação
5. Custos
A competitividade faz com que as empresas reduzam custos e mantenham ou ampliem os níveis
de qualidade. Uma empresa altamente competitiva garante sua permanência no mercado,
mantém seus clientes satisfeitos, conquista novos clientes e aumenta os lucros empresariais.
O avanço tecnológico e a variedade dos produtos aumentou nas últimas décadas. Com matérias-
primas e componentes complexos, aumenta-se também a chance de falhas. Para redução da
chance de falhas, nos anos 1980, a Motorola desenvolveu o programa Seis Sigma para solução
de problemas de qualidade.
Inicialmente, o objetivo principal era a redução da variabilidade nas características críticas do
produto, levando a chance de falha a praticamente zero. Contudo, o programa Seis Sigma
transcendeu a redução da variabilidade, tornando-se uma filosofia de solução de problemas
calcada no ciclo PDCA e no emprego de ferramentas de qualidade e técnicas estatísticas.
Algumas razões podem ser apontadas para o sucesso, como: I) Mensuração (monetária) dos
benefícios; II) Método DMAIC; III) Comprometimento da alta direção; IV) Treinamento seguido de
aplicação; V) Emprego de técnicas e ferramentas; VI) Foco no cliente e foco financeiro.
Um programa Seis Sigma é formado por vários projetos Seis Sigmas. As técnicas e ferramentas
utilizadas no Seis Sigma permitem entender o problema, estudar suas causas, analisar
alternativas, implantar soluções que irão reduzir os defeitos ao padrão de poucas ocorrências
por milhão e manter as melhorias implantadas.
Os resultados do Seis Sigma estão fundamentados em alguns conceitos básicos, incorporados
na metodologia, como:
1. Envolvimento de todos os níveis gerenciais
2. Consistênciado método de trabalho
3. Uso do raciocínio estatístico
4. Ênfase na aprendizagem e capacitação
5. Foco no cliente
6. Foco no impacto financeiro dos projetos propostos
Videoaula - Auditoria da Qualidade
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629158436".
Auditorias da qualidade12
Neste último capítulo, será abordado um pouco dos conceitos referentes às auditorias da
qualidade. Entretanto, para entender realmente o que significa a auditoria voltada para a área da
qualidade, será necessário mudar o conceito de fiscalização normalmente atribuído à palavra
auditoria. Segundo Falconi Campos, a auditoria, no âmbito da qualidade, deve ser praticada e
vista como uma oportunidade de dar orientação para a melhoria.
Pode-se, no entanto, definir que as auditorias da qualidade existem para verificar se padrões
determinados estão sendo seguidos. Neste caso, é importante que sejam realizadas por
auditores independentes, ou seja, que não estejam diretamente relacionados ao objeto da
auditoria, mas que o dominem de modo a garantir um diagnóstico de forma precisa e
principalmente com imparcialidade.
Com o objetivo de uma melhoria contínua e até mesmo pela sobrevivência, as organizações
implantam sistemas de gestão da qualidade, procurando não somente promover a qualidade do
produto ou serviço, mas também garantir a satisfação de seus clientes em todas as fases de
seus processos, desde o projeto até os serviços pós-venda. Entretanto, a simples implantação de
um sistema de gestão da qualidade não é suficiente, pois é necessário que o mesmo leve a
empresa a atingir seus objetivos principais, além de contribuir para a execução de sua missão,
sendo que, para isso, deverá ser analisado e aperfeiçoado.
As auditorias de qualidade podem ser classificadas em três categorias:
1. Auditorias de sistema
2. Auditorias de processos
3. Auditorias de produtos
As auditorias podem ser conduzidas por profissionais internos ou externos. Embora nada impeça
que uma empresa contrate consultores externos para auditar sistemas, processos e produtos a
fim de verificar como anda sua qualidade, a auditoria geralmente é realizada com fins de
certificação ou premiação. Nesses casos, ela se baseia em requisitos normativos ou nos
regulamentos dos prêmios pretendidos.
As informações geradas pelas auditorias devem servir como base para as decisões sobre os
pontos que necessitam de melhorias e os que estão funcionando de maneira eficaz. A confiança
da administração em seu sistema de gestão só se configura por meio da verificação periódica do
mesmo. Além disso, a auditoria aumenta a confiança do cliente na capacidade de seu fornecedor
em entregar produtos conformes, pois o retorno sobre a situação do sistema de qualidade deste
fornece as informações necessárias para gerar essa confiança ou para alertar ao cliente da
necessidade de novos fornecedores.
Uma auditoria só será eficiente se for objetiva. Por isso, deve-se seguir padrões de qualidade da
organização ou da norma a que se refere. Deve, da mesma forma, ser rigorosamente planejada,
de maneira que as seguintes etapas estejam definidas desde o início:
1. Cronograma
2. Áreas ou setores que devem ser auditados
3. Documentação
4. Objetividade
5. Descoberta das causas
6. Competência dos auditores
Neste contexto, é preciso ter total atenção para o aspecto da interação humana em uma
auditoria. Os relacionamentos interpessoais e problemáticos se estabelecem normalmente entre
auditores e auditados. Alguns problemas de processo podem passar a ser vistos como
problemas pessoais, gerando conflitos que, seguramente, poderiam ser evitados.
O compartilhamento das análises como os auditados pode ser uma boa forma de quebrar
barreiras e criar um clima de confiança entre as partes envolvidas, evitando desgastes e
melhorando a qualidade dos relatórios.
Com base no que foi abordado acima, a auditoria pode ser definida como um processo
sistemático, independente e documentado para se obter evidência e avaliá-la objetivamente,
visando determinar a extensão na qual os critérios de auditoria são entendidos. De acordo com a
norma ISO 10011, as auditorias são realizadas objetivando:
1. Determinar a conformidade ou não do sistema da qualidade.
2. Determinar a eficácia de um sistema quanto ao atendimento dos objetivos.
3. Identificar os pontos a serem melhorados nos sistemas da qualidade.
4. Atender aos requisitos regulamentares.
5. Permitir o registro do sistema da qualidade, chamado de certificação.
Essa norma relata as principais razões para realização da auditoria, como:
1. Avaliar um fornecedor quando se pretende estabelecer uma nova relação.
2. Verificar se o sistema da qualidade da organização continua em conformidade com os requisitos
especificados.
3. Verificar se o sistema da qualidade do fornecedor, sob acordo contratual, continua a atender aos requisitos
especificados.
4. Avaliar o próprio sistema da qualidade da organização frente aos requisitos de uma norma de sistema da
qualidade.
Recapitulando a Unidade 2
Nesta unidade, o foco é relacionar os conceitos com interpretações dos gráficos para posterior
tomada de decisão, além de noções sobre a norma ISSO 9001 e uma introdução à auditoria da
qualidade.
Considerações finais
A aplicação de controle estatístico do processo leva a empresa a “fazer o certo uma primeira
vez”. Nesta linha de raciocínio, é importante utilizar a construção de gráficos de controle no início
do processo, e não no final. No final, o valor adicionado pelo processo de fabricação já é grande,
e qualquer rejeição, nessa altura do jogo, tem implicações desastrosas em termos de custos. No
início do processo, a elaboração do produto quase não começou e, portanto, a rejeição e o
retrabalho têm custos considerados triviais.
A implantação de qualquer procedimento novo na empresa, especialmente procedimentos com
base matemática, deve começar em um espaço pequeno na fábrica, oferecendo resultados
aparentes e contundentes. Iniciando-se a implantação de métodos estatísticos com apenas
gráficos e explicações intuitivas, sem entrar nos detalhes dos cálculos, já se oferece, em muitos
casos, as condições suficientes para uma análise melhor de um fenômeno considerado
problemático. Mais tarde, em algumas semanas ou talvez meses, com os empregadores
acostumados em pensar quantitativamente sobre os procedimentos da organização, técnicas
mais abstratas e complexas como amostragem, gráficos de controle avançados e
experimentação podem ser inseridas de modo mais generalizado.
Os famosos gráficos de controle se encontram atualmente na análise de todos os aspectos de
uma empresa, com aplicações das mais variadas.
Por fim, é importante relacionar o controle estatístico com os procedimentos das normas ISSO
correspondentes e a questão de uma auditoria da qualidade mais sólida de informações, concisa
e coerente.
Autoria
Autor
O professor Reinaldo Azevedo Vargas é engenheiro de materiais de formação na graduação,
Mestre e Doutor de formação na pós-graduação em Ciências e Tecnologia de Materiais, com
especialidade em processos produtivos e ferramentas estatísticas. Leciona disciplinas das áreas
de materiais e correlacionadas com estatística desde 2009 e atua em cursos de pós-graduação
de MBA, graduação, ensino presencial, remoto, híbrido e EAD.
Reinaldo Azevedo Vargas
Glossário
Conjunto de práticas originalmente desenvolvidas pela Motorola para melhorar
sistematicamente os processos ao eliminar defeitos.
Fonte: pt.wikipedia.org [https://pt.wikipedia.org/wiki/Seis_Sigma] .
Sigla de controle estatístico do processo.
Fonte: blog.bomcontrole.com.br [https://blog.bomcontrole.com.br/controle-estatistico-
processo-cep] .
Medida que expressa o grau de dispersão de um conjunto de dados. Ou seja, o desvio padrão
indica o quanto um conjunto de dados é uniforme. Quanto mais próximo de 0 for o desvio padrão,
mais homogêneo são os dados.
Fonte: www.todamateria.com.br[https://www.todamateria.com.br/desvio-padrao] .
Organização Internacional de Padronização. Em outras palavras, é um meio de promover a
normalização de produtos e serviços, utilizando determinadas normas para que a qualidade seja
melhorada.
Valor médio de uma distribuição, utilizado para representar todos os valores da distribuição;
média aritmética dos valores após um certo número ou uma certa proporção maior ou menor ter
sido descartada.
Fonte: pt.wikipedia.org [https://pt.wikipedia.org/wiki/M%C3%A9dia] .
6 Sigma
CEP
Desvio padrão
ISO
Média
https://pt.wikipedia.org/wiki/Seis_Sigma
https://pt.wikipedia.org/wiki/Seis_Sigma
https://blog.bomcontrole.com.br/controle-estatistico-processo-cep
https://blog.bomcontrole.com.br/controle-estatistico-processo-cep
https://blog.bomcontrole.com.br/controle-estatistico-processo-cep
https://www.todamateria.com.br/desvio-padrao
https://www.todamateria.com.br/desvio-padrao
https://pt.wikipedia.org/wiki/M%C3%A9dia
https://pt.wikipedia.org/wiki/M%C3%A9dia
Bibliografia
BRAVO, I. Gestão da qualidade em tempos de mudança. 3. ed. Campinas, SP: Alínea e Átomo,
2010.
Crosby, P. Quality is still free. New York: McGraw-Hill, 1996.
FALCONI, C. V. Padronização de empresas. Nova Lima, MG: INDG Tecnologia e Serviços Ltda,
2004a.
FALCONI, C. V. TQC: controle da qualidade total ao estilo japonês. Nova Lima, MG: INDG
Tecnologia e Serviços Ltda, 2004b.
JURAN, J. M. Juran planejando para a qualidade. 2. ed. São Paulo: Pioneira, 1992.
KACHIGAN, S. K. Multivariate statistical analysis: a conceptual introduction. 2nd ed. New York:
Radius, 1991.
MURTERA, B. J. F. Estatística descritiva. New York: McGraw-Hill, 1993.
SAMOHYL, R. W. Controle estatístico de qualidade. São Paulo: Campus Elsevier, 2009.
Shewhart, W. Economic control of quality of manufactured product. Toronto: D. Van Nostrand
Company, 1931.
BRUNI, A. L. Estatística aplicada à gestão empresarial. São Paulo: Atlas, 2010.
CARPINETTI, L. C. R. Gestão da qualidade: conceitos e técnicas. 2. ed. São Paulo: Atlas, 2012.
CRESPO, A. Estatística fácil. 19. ed. São Paulo: Saraiva, 2009.
HARRY, M. J. Six Sigma: a breakthrough strategy for profitability. Quality Progress, v. 31, n. 5, p.
60-64, maio 1998.
PANDE, Peter S.; NEUMAN, Robert P.; CAVANAGH, Roland R. Estratégia Seis Sigma: como a GE, a
Motorola e outras grandes empresas estão aguçando seu desempenho. Rio de Janeiro:
Bibliografia Clássica
Bibliografia Geral
Qualitymark, 2001.
PEREZ-WILSON, Mario. Seis Sigma: compreendendo o conceito, as implicações e os desafios.
Tradução de Bazán Tecnologia e Linguística. Rio de Janeiro: Qualitymark, 1999.
SILVA, E. M. Estatística para cursos de economia, administração e ciências contábeis. 4. ed. São
Paulo: Atlas, 2010.
TIBONI, C. G. R. Estatística básica: para os cursos de administração, ciências contábeis,
tecnológicos e de gestão. São Paulo: Atlas, 2010.a guerra, foi a vez do
Japão adotar o controle estatístico da qualidade, seguindo parte dos padrões ocidentais.
A partir de 1954, com os seminários do engenheiro americano J. M. Duran, os japoneses
começaram a perceber que o controle da qualidade dependia muito de fatores humanos e
culturais. A partir dessa percepção, foi desenvolvido um método japonês para o controle da
qualidade, que deu origem ao controle da qualidade total no estilo japonês, envolvendo a
participação de todos os setores e funcionários da empresa e que muito contribuiu para que o
Japão passasse a fabricar produtos da mais alta qualidade.
Recentemente, vários países perceberam as vantagens do controle da qualidade e um grande
número de empresas em todo o mundo vêm utilizando os métodos do controle da qualidade,
com as adaptações necessárias às suas situações específicas.
As ferramentas do CEP apresentadas neste texto estão inseridas também nas quatro fases. É
importante enfatizar que a busca por qualidade não termina nunca e, consequentemente, as
quatro fases nunca terminam, na realidade, mas sim continuam como um ciclo permanente.
Conceitos iniciais
A ideia principal do CEP é a de que melhores processos de produção com menos variabilidade
propiciam níveis melhores de qualidade nos resultados da produção. Quando se fala em
melhores processos, isso significa não somente qualidade melhor, mas também custos
menores. Os custos diminuem principalmente em função de duas razões: a inspeção por
amostragem e a redução dos rejeitos.
As informações sobre o desempenho de um processo são obtidas a partir do estudo cruzado dos
itens a seguir:
a. qualidade das características do produto final
b. qualidade das características intermediárias
c. ajuste dos parâmetros do processo.
As informações sobre o processo são úteis na medida em que alavancam ações de melhoria. Se
não se pretende agir sobre o processo, coletar informações é inútil e dispendioso.
A coleta de dados e as ações ao longo do processo são orientadas para o futuro, pois permitem
detectar o defeito assim que ele é gerado, possibilitando a atuação sobre o processo no
momento e local adequados. Essas ações podem envolver controle sobre as matérias-primas,
ajustes nos parâmetros do processo, manutenção periódica, treinamento de operadores, entre
outras. Corrigindo-se o processo, evita-se que novas peças defeituosas sejam produzidas.
As inspeções sobre o produto final são orientadas para o passado, pois elas permitem apenas
separar o produto conforme do produto não-conforme (refugo) que pode eventualmente ser
retrabalhado. As inspeções têm algumas vantagens, pois impedem que produtos defeituosos
cheguem ao cliente, mas não são uma forma eficiente de ação. Agir sobre o processo é mais
eficaz, pois impede que novas peças defeituosas sejam produzidas. Por esses motivos, a
ferramenta base para o CEP é a estatística, com ênfase na descritiva.
Um dos pilares dos estudos que envolvem os conceitos da estatística é a amostragem.
Populações (na fábrica, o engenheiro utiliza a palavra “lotes”) são em geral grandes demais para
análises muito detalhadas ou por cada item. Em muitos casos, a inspeção a 100% é uma regra
da fábrica, mas na realidade esse procedimento não funciona adequadamente. Imagine o
operador que possui a responsabilidade de verificar o nível de preenchimento de um lote de
garrafas de cerveja. O lote contém 50.000 unidades. Depois de inspecionar apenas cem garrafas,
é muito provável que o operador já não esteja mais pensando em níveis de preenchimento, mas
sim no próximo jogo do seu time de futebol, na próxima oportunidade de tomar uma cerveja ou
na próxima namorada. No final, inspeção a 100% tem custos elevados e resultados péssimos. A
seleção de amostras de tamanho muito menor que a população enxuga os custos e
paradoxalmente acaba representando melhor as características daquela população. A
amostragem também é necessária quando a inspeção necessita da destruição do item
amostrado (ensaio destrutivo). Nesse caso, poucos itens vão para o laboratório para sofrer a
verificação dos técnicos. No próximo capítulo serão discutidos esses conceitos para o
entendimento das ferramentas que serão utilizadas.
Uma segunda razão pela qual a aplicação de CEP impulsiona os custos para baixo é que o
número e percentagem de peças defeituosas produzidas na fábrica diminuirão com as melhorias
na linha de produção. Portanto, com menos refugo e menos retrabalho, o custo por peça
produzida vai diminuir.
Enfatiza-se que existe somente uma razão para utilizar CEP na fábrica: aumentar o resultado
financeiro da empresa, se possível no curto prazo, mas também – e talvez mais importante – ao
longo prazo. No entanto, CEP não é nenhum milagre e consequentemente deve ser abordado na
empresa como qualquer projeto de investimento nos quais os custos são contabilizados e os
benefícios previstos e medidos.
A otimização nos processos industriais para que eles sejam caracterizados por altos níveis de
eficiência não é muito comum nas fábricas. No entanto, dentro do CEP existem ferramentas para
monitorar o processo e, portanto, melhorá-lo. O monitoramento tem como requisitos a
amostragem feita periodicamente e o tamanho da amostra adequado. Esse assunto será
abordado no capítulo que contém os denominados gráficos de controle.
A ideia de controlar um processo é totalmente diferente da ideia de inspecionar peças para
identificar as que são consideradas “não conformes”, embora os dois procedimentos em parte
utilizem as mesmas ferramentas estatísticas. A inspeção de peças individuais tem como
objetivo a eliminação de peças de baixa qualidade que não alcançam as expectativas do
consumidor e não devem ser colocadas no mercado. Com uma constante inspeção do produto
ao longo da linha de produção, a empresa pode identificar o produto que precisa ser melhorado
ou até mesmo ter rejeição total. Nesse caso, a fábrica gastará desnecessariamente para corrigir
erros que não aconteceriam com tanta frequência em uma fábrica melhor organizada. No caso
de uma fábrica considerada melhor, é feita a coisa certa desde a primeira vez e, se a fábrica for
realmente eficiente, não se exigirá inspeção a todo instante porque há confiança de que o
produto já está saindo dentro das especificações. Na indústria, é muito comum que a fabricação
de peças não conformes ocorra porque os processos da empresa são instáveis (irregulares) a
ponto de gerar um produto fora das especificações. Em outras palavras, a fábrica não está
controlando o processo para melhorar constantemente a qualidade do produto.
As causas são divididas em três grupos básicos:
Para estabilizar os processos da empresa, utilizam-se as ferramentas do CEP, exigindo apenas
pequenas amostras, sempre muito menores do que os lotes. As investigações do gerente se
voltarão a grandes causas das irregularidades na linha de produção. Cada vez que uma nova
causa é identificada e documentada para análise, portanto eliminada, o processo de produção é
estabilizado e a qualidade garantida e/ou melhorada.
Causas especiais
São causas que não são pequenas e não seguem um padrão aleatório (erros de set up,
problemas nos equipamentos ou nas ferramentas, um lote de matéria prima com características
muito diferentes etc.), por isso também são chamadas de causas assinaláveis. São
consideradas falhas de operação. Elas fazem com que o processo saia fora de seu padrão
natural de operação, ou seja, provocam alterações na forma, tendência central ou variabilidade
das características de qualidade. Elas reduzem significativamente o desempenho do processo e
devem ser identificadas e neutralizadas, pois sua correção se justifica economicamente.
As causas especiais geralmente são corrigidas por ação local e, por isso, são de
responsabilidade dos operadores, apesar de algumas vezes a gerência estar em melhor posição
para resolver o problema.
Uma causa especial é assinalável e, em geral, única. No entanto, é suficientementegrande para
produzir perturbações fortes no processo. É um evento que ocorre uma vez ou ocasionalmente e
é imprevisível. Essas causas têm que ser eliminadas ou, se por alguma razão não são
elimináveis, então sua influência pode ser reduzida por ações consideradas compensatórias.
Exemplos de causas especiais são trovoada e relâmpago, o vento de uma janela deixada aberta,
um funcionário intoxicado, um treinamento onde faltou um ensinamento importante, uma
substância estranha na matéria-prima, um atraso na chegada dos funcionários porque o ônibus
quebrou, entre outros.
Causas estruturais
Como a causa especial, a estrutural é também eliminável ou compensável, mas a diferença é que
esta ocorre periodicamente. Quando o período entre ocorrências é relativamente grande, a causa
estrutural se confunde com uma causa especial, mas, se o gerente for atento, ele vai acabar
percebendo sua natureza repetitiva. Para entender melhor o conceito, um exemplo simples é
apresentado em seguida. Um gerente já entendeu que a produtividade da fábrica é sofrível em
algumas segundas-feiras. Então ele mandou avisar que a ocorrência de preguiça na fábrica não
seria mais tolerada. Infelizmente, o tal evento preguiça continuou até mesmo após várias
advertências. O gerente notou que a sua própria produtividade nesses dias também foi muito
baixa.
Às vezes, é necessário procurar causas estruturais: o problema, nesse caso, é que se tratavam
das segundas-feiras que caem depois do grande clássico de domingo na capital. Em termos de
produtividade, esse tipo de segunda-feira é intrinsecamente um dia diferente de todos os outros,
independentemente de quem ganha ou quem perde o jogo. Resultado: hoje em dia há um
consenso na fábrica de que, embora o atraso não seja tolerado, segunda-feira de manhã depois
do clássico é um período na fábrica que exige uma gerência diferenciada, com mais café, sucos
de vários tipos e dois ou três períodos curtos de exercícios e alongamento. A causa estrutural
assim não é eliminada porque a tradição do futebol no Brasil dificilmente desaparecerá, mas é
compensada por normas de gerenciamento mais sensatas.
Causas comuns
As causas comuns são as diversas fontes de variação que atuam de forma aleatória no
processo, gerando uma variabilidade inerente do processo. Essa variabilidade representa o
padrão natural do processo, pois é resultante do efeito cumulativo de pequenas fontes de
variabilidade que acontecem diariamente, mesmo quando o processo está trabalhando sob
condições normais de operação.
Essas causas são relativamente pequenas, mas ocorrem quase sempre e em grande número. É o
acúmulo dessas causas em um certo período de tempo que gera a existência da variável
aleatória. Por que, em uma simples jogada de uma moeda homogênea (considerada justa em
ambas as faces), pode por vezes cair cara e em outras vezes coroa? Muitos fatores podem afetar
a jogada de uma moeda, e cada um deles é tão pequeno, que uma análise científica desse
resultado é praticamente impossível.
As ferramentas de CEP em geral não são apropriadas na análise e eliminação de causas
comuns. Embora as causas comuns possam ser reduzidas, elas sempre vão existir, enquanto
que a natureza, na sua totalidade, possui uma diversidade muito grande e em boa parte
incompreensível pelo ser humano. A redução dessas causas vem apenas com muito sacrifício
em tempo e recursos. Para diminuir irregularidades das causas comuns, é necessário investir em
novas e melhores máquinas, melhor matéria-prima, treinamento intensivo, um ambiente de
trabalho mais confortável, entre outros. Neste caso, qualidade e custo andam juntos. Assim, é
fácil entender por que o carro popular custa barato e o carro de famosos jogadores de futebol
custa cem vezes mais. Exemplos de causas comuns são: uma fábrica no sertão do Ceará sem
ar-condicionado, matéria-prima de baixa qualidade mas de baixo preço, gerente de produção
sem nenhum estudo na área de produção, maquinaria velha, combinação errada de ingredientes
em um processo químico etc.
Com esses conceitos básicos do CEP, serão introduzidas algumas ferramentas simples para
melhorar a qualidade, encontradas em utilização generalizada na manufatura e em algumas
instâncias da administração.
Videoaula - Conceitos Iniciais
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629151595".
A estatística descritiva2
Quando o gerente de produção mede e analisa uma característica da linha de produção, uma
característica física do produto ou uma medida do desempenho do processo, possui em mente a
melhoria do processo. Ele vê uma combinação dos insumos do processo, a atuação dos
operadores com a combinação dos insumos e as atividades das máquinas e, finalmente, o
produto final. A visão do gerente é de aspectos concretos da sua linha de produção e em termos
sistêmicos. O estatístico, por outro lado, verá esse mesmo processo como algo mais abstrato,
como um gerador de números. Esse profissional notará se os números gerados são centrados e
simétricos ao redor de uma tendência central, se existem ou não alguns dados muito
discrepantes dos outros ou se há algum tipo de relação entre variáveis diferentes.
É fácil observarmos que o gerente, sem a ajuda do estatístico, não captará todas as informações
disponíveis nos dados, e o estatístico sozinho não saberá onde deve concentrar seus esforços
para melhorar o processo. Portanto, o gerente de produção e o estatístico têm muito a ganhar
trabalhando em conjunto.
No início do estudo de uma ciência ou na estruturação de um curso costuma-se definir ou tentar
definir o que é essencial para o completo entendimento das disciplinas mais específicas e
direcionadas, como é o caso da estatística e sua disciplina “controle estatístico do processo de
qualidade”.
Assim, para Kachigan, a estatística é a ciência que consiste na “recolha, organização e
interpretação de dados de acordo com procedimentos bem definidos”. Outro importante autor da
área, Murtera, também discutiu algumas ideias no mesmo sentido: “A estatística é um repositório
de instrumentos adequados para recolher, explorar, descrever e interpretar conjuntos de dados.
A análise de qualquer uma destas duas definições revela que, na base da estatística, está um
conjunto de dados numéricos. A estatística é então constituída pelos métodos que são utilizados
para recolhê-los, organizá-los, descrevê-los e interpretá-los, além de auxiliar para uma tomada
de decisão.
Para uma melhor compreensão da natureza dessa disciplina, mas também o que se entende por
dados, os próximos capítulos se referirão às principais fases para a compreensão do processo
da análise estatística.
O que é estatística?2.1
A estatística descritiva reúne um conjunto de técnicas para sumarizar os dados (tabelas e
gráficos) e medidas descritivas que permitem tirar inúmeras informações contidas nos dados
numéricos que foram coletados. Já a estatística indutiva (ou estatística inferencial) produz
informações sobre uma dada característica da população de interesse a partir de dados colhidos
de uma parte dessa população. Em ambos os casos, a finalidade da pesquisa é coletar dados
para obter informações que podem ser de extrema valia para a tomada de uma decisão.
É importante saber que os dados numéricos utilizados na estatística são decorrentes de uma
pesquisa ou observações de uma ou mais variáveis. Por sua vez, variável é tudo aquilo que se
deseja pesquisar ou observar para se tirar algum tipo de conclusão (idade, sexo, peso, salário,
quantidade de defeitos, entre outras). Os dados usualmente provêm de uma amostra, a qual
representa uma população de interesse. O conceito de população pode ser definido como o
conjunto de indivíduos (ou objetos) que apresentam pelo menos uma característica em comum,
cujo comportamento deseja-se analisar ou inferir. Para entender o que significa amostra, basta
saber que é uma parte da população, ou seja, umsubconjunto.
Mas qual é o papel da estatística na ciência ou para a empresa?
O principal propósito da investigação é responder a uma questão científica ou de interesse da
empresa. Na ciência, são realizados estudos experimentais ou observacionais, levando à coleta
de dados numéricos. O padrão de variação entre os dados faz com que a resposta não seja
óbvia, tornando o conhecimento da estatística essencial para a validação do resultado.
Existem basicamente dois tipos diferentes de pesquisa e seus conceitos podem ser estendidos
para diversas aplicações. A primeira é conhecida como pesquisa de levantamento,
correspondente à observação ou medição da característica de interesse de uma população, mas
sem a manipulação dos dados coletados. A segunda é conhecida como pesquisa experimental,
que corresponde ao tipo de pesquisa em que as características de grupos de indivíduos (por
exemplo, animais ou objetos são levantadas e depois manipuladas para se avaliar o efeito de
diferentes tratamentos dos dados coletados.
De qualquer forma, uma pesquisa deve conter as fases:
1. definição do problema
2. planejamento
3. coleta dos dados
4. apuração
5. apresentação
Estatística descritiva e indutiva2.2
6. análise e interpretação
Os processos estatísticos de abordagem avaliam de uma forma direta ou indireta um parâmetro
em análise de uma determinada população. Em estatística, o parâmetro pode ser entendido
como uma grandeza mensurável que permite apresentar, de forma mais simples, as
características principais de um conjunto de dados. O censo é um processo estatístico de
abordagem que avalia diretamente um parâmetro, utilizando todos os componentes da
população, e a estimação é um processo estatístico de abordagem que avalia indiretamente um
parâmetro com base em um estimador, envolvendo probabilidades.
O Quadro 1 compara sucintamente as principais vantagens e desvantagens entre a aplicação do
censo e da estimação.
Quadro 1 - Comparação entre censo e estimação
Censo Estimação
Admite erro processual zero e possui
confiabilidade de 100%.
Admite erro processual positivo e possui confiabilidade
menor que 100%.
É mais caro. É mais barato.
É demorado (mais lento para obter). É rápido.
É quase sempre desatualizado. É atualizado.
Nem sempre é viável economicamente. É viável economicamente.
Fonte: adaptado de Silva (2010).
Uma pesquisa de coleta de dados normalmente retorna números desorganizados conhecidos
como dados brutos. A primeira atitude de qualquer profissional que trabalhe com estatística será
a de organizar esses dados na forma crescente ou decrescente, o que é conhecido como rol, para
facilitar a aplicação das ferramentas estatísticas.
Videoaula - Organização de Dados Numéricos e Distribuição de
Frequências
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629153344".
Organização dos dados numéricos3
Após os conceitos iniciais e essenciais para um melhor entendimento das partes seguintes,
vamos organizar os dados numéricos na forma de tabelas, com o objetivo de facilitar os cálculos
posteriores e interpretar os valores de uma maneira simples e objetiva. Na estatística descritiva,
existem formas diversas de construir uma tabela de acordo com cada situação de pesquisa e
também com a experiência adquirida pelo especialista no decorrer do estudo e da prática.
Entretanto, para não estendermos muito o assunto, trataremos de duas das mais importantes
tabelas: a variável discreta e a variável contínua. Caso necessite de informações mais
específicas sobre a organização de dados numéricos na forma de tabelas, consulte as
referências que tratam de estatística no final da apostila.
A variável discreta é uma série estatística que contém dados ou conjunto de dados na forma de
uma simples tabela prática e organizada.
Conceitualmente, é uma representação tabular de um conjunto de valores em que colocamos na
primeira coluna, em ordem crescente, apenas os valoresdistintos (diferentes) da série e, na
segunda coluna, os valores das frequências simples correspondentes (Tabela 1). É importante
entender que a frequência simples é o número de vezes em que um dado aparece no conjunto de
dados, ou seja, o número de vezes que se repetiu após a realização da pesquisa.
Exemplo 1 - Uma pesquisa retornou os seguintes dados numéricos:
Após a organização dos valores acima na forma da variável discreta, temos:
Tabela 1 - Representação tabular contendo os valores distintos com as frequências simples
Valores distintos (x ) Frequência simples (f )
2 1
3 4
3,5 6
4 5
Variável discreta3.1
i i
Valores distintos (x ) Frequência simples (f )
4,5 5
5 3
Fonte: elaborada pelo autor (2021).
É importante informar que o exemplo acima não possui uma aplicação (exemplo meramente
conceitual) e foi apresentado com o intuito de compreender a simples montagem da tabela – os
significados das colunas “valores distintos” (representado por xi) e “frequência simples”
(representada por �i). Dependendo da pesquisa, se torna dispendioso e inviável construir a
variável discreta, em decorrência da mesma começar a possuir uma quantidade de linhas que
dificulta cálculos posteriores e que é cansativa na interpretação dos valores contidos na tabela.
Não existe uma regra rígida para a construção deste tipo de tabela, mas cabe ao especialista ou
estudioso no assunto definir com a experiência se será ou não de extrema valia e praticidade. De
maneira geral, a variável discreta é utilizada quando o número de elementos distintos da série
(denominação dos especialistas para uma sequência de números após a realização da pesquisa)
for relativamente pequeno, se comparado com o número de repetições (frequência simples) de
cada.
Se, após a realização da pesquisa, o número de elementos distintos da série for relativamente
maior do que o número de repetições de cada um deles, entende-se que a construção da variável
discreta resultará em uma tabela longa e de difícil interpretação. Principalmente por esse motivo,
existe uma tabela alternativa conhecida como variável contínua. Essa tabela simplifica a anterior
na maioria das aplicações, facilitando a interpretação de determinadas medidas e a tomada de
alguma decisão.
i i
A variável contínua também é uma série estatística que contém dados ou conjunto de dados na
forma de uma tabela organizada. Entretanto, é uma representação tabular de um conjunto de
valores em que colocamos na primeira coluna, em ordem crescente, os intervalos de classes da
série e, na segunda coluna, os valores das frequências simples correspondentes aos números
presentes nos respectivos intervalos de classes (Tabela 2).
Exemplo 2 - Uma pesquisa retornou os seguintes dados numéricos:
Variável contínua3.2
Após a organização dos valores acima na forma da variável contínua, temos:
Tabela 2 - Representação tabular contendo intervalos de valores com as frequências simples
Classe Intervalo de classe Frequência simples (f )
1 2 ├ 5 10
2 5 ├ 8 5
3 8 ├ 11 6
4 11 ├ 14 6
5 14 ├ 17 5
6 17 ├ 20 4
Fonte: elaborada pelo autor (2021).
A diferença desse tipo de tabela, quando comparada com a variável discreta, está na coluna
denominada intervalo de classe, que significa faixa de valores numéricos. Como o exemplo
anterior, este também não possui uma aplicação e foi apresentado com o intuito de compreender
o significado da tabela. Para esse caso, existe uma teoria para a sua construção, de forma a
adequar os dados numéricos e distribuí-los homogeneamente (distribuir os números em partes
iguais por toda a tabela) em cada linha (na variável contínua, cada linha é chamada de classe) da
tabela. Uma teoria para a construção da variável contínua é apresentada a seguir, mas, para
informações mais específicas, consulte as obras de Bruni.
A elaboração de tabelas para dados que apresentam grande quantidade de números distintos e,
consequentemente, grande dispersão entre eles pouco pode ajudar nos cálculos envolvendo osdados, principalmente na interpretação dos mesmos. Por isso, para entender a construção da
tabela apresentada acima, vamos trabalhar com um exemplo envolvendo uma pesquisa realizada
para levantar a variável renda de 25 funcionários (Tabela 3).
Tabela 3 - Pesquisa da renda na forma tabular da variável discreta
Renda (em $) Número de funcionários
910,00 2
920,00 1
i
Renda (em $) Número de funcionários
930,00 1
940,00 2
950,00 2
960,00 1
1.010,00 1
1.040,00 1
1.090,00 1
1.120,00 1
1.615,00 1
1.640,00 1
1.690,00 1
1.890,00 1
1.940,00 1
1.955,00 1
1.980,00 1
2.030,00 1
2.045,00 1
2.155,00 1
2.175,00 1
2.235.00 1
  Soma (Σ) = 25
Fonte: adaptado de Bruni (2010).
Analisando a tabela acima, percebe-se que os 25 casos originais foram agrupados em 22
categorias (linhas) de renda. A análise resultante da tabela prova que não adiantou muita coisa
construir a tabela na forma de uma variável contínua para organizar os dados numéricos, com o
objetivo de construir uma tabela mais curta para facilitar os cálculos e tornar a interpretação
mais simples. A redução de um total de 25 casos para 22 categorias é, de fato, muito pequena.
Quando variáveis quantitativas com alta dispersão e marcadas pela presença de muitos valores
diferentes são analisadas, um resultado mais adequado pode ser obtido por meio do
agrupamento dos dados numéricos em classes, isto é, agrupando os números em faixas de
valores, ao invés de apenas um valor diferente em cada linha da tabela.
Alguns textos e autores mais conservadores da estatística ainda sugerem procedimentos
formais para a construção de classes ou também chamadas de classes de frequências. Nesse
sentido, a determinação do número de classes, representado pela letra K, depende
fundamentalmente do número de elementos pesquisados e/ou estudados (ou número total de
elementos da série), representado pela letra n.
No geral, os procedimentos formais envolvem os seguintes conceitos:
1. Se n ≤ 25, devem ser criadas cinco classes na tabela;
2. Se n > 25, o número mais adequado de classes pode ser obtido mediante dois procedimentos distintos: K =
√n ou K = 1 + 3,32log (n).
3. A primeira fórmula é conhecida como método da raiz quadrada e a última é chamada de fórmula de Sturges.
Normalmente, as fórmulas anteriores resultam em números não inteiros (decimais), mas grande
parte dos especialistas indica o seguinte procedimento:
a. Se K for um número inteiro, será o número de classes (linhas) que a tabela conterá.
b. Se K for a metade de dois números inteiros (por exemplo: a metade entre 3 e 4 é 3,5), o número de classes
será um desses números inteiros.
c. Se K for um número decimal diferente da metade de dois números inteiros, o número de classes será
definido entre três aproximações resultando em números inteiros. A primeira aproximação será o número
inteiro mais próximo do decimal obtido. A segunda será o número inteiro anterior ao inteiro mais próximo
do decimal obtido. A terceira será o número inteiro posterior ao inteiro mais próximo do decimal obtido.
Exemplo 3 - Se n = 40, K = √n = √40 = 6,32 (com duas casas decimais).
De acordo com o item (c) da página anterior, as três aproximações resultando em números
inteiros são 5, 6 ou 7. Se aplicarmos a fórmula de Sturges, temos K = 1 + 3,32log(40) = 6,1586 =
6,16 com as mesmas aproximações: 5, 6 ou 7.
Com um número de classe definido ou entre duas ou três aproximações obtidas, pode-se
calcular a amplitude total da série (At). Essa amplitude é a diferença existente entre o maior
(X ) e o menor (X ) número da série, ou seja, At	=	X 	−	X . Para o nosso
exemplo, o cálculo resulta: A = 2235 − 910 = 1325.
O processo de construção de classes demanda o estabelecimento de convenções que
representam os limites de cada uma das classes construídas. Assim, por exemplo, se no
agrupamento em classes das idades o especialista resolve construir uma classe que
compreenda as idades entre 10 e 14 anos, ele precisará estabelecer se os limites inferiores
máximo mínimo máximo mínimo
t
(número antes do intervalo) e superiores (número depois do intervalo) serão do tipo inclusive ou
exclusive. Os limites do tipo inclusive, como o próprio nome revela, incluem o valor representado.
Os limites exclusive não incluem o valor representado.
Uma das convenções mais empregadas na representação dos limites de intervalos de classes
envolve a colocação de barras verticais (simbolizadas por “│”) juntamente a barras horizontais
(simbolizadas por “―”). A barra horizontal representa o intervalo entre os limites inferior e
posterior, enquanto a barra vertical ao lado do número indica se tratar de um limite do tipo
inclusive. A ausência da barra caracteriza limites do tipo exclusive.
A Tabela 4 contém as principais representações.
Tabela 4 - As quatro principais formas de representação dos intervalos de classes
Representação Interpretação intuitiva
2 ├ 5 A barra vertical está presente apenas no limite inferior. Desse modo, o elemento 2 faz
parte do intervalo de valores (classe), e o elemento 5 não será incluído nesta classe, pois
é do tipo exclusive.
2 ┤ 5 A barra vertical está presente apenas no limite superior. Desse modo, o elemento 5 faz
parte da classe, e o elemento 2 não será incluído nesta classe.
2 ― 5 A ausência da barra em ambos os limites os caracteriza como do tipo exclusive. Os dois
elementos não serão incluídos nesta classe.
2 ├┤ 5 A presença de barras verticais em ambos os limites indica que são do tipo inclusive. Os
dois elementos serão incluídos nesta classe.
Fonte: adaptado de Bruni (2010).
Para direcionarmos o estudo e não nos estendermos nos conceitos mais específicos sobre a
construção da variável contínua, será adotada a representação da classe com o limite inferior do
tipo inclusive e o limite superior do tipo exclusive, ou seja, 2├ 5. Podemos interpretar que esse
intervalo de classe contempla todos os elementos iguais e maiores que dois e menores que
cinco.
É importante considerar que, na última classe da tabela, quando se adota o limite superior como
do tipo exclusive, não se pode excluir o maior elemento da série na contagem das frequências e
na interpretação dos resultados, pois o mesmo faz parte da pesquisa. Neste caso, realizaremos
um ajuste na fórmula da amplitude total.
Para o nosso exemplo, o cálculo resultou em: A = 2235 − 910 = 1325. Uma maneira prática e
simples de não desconsiderar o maior elemento da série na estatística é acrescentar uma
t
unidade no maior elemento, ou seja, ajustar a fórmula da amplitude total para . Dessa forma, se
o 2.236 fechar o último intervalo de classe, não será descartado o 2.235.
Após a definição do número de classes e da amplitude total da série, podemos definir a
amplitude de cada intervalo de classe (h) dividindo simplesmente a amplitude total por cada um
dos números de classes definidos anteriormente, através da seguinte fórmula:
Como temos três possíveis números de classes (K = 5, 6 ou 7), precisaremos dividir a amplitude
total por cada um dos três valores de K. A divisão que resultar em um valor inteiro é adotada por
padrão, pois amplitudes com valores inteiros são mais fáceis de serem construídas e
interpretadas, além de facilitar cálculos posteriores. Se duas das três divisões resultarem em
números inteiros, pode-se adotar o caminho que se considerar mais adequado. Entretanto, se
nenhuma divisão resultar em um número inteiro, considere os seguintes ajustes:
1. Na fórmula da amplitude total, como o valor do maior elemento da série foi ajustado uma unidade para
cima, ajuste o menor elemento da série uma unidade para baixo. Esse procedimento é usado, pois o menor
elemento da série começa na primeira classe e do lado do símbolo com a barra vertical, ou seja, é do tipo
inclusive. Não se pode ajustar o menor elemento uma unidade acima, pois o mesmo seria desconsiderado
da estatística.
2. Se não for suficiente para obter um h igual a um número inteiro, ajuste novamente o maior elemento da
série uma unidade paracima.
3. Se novamente não for suficiente, diminua outra unidade do menor elemento da série.
4. Repita o ciclo até que se consiga dividir a nova amplitude total pelos valores de K e resultar em um
número inteiro.
No exemplo, aplicando a fórmula da amplitude de cada intervalo de classe, temos:
1. Para 
2. Para 
3. Para 
A divisão de 1.326 por 6 resultou em um número inteiro igual a 221. Com isso, temos todas as
informações necessárias para a construção da variável contínua do exemplo discutido. Após os
conceitos apresentados e cálculos realizados, temos a Tabela 5:
Tabela 5 - Pesquisa da renda na forma tabular da variável contínua
Classe Renda (em $) Número de funcionários
K	=	6 1 910 ├ 1.131 13
X = 2 1.131 ├ 1.352 0
X = 3 1.352 ├ 1.573 0
h = 221 4 1.573 ├ 1.794 3
A = 1326 5 1.794 ├ 2.015 4
6 2.015 ├ 2.236 5
Fonte: adaptado de Bruni (2010).
mínimo
máximo
t
Distribuição de frequências4
Uma vez que o interessado tenha colocado os dados na forma de uma variável discreta ou
contínua (na forma de tabelas), ele poderá rapidamente obter algumas informações adicionais e
úteis para a compreensão da série se considerar os seguintes conceitos:
A frequência relativa (f ) de um elemento da série é a divisão da frequência simples (f ) deste
elemento pelo número total de elementos da série (n) (SILVA, 2010; CRESPO, 2009). Para
converter o valor em percentual, basta multiplicar o resultado da divisão anterior por 100:
Exemplo 4 - Considere a seguinte variável discreta:
x f
2 3
3 7
4 8
6 6
7 1
O total de elementos desta série é 25. Portanto, a frequência relativa do primeiro elemento
distinto da série, que é 2, vale:
No caso anterior, a numeração que acompanha as siglas de frequência relativa e frequência
simples representa o cálculo para o elemento que ocupa a primeira linha da tabela.
Da mesma forma, determinamos a frequência relativa dos demais elementos da tabela:
Frequência relativa4.1
ri i
i i
Note que esses valores representam a participação percentual de cada elemento distinto na
série. Assim, podemos escrever e compreender as seguintes interpretações:
1º linha: 12% dos valores da série são iguais a 2.
2º linha: 28% dos valores da série são iguais a 3.
3º linha: 32% dos valores da série são iguais a 4.
4º linha: 24% dos valores da série são iguais a 6.
5º linha: 4% dos valores da série são iguais a 7.
O conceito apresentado se torna mais fácil quando construímos uma coluna adicional na tabela
para calcular e interpretar a frequência relativa de cada elemento da série:
X f f (%)
2 3 12
3 7 28
4 8 32
6 6 24
7 1 4
Como a frequência relativa representa a participação percentual de cada elemento distinto da
série, a soma de todas as frequências relativas representa a participação percentual da série
toda, ou seja, é igual a 100%. Portanto, ∑f = 100% .
A frequência simples e a frequência relativa representam, respectivamente, a quantidade de
vezes e o percentual de cada elemento distinto. Entretanto, em determinadas situações,
precisaremos saber a quantidade de vezes e o percentual não somente para um único elemento,
mas também para dois ou mais ao mesmo tempo.
i i ri
ri
A frequência acumulada (F ou F ) de cada elemento da série é a soma da frequência simples
desse elemento com as frequências simples dos elementos anteriores (SILVA, 2010; CRESPO,
2009):
F = f + f + f + ... + f
Desta forma, a frequência acumulada para cada um dos elementos 3, 4, 6 e 7 é:
F = f + f = 3 + 7 = 10
F = f + f + f = 3 + 7 + 8 = 18
F = f + f + f + f = 3 + 7 + 8 + 6 = 24
F = f + f + f + f + f = 3 + 7 + 8 + 6 + 1 = 25
Esses valores podem ser interpretados da seguinte forma:
1º linha: 3 elementos componentes da série são valores menores ou iguais a 2.
2º linha: 10 elementos componentes da série são valores menores ou iguais a 3.
3º linha: 18 elementos componentes da série são valores menores ou iguais a 4.
4º linha: 24 elementos componentes da série são valores menores ou iguais a 6.
5º linha: 25 elementos componentes da série são valores menores ou iguais a 7.
O procedimento, assim como o anterior, torna-se mais simples quando construímos uma coluna
adicional na tabela para calcular e interpretar a frequência acumulada.
x f f (%) F
2 3 12 3
3 7 28 10
4 8 32 18
6 6 24 24
7 1 4 25
A principal finalidade de utilizar a frequência acumulada nas tabelas que contêm a frequência
simples não é somente saber a quantidade de vezes que um elemento se repete, mas também
conhecer a quantidade de elementos iguais ou menores que o elemento de referência.
Frequência acumulada4.2
i A
i 1 2 3 i
2 1 2
3 1 2 3
4 1 2 3 4
5 1 2 3 4 5
i i ri i
A frequência acumulada relativa (F ) de cada elemento da série, também conhecida como
frequência relativa acumulada, é a divisão da frequência acumulada deste elemento pelo número
total de elementos da série (SILVA, 2010; CRESPO, 2009):
Assim, as frequências acumuladas relativas dos elementos 3, 4, 6 e 7 são:
Esses valores podem ser interpretados da seguinte forma:
1º linha: 12% dos valores da série são menores ou iguais a 2.
2º linha: 40% dos valores da série são menores ou iguais a 3.
3º linha: 72% dos valores da série são menores ou iguais a 4.
4º linha: 96% dos valores da série são menores ou iguais a 6.
5º linha: 100% dos valores da série são menores ou iguais a 7.
O conceito se torna mais fácil quando construímos uma coluna adicional na tabela para calcular
e interpretar a frequência acumulada de cada elemento da série.
x f f (%) F F (%)
2 3 12 3 12
3 7 28 10 40
Frequência acumulada relativa4.3
Ri
i i ri i Ri
x f f (%) F F (%)
4 8 32 18 72
6 6 24 24 96
7 1 4 25 100
Quando acrescentamos todos os valores de frequências à tabela original, a mesma passa a se
chamar distribuição de frequências. O procedimento acima foi aplicado na variável discreta, mas
é aplicado da mesma forma na variável contínua. No caso da variável contínua, pelo fato de se
utilizar intervalos de classe, as interpretações são diferentes.
Exemplo 5 - Considere a seguinte variável contínua:
Classe Intervalo de classe f
1 2 ├ 4 6
2 4 ├ 6 18
3 6 ├ 8 10
4 8   ├   10 6
n = Σf = 4
Em primeiro lugar, calcule o número total de elementos da série (n). Para calcular, some a coluna
que contém as frequências simples. Aplicando os conceitos da distribuição de frequências da
mesma forma apresentada para a variável discreta, temos:
Classe Intervalo de classe f f (%) F F (%)
1 2 ├ 4 6 15 6 15
2 4 ├ 6 18 45 24 60
3 6 ├ 8 10 25 34 85
4 8 ├ 10 6 15 40 100
n = 40 100
Observe na tabela acima que os valores das frequências relativas (f ) representam o percentual
dos elementos por classe. Desse modo, podemos fazer a seguinte interpretação:
1º classe: 15% dos valores da série são maiores ou iguais a 2 e menores que 4.
2º classe: 45% dos valores da série são maiores ou iguais a 4 e menores que 6.
3º classe: 25% dos valores da série são maiores ou iguais a 6 e menores que 8.
4º classe: 15% dos valores da série são maiores ou iguais a 8 e menores que 10.
i i ri i Ri
i
i
i ri i Ri
ri
Com relação à frequência acumulada (F ), podemos interpretar da seguinte forma:
1º classe: 6 elementos da série são valores menores que 4.
2º classe: 24 elementos da série são valores menores que 6.
3º classe: 34 elementos da série são valores menores que 8.
4º classe: 40 elementos da série são valores menores que 10.
E finalmente, com relação à frequência acumulada relativa (F ), sendo todos os elementos maiores ou
iguais a 2, podemos interpretar da seguinte forma:
1º classe: 15% dos valores da série são menores que 4.
2º classe: 60% dos valores da série são menores que 6.
3º classe: 85% dos valores da série são menores que 8.
4º classe: 100% dos valores da série são menores que 10.
i
Ri
Videoaula - Medidas de Tendência Central
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629154149".
Medidas de tendência central5
Em qualquer área de investigaçãoonde os números aparecem com frequência, os profissionais
estudam conceitos e metodologias gráficas de estatística para expressar estes números de uma
forma mais clara e resumida. Isso é um dos objetivos principais do trabalho dos gerentes e
estatísticos. Por exemplo, existem várias maneiras de medir a tendência central dos dados, e
nenhuma delas é necessariamente a melhor, pois depende de cada situação e principalmente da
característica dos dados numéricos.
O cálculo de uma medida de tendência central é importante porque consegue representar uma
série de dados em apenas um único número ou elemento.
Certamente a mais popular é a média, que os conhecedores do assunto usualmente denominam
de média aritmética (simples ou ponderada) e que representa a soma de uma série de dados
dividida pelo número total de dados que foram somados entre si.
Na Tabela 6 são informadas sessenta medidas do comprimento (em milímetros) de uma peça, a
princípio uma das características essenciais da peça. Uma tabela contendo números nem
sempre é interessante para um engenheiro ou gerente. Por outro lado, a média das medidas da
tabela pode ser calculada facilmente aplicando as fórmulas:
Após o cálculo, o especialista agora pode saber se o produto está sendo fabricado dentro da
especificação desejada, mantendo a qualidade da produção.
Tabela 6 - Medidas do comprimento (em milímetros) de uma peça
103,2345 99,0003 102,8121 101,4367 101,9899 102,9011
102,8764 99,7684 102,3494 102,4356 101,0009 101,2341
102,2340 102,2030 101,2556 102,1976 102,0012 100,8765
103,4566 102,2068 101,9989 102,4355 101 101,1212
99,8650 103,0894 99,1009 101,8768 99,6783 102,2332
100,7865 101,8990 99,9886 101,7864 98,8990 102,1498
98,1239 102,2457 100,2358 101,5555 101,5983 102,2526
101,6784 102,3476 100,1114 102 102,5445 102,3468
101,2344 103,0200 101,2113 102,4671 102,3356 100,7682
100,0046 99,9897 102,2223 102,3322 102,1215 101,5689
Fonte: adaptado de Bruni (2010).
Para essa tabela, temos uma média de 101,4993 milímetros (mm) ou 101,50 mm (com a precisão
de apenas duas casas decimais). Para o especialista, se diversas peças apresentarem
comprimentos muito diferentes do valor da média, elas não estão sendo fabricadas
rigorosamente e, consequentemente, cai a qualidade da linha de produção.
Um problema que pode ocorrer em determinadas situações é que a média perde a sua
representatividade se existirem valores muito diferentes entre os dados numéricos, pois valores
discrepantes levam a média a se afastar da tendência central dos dados. Uma maneira de
resolver o problema da distorção seria simplesmente descartando esses números. No entanto, o
estatístico não recomenda tal procedimento por causa de um certo grau de arbitrariedade.
Por exemplo, o gerente ou especialista pode sentir uma necessidade de eliminar o valor 98,1239
em decorrência de ser o menor dos números, mas por qual razão faria isso?
Para resolver a distorção de números discrepantes, utiliza-se a mediana, número que está no
meio dos números quando a quantidade de elementos da série é ímpar ou a média dos dois
números do meio quando a quantidade de elementos da série é par. Para calcular de forma
correta a mediana, os números precisam estar organizados na forma crescente ou decrescente,
ou seja, posicionados seguindo um ordenamento numérico. Em uma relação de números
ordenados do menor para o maior (ou vice-versa), existe um número que separa todos os
números em dois grupos iguais (quando n é ímpar), os números maiores que a mediana e os
números menores.
No exemplo apresentado, temos dois números, e não apenas um, que separam a série em duas
partes iguais (quando n é par). Neste caso, deve-se calcular uma média simples entre os dois
números centrais para encontrar um valor que melhor representa o centro da sequência.
Na lista dos sessenta números, como n = 60 (número par), temos os seguintes números no
centro da sequência quando a mesma está ordenada: 101,8990 e 101,9989. Para encontrar a
mediana, neste caso, basta calcular a média: (101,8990 + 101,9989)/2 = 101,9489.
E como se interpreta este valor? A mediana é o número que divide uma sequência ordenada em
duas partes iguais, ou seja: 50% dos valores da série são menores que a mediana e 50% são
maiores. Podemos concluir no exemplo utilizado que 50% dos comprimentos da peça são
inferiores a 101,9489 mm e 50% são superiores. É importante reforçar que, quando o número de
dados numéricos ou elementos da série (n) é ímpar, a mediana é exatamente o número no meio
dos números ordenados, sem a necessidade de calcular a média dos dois números posicionados
no meio da sequência.
Os especialistas argumentam que a mediana é melhor do que a média para representar a
tendência central dos números na presença de dados muito diferentes nos dois extremos da
sequência. Isso ocorre porque a mediana é insensível aos valores muito grandes ou muito
pequenos. Por exemplo: se for alterado o maior valor da sequência para de 1.695.850,0 (um
número bem maior que ele), o valor da mediana não muda, porque a mediana ainda continua
tendo metade dos dados acima e metade abaixo de seu valor.
A diferença numérica entre a mediana e a média em nosso exemplo (101,9489 – 101,4993) =
0,4496 pode ser considerada razoavelmente grande por algum engenheiro, considerando uma
variabilidade pequena dos números, e significaria que a média é realmente distorcida como
medida de tendência central, levando o engenheiro a utilizar a mediana.
Partindo da mediana, os quartis são calculados. Com a mediana, os dados foram divididos em
dois grupos, acima e abaixo da mediana. Para cada grupo encontra-se sua própria mediana, e
essa mediana secundária é denominada quartil. Obviamente, há um quartil inferior, o primeiro
quartil, e um quartil superior, o terceiro quartil. Para completar o raciocínio, chama-se a mediana
do grupo de segundo quartil. Os quartis dividem os dados em quatro grupos distintos, cada um
possuindo exatamente um quarto dos dados. No exemplo apresentado, cada um dos dois grupos
tem aproximadamente 60/4 elementos e os quartis são fáceis de se encontrar. Os quartis podem
ser utilizados também para definir a variabilidade dos dados.
Caso a série contenha um número que se repete muito mais do que os demais, pode-se calcular
a moda.  A moda é conceituada como o valor de maior frequência em um conjunto de dados
estatísticos (SILVA, 2010; CRESPO, 2009). Entretanto, em decorrência de ser uma medida
aplicada somente em casos muito específicos, esse assunto não será abordado nesta apostila.
Para consultar essas informações, verifique os livros de estatística localizados na seção de
referências.
Videoaula - Medidas de Dispersão ou Variabilidade
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629155457".
Medidas de dispersão ou variabilidade6
As medidas de dispersão, também conhecidas como medidas de variabilidade, são tão
importantes como as medidas de tendência central, e representam como os dados numéricos se
dispersam (ou se afastam) da média. Quando os números são sempre próximos à média, isso
significa que a tendência central representa bem os dados. No entanto, se alguns números
ficarem longe da média, então a média não irá representar muito bem todos os dados numéricos
da sequência.
A ideia de variabilidade é importante na área da engenharia de qualidade porque oferece uma
definição operacional para qualidade, uma definição que poderíamos medir e analisar e discutir
com os demais colegas do curso. Por exemplo, peças fabricadas e que exibem mensurações
muito espalhadas não têm qualidade, pois muitas peças acabarão rejeitadas ou retrabalhadas, o
que implica em custos maiores de fabricação e uma posição fraca em termos da competição
empresarial do mercado.
O desvio ao redor da média é definido como a diferença entre um número individual e a média de
todos os dados numéricos. Vale informar que, para o conceito de um desvio(uma distância), não
existe sentido se o valor for um número negativo.
A Tabela 7, por exemplo, contém dados numéricos referentes ao tempo gasto (expresso em
minutos) por uma empresa para solucionar problemas dos clientes desde o momento do
recebimento da queixa até a solução apresentada. A média de tempo gasto é 182,89 minutos (ou
min), um pouco mais do que três horas.
Tabela 7 - Minutos decorrentes até a solução referente à reclamação do cliente
Código da reclamação
Tempo gasto
(em minutos) Desvio da média
Módulo do desvio
(valor absoluto) Desvio ao quadrado
123 100,00 -82,89 82,89 6.871,36
872 216,01 33,11 33,11 1.096,46
478 113,42 -69,47 69,47 4.826,37
123 287,33 104,43 104,43 10.906,22
301 221,47 38,58 38,58 1.488,33
261 194,95 12,06 12,06 145,42
222 161,55 -21,35 21,35 455,70
Código da reclamação
Tempo gasto
(em minutos) Desvio da média
Módulo do desvio
(valor absoluto) Desvio ao quadrado
182 325,89 142,99 142,99 20.447,30
143 292,62 109,73 109,73 12.040,82
104 266,38 83,49 83,49 6.970,70
164 106,19 -76,70 76,70 5.882,76
158 307,56 124,66 124,66 15.541,31
169 255,49 72,59 72,59 5.269,52
179 203,39 20,50 20,50 420,24
190 148,71 -34,19 34,19 1.168,83
200 17,00 -165,89 165,89 27.520,70
211 66,78 -116,11 116,11 13.481,55
222 165,34 -17,55 17,55 308,07
232 95,20 -87,70 87,70 7.690,68
243 102,95 -79,94 79,94 6.390,97
253 427,43 244,53 244,53 59.796,28
264 186,34 3,45 3,45 11,91
275 82,04 -100,85 100,85 10.171,11
285 59,00 -123,89 123,89 15.349,64
296 36,00 -146,89 146,89 21.577,74
306 168,89 -14,00 14,00 195,97
317 207,95 25,05 25,05 627,58
328 217,94 35,05 35,05 1.228,18
338 225,79 42,90 42,90 1.840,23
349 227,19 44,30 44,30 1.962,51
Média = 182,29 0,00 75,83 8.722,82
Amplitude = 410,43   Desvio padrão = 94,99
Fonte: adaptado de Samohyl (2009).
O primeiro desvio calculado (na terceira coluna) é 100 – 182,89 = -82,89, ou seja, (X − X), que
representa o desvio de um elemento (um dado) com relação à média.
Normalmente, é comum os estatísticos colocarem na expressão do desvio a média depois do
dado numérico individual. Assim, quando a média é menor do que o dado, o desvio é positivo e
vice-versa. É muito interessante calcular a média dos desvios que representariam a variabilidade
dos dados. Como demonstrado na tabela anterior, a soma dos desvios é igual a zero, e, portanto,
a média dos desvios também é igual a zero. A questão, então, é saber como calcular a média dos
desvios de uma maneira consistente e esclarecedora. A quarta coluna da tabela contém os
mesmos desvios da terceira coluna, mas sem os sinais, representando o chamado módulo ou
valor absoluto de cada desvio. A média dos desvios nesta coluna é de 75,83 min.
i
Por razões históricas e em decorrência de algumas características matemáticas serem difíceis
de compreender, embora sejam importantes para o entendimento teórico, a média dos desvios
sem sinal não é tipicamente utilizada em estudos estatísticos (SAMOHYL, 2009). Para resolver o
problema do sinal, é preferível utilizar o quadrado dos desvios, o que acabou sendo o motivo da
elaboração da fórmula da variância, que nada mais é do que a média dos quadrados de todos os
desvios:
Onde: (δ ) é a variância, (X ) representa um elemento da série ou dado numérico, (X) é a média, (f )
é a frequência simples ou número de vezes que o respectivo dado numérico se repete e (n) é o
número total de elementos da série ou dados numéricos.
A fórmula acima é aplicada quando se trabalha com toda a população. Para os casos que já
foram mencionados no capítulo inicial da apostila e que necessitam trabalhar com uma amostra
(parte da população), a fórmula acima recebe uma adaptação:
2
i i
A variância é um valor elevado ao quadrado e, dependendo da aplicação, não possui
interpretação. Para chegar a uma medida do desvio médio, é necessário aplicar a raiz quadrada
da variância.
Esse desvio médio é conhecido como desvio padrão (δ):
δ = √δ
Para os dados da tabela anterior, o desvio padrão é de 94,99 min. Em determinadas situações, a
soma dos quadrados não é dividida pelo número de dados, mas sim por um número denominado
grau de liberdade, um conceito que será brevemente discutido adiante.
O desvio padrão é extremamente importante para o entendimento dos gráficos de controle de
uma coleção ou agrupamento de médias e leva o nome de erro padrão. É calculado dividindo o
desvio padrão pela raiz quadrada do tamanho da amostra.
Por fim, considerando o tamanho da média (182,89), a diferença entre o desvio absoluto médio
(75,83) e o desvio padrão (94,99) não é considerada muito grande (para esta aplicação de tempo
em minutos). Com isso, podemos afirmar que ambas as medidas são apropriadas para medir a
variabilidade dos dados, mas, como já foi mencionado anteriormente, o desvio padrão é
preferível.
Para o controle estatístico de processo, há mais uma maneira de calcular o desvio padrão, por
meio de uma fórmula desenvolvida pelo próprio Shewhart para facilitar os cálculos no chamado
“chão da fábrica”. Como será visto nos próximos capítulos, a utilização de amostras muito
pequenas é a principal regra para um grande conjunto de gráficos de controle. Por exemplo, o
operador pode mensurar (medindo) apenas cinco peças por hora (tamanho da amostra n = 5
elementos) de lotes muito maiores. Será então calculada a amplitude de cada amostra e depois a
média das amplitudes (R). Shewhart desenvolveu uma tabela que contém coeficientes
denominados d  para converter qualquer valor de R em um desvio padrão equivalente:
2
2
É importante notar, analisando a Tabela 8, que o valor de d aumenta com o tamanho da amostra.
Os outros coeficientes nas demais colunas da tabela são também muito importantes e serão
utilizados mais adiante. A tabela contém os coeficientes que serão utilizados para a construção
de um determinado tipo de gráfico de controle.
Tabela 8 - Coeficientes calculados para os gráficos de controle
n	= d D1	(DP) D2	(DP) D3	(R) D4	(R) A1	(X)
2 1,128 0 3,686 0 3,267 1,880
3 1,693 0 4,358 0 2,575 1,023
4 2,059 0 4,698 0 2,282 0,729
5 2,326 0 4,918 0 2,115 0,577
6 2,534 0 5,078 0 2,004 0,483
7 2,704 0,205 5,203 0,076 1,924 0,419
8 2,847 0,387 5,307 0,136 1,864 0,373
9 2,970 0,546 5,394 0,184 1,816 0,337
10 3,078 0,687 5,469 0,223 1,777 0,308
11 3,173 0,812 5,534 0,256 1,744 0,285
12 3,258 0,924 5,592 0,284 1,716 0,266
13 3,336 1,026 5,646 0,308 1,692 0,249
14 3,407 1,121 5,693 0,329 1,671 0,235
15 3,472 1,207 5,737 0,348 1,652 0,223
20 3,735 1,548 5,922 0,414 1,586 0,180
25 3,931 1,804 6,058 0,459 1,541 0,153
Fonte: adaptado de Samohyl (2009).
2
2
Por fim, outra medida de variabilidade é o desvio quartílico, que é a diferença entre o quartil
inferior e o quartil superior, já expostos no item sobre as medidas de tendência central. Na tabela
referente ao comprimento das peças (em mm), pode ser calculado o desvio quartílico da seguinte
forma: 101,8100 – 98,5717 = 3,2383. Como a mediana, o desvio quartílico possui a vantagem de
não ser afetado por valores muito discrepantes. No entanto, a sua utilização não é muito comum,
constando em alguns pacotes de softwares especializados, mas na prática é desprezado a favor
do desvio-padrão. No entanto, no famoso gráfico da caixa das medianas (box-plot, em inglês), a
sua presença é implícita.
Com relação ao exemplo sobre as reclamações dos clientes, o gerente da empresa possui pelo
menos duas medidas para analisar o desempenho frente aos clientes com queixas: a média do
tempo gasto para solucionar a reclamação e o desvio-padrão. Um procedimento prático pode ser
colocado nos manuais da empresa, onde, semanalmente, médias e desvios padrão são
calculados, as tendências analisadas e as providências tomadas, caso sejam necessárias. Por
exemplo, a média com tendência de crescimento ou o aumento do desvio padrão por meio do
tempo são sinais claros de deterioração do desempenho da empresa e devem causar
preocupação na parte da gerência Os dados individuais também devem sofreranálises
cuidadosas, especialmente os dados que se destacam longe dos demais ou aqueles muito
diferentes da maioria dos dados.
Práticas profissionais - Média e desvio padrão
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629158749".
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://www.youtube.com/watch?v=_MhT8eZDNME".
Recapitulando a Unidade 1
Nesta unidade você compreendeu sobre:
A população e amostra
Organização dos dados
Distribuição de frequências
Medidas de tendência central
Medidas de dispersão
A importância da média e do desvio padrão
Interpretação de tabelas
Videoaula - Gráficos diagrama das medianas e histograma
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629155755".
Gráficos: diagrama das medianas e
histograma
7
A melhor maneira de analisar uma série de dados não é por sua organização na forma de tabelas,
mas de gráficos. A tentativa de ver padrões e tendências em uma relação de dados escritos em
uma tabela certamente resultará em fracasso, especialmente quando o número de dados
numéricos for grande. A Figura 1 mostra o gráfico com os dados numéricos da tabela, referente
ao tempo gasto em resolver problemas dos clientes.
Entre vários outros pontos, pelo menos dois são destacados: o ponto máximo no dia 21 e o ponto
mínimo no dia 16. O que aconteceu nesses dois dias? Será que os eventos que ocorreram no dia
16 são controláveis e podem ser repetidos nos outros dias para beneficiar toda a situação? E os
eventos do dia 21, que causaram um péssimo desempenho – será que podem ser evitados no
futuro?
Um gráfico que reúne as informações da mediana e também dos quartis de uma maneira
didática e simples de entender é o diagrama (caixa) das medianas (Figura 2), que foi construído
com os valores da Tabela 7.
Figura 1 - Tempo gasto para resolver problemas dos clientes
Fonte: adaptado de Samohyl (2009).
https://objetos.institutophorte.com.br/PDF_generator/img/01.jpg
https://objetos.institutophorte.com.br/PDF_generator/img/01.jpg
As duas linhas horizontais do gráfico da Figura 2 representam os valores mínimos e máximos,
respectivamente, de toda a série. Em outras palavras, a distância entre elas é a amplitude total
dos dados numéricos (A ). O retângulo (ou caixa) no meio da figura representa os quartis inferior
e o superior, onde está agrupada a metade central dos dados. A distância entre esses valores é o
desvio quartílico. Finalmente, a linha dentro do retângulo é a mediana.
Analisando a figura, pode-se verificar que os dados numéricos estão distribuídos com assimetria,
tendo mais valores baixos do que altos. Os valores altos são menos frequentes mas merecem
uma investigação cuidadosa, pois representam um péssimo desempenho da empresa em
solucionar problemas dos clientes. Esses valores mais altos são críticos para o relacionamento
da empresa com o seu público-alvo, e a gerência deve garantir que não ocorram no futuro.
Diversas empresas constroem esse tipo de gráfico para entender importantes características
operacionais em uma base mensal ou semanal, auxiliando o monitoramento dessa característica
ao longo do tempo. É fácil ver se a característica está inserida no alvo ou evoluindo de uma
maneira satisfatória e se a variabilidade dos dados está aumentando (piorando) ou diminuindo
(melhorando).
Um gráfico que possui todas as características do diagrama das medianas, mas exibe muito
mais informações sobre a distribuição dos dados numéricos é o histograma. Para entender a
construção e interpretação desse tipo de gráfico, consideremos o seguinte exemplo: retirou-se
de um laticínio uma amostra de 150 sacos plásticos contendo leite que, por norma, deveriam ter
exatamente um litro cada.
Figura 2 - Diagrama das medianas do tempo gasto nas reclamações
Fonte: adaptado de Samohyl (2009).
t
https://objetos.institutophorte.com.br/PDF_generator/img/02.png
https://objetos.institutophorte.com.br/PDF_generator/img/02.png
A Tabela 9 contém os dados numéricos da amostra escolhida, e o histograma é um retrato dos
dados presentes nessa tabela.
Tabela 9 - Frequências de medidas em mililitros (ml) de sacos de leite
Volume de leite: contendo até (ml) Frequência simples Frequência acumulada relativa (%)
856,44 1 0,67
878,61 1 1,33
900,77 1 2,00
922,94 3 4,00
945,10 19 16,67
967,27 19 29,33
989,43 25 46,00
1.011,60 21 60,00
1.033,77 23 75,33
1.055,93 19 88,00
1.078,10 10 94,67
1.100,26 4 97,33
mais de 1.100,26 4 100
Fonte: adaptado de Samohyl (2009).
De acordo com a tabela, na primeira linha, dos 150 sacos investigados, um saco entra na classe
de volume de zero até 856,44 ml. Na próxima linha, temos a classe de sacos entre 856,45 ml até
878,61 ml, que possui novamente somente um saco plástico. A maior frequência, de 25 sacos de
leite, refere-se à classe entre 967,28 até 989,43 ml.
A última coluna da tabela contém os valores das frequências acumuladas relativas (em %) até a
última classe. Por exemplo, de todos os sacos amostrados, 16,67% possuem um volume de até
945,10 ml. É evidente que isso significa que aproximadamente 83% dos sacos plásticos contendo
leite possuem um volume maior.
As informações da Tabela 9 estão presentes no gráfico da Figura 3, mas de uma maneira mais
clara e mais fácil de interpretar:
A forma do histograma, com frequências altas no meio dos números e mais baixas para números
distantes da tendência central, é muito comum. Esse formato do gráfico é considerado à base da
distribuição normal. O histograma apresenta de uma maneira didática a tendência central dos
dados e a variabilidade. Para esse caso, é mais interessante e útil que o diagrama das medianas.
Esse tipo de gráfico é uma ótima ferramenta, sendo muito utilizado para a análise de dados
numéricos através do tempo. Por exemplo, um engenheiro trabalhando na linha de produção
utilizaria o histograma periodicamente para verificar se a medida está de acordo com o esperado
e se a dispersão dos dados não está se desviando de um controle considerado adequado. Se
ocorrer discrepâncias, as mesmas devem ser investigadas e o processo corrigido. Muitas vezes o
analista não utiliza a frequência simples (ou absoluta) no eixo vertical como foi representada na
Figura 3, mas sim a frequência percentual (relativa). Desse modo, cada coluna do histograma
representa uma percentagem da amostra ou população, se for o caso a se analisar. A soma de
todas as percentagens da frequência relativa é naturalmente 100%.
Neste conteúdo não serão discutidas as distinções entre as várias distribuições de
probabilidade, pois esse assunto é tratado em trabalhos mais avançados e para cursos mais
específicos, mas são tratados nos livros comentados na introdução e disponíveis na seção de
referências. É suficiente dizer que a análise das distribuições de probabilidade é extremamente
importante em uma segunda fase de implantação das ferramentas, na medida em que os
processos de monitoramento são aperfeiçoados ao longo do tempo.
Figura 3 - Histograma das medidas dos sacos plásticos para leite
Fonte: adaptado de Samohyl (2009).
https://objetos.institutophorte.com.br/PDF_generator/img/03.png
https://objetos.institutophorte.com.br/PDF_generator/img/03.png
Videoaula - O gráfico tipo Xi individual e amplitude móvel
Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link:
"https://player.vimeo.com/video/629156838".
Gráficos de controle8
Os gráficos de controle possuem extrema importância para o CEP, pois são utilizados na
detecção de alterações inusitadas de uma ou mais características de um processo ou produto.
Em outras palavras, é uma ferramenta estatística que alerta para a presença de causas especiais
na linha de produção. O paradigma tradicional é o processo industrial analisado através do
tempo (também chamado de séries temporais), mas atualmente a ferramenta

Mais conteúdos dessa disciplina