Buscar

Apostila introdutória de Controle de Qualidade

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 68 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 68 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 68 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Universidade Estadual do Oeste do Paraná – UNIOESTE 
Controle de Qualidade 
 
 
 
 
 
 
 
 
 
Histórico da Qualidade, Ferramentas Básicas da 
Qualidade e o Ciclo PDCA 
 
 
 
 
 
Prof. Marcos Moreira 
 
 
 
 
Toledo – PR 
2016 
 
SUMÁRIO 
 
 
1. Controle da Qualidade Total (TQC).................................................. 01 
2. As 7 Ferramentas Básicas da Qualidade............................................ 13 
3. O Ciclo PDCA ou Ciclo de Deming.................................................. 33 
4. Aplicação do Ciclo PDCA: Um Estudo de Caso............................... 43 
 
BIBLIOGRAFIA................................................................................. 64 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
“A responsabilidade pela qualidade de uma empresa é de todas as pessoas que 
nela trabalham, independentemente do posto que ocupam, do local onde 
estejam, ou do serviço que prestam”. 
 
 (Kaoru Ishikawa) 
 
 
 
APRESENTAÇÃO 
 
 
Nesta apostila de introdução da disciplina de Controle de Qualidade da 
Engenharia Química apresenta-se no Capítulo 1 um histórico sobre 
QUALIDADE onde destacam-se as diversas definições de QUALIDADE e os 
principais pesquisadores sobre o assunto. 
No Capítulo 2 são apresentadas as sete ferramentas básicas da qualidade: 
 
- Fluxograma; 
- Diagrama de Pareto; 
- Diagrama de causa-e-efeito; 
- Ficha de Verificação; 
- Histograma; 
- Diagrama de Dispersão, e 
- o Gráfico de Controle. 
 
Essas últimas três são ferramentas estatísticas, ou seja, fazem parte do 
Controle Estatístico do Processo, área que será abordada detalhadamente mais 
à frente. 
No Capítulo 3 apresenta-se o ciclo PDCA ou ciclo de Deming, um sistema 
metódico para abordagens a problemas ou oportunidades. 
No Capítulo 4 apresenta-se um estudo de caso sobre a aplicação do PDCA; 
um projeto desenvolvido no período de 10/03/2012 a 08/03/2013, sob a 
coordenação do Prof. Marcos Moreira, visando a redução do consumo de 
energia elétrica na prefeitura de Toledo-PR. 
 
 
 
Prof. Marcos Moreira 
 
 
 1 
1. CONTROLE DA QUALIDADE TOTAL (TQC) 
 
 
 
Conceito de Qualidade 
Por que razão o ser humano se organiza, constituindo empresas, escolas, clubes, 
hospitais, governos, etc.? Para responder imaginem a nossa condição humana: “Estamos 
vivendo na Terra que é um planeta aproximadamente esférico de metal líquido com cerca de 
6400km de raio, cuja superfície é uma fina casca solidificada de 6km de espessura, o que 
corresponde a menos de um milésimo do seu raio. Giramos a uma velocidade supersônica em 
torno do Sol e todo este conjunto viaja para algum lugar desconhecido. Diante deste quadro, 
qual poderia ser o objetivo do ser humano na Terra, senão sobreviver da forma mais amena e 
agradável possível?” 
Pelo raciocínio acima, fica mais fácil responder à pergunta colocada inicialmente: - “o 
grande objetivo das organizações humanas é atender às necessidades do ser humano na 
sua luta pela sobrevivência na Terra”. 
Diante disto podemos também definir mais facilmente o que é qualidade. No contexto 
do que foi dito acima, um produto ou serviço de qualidade é aquele que atende perfeitamente, 
de forma confiável, de forma acessível, de forma segura e no tempo certo às necessidades do 
cliente. 
Estas coisas parecem evidentes e às vezes somos até levados a pensar que já as 
conhecíamos. No entanto por que um presidente de uma montadora americana afirmou: 
“ - ... nossos carros são tão bons quanto os dos japoneses. Como os senhores podem 
ver nesta tabela, o número de defeitos após a venda é o mesmo”. 
Este senhor possivelmente não entendeu ainda o que é qualidade, pois aparentemente 
ele pensa que qualidade é só ausência de defeitos. Não é difícil imaginar um automóvel sem 
defeitos, mas de um modelo ou preço que ninguém queira comprar. O verdadeiro critério da 
boa qualidade é a preferência do consumidor. É isto que garantirá a sobrevivência de sua 
empresa: a preferência do consumidor pelo seu produto em relação ao seu concorrente, hoje e 
no futuro. 
 
 
Para Deming, qualidade significa atender e, se possível, exceder as expectativas do 
consumidor. 
Para Crosby, qualidade significa atender às especificações. 
Para Taguchi, a produção, o uso e o descarte de um produto sempre acarretam 
prejuízos (perdas) para a sociedade; quanto menor for o prejuízo, melhor será a qualidade do 
produto. Exemplo: a produção de veículos leva à construção de siderúrgicas que poluem o ar 
com a emissão do CO; e, como se não bastasse, ao findar a vida útil, muitos de seus 
componentes ficam sem destino, por não serem recicláveis. Os prejuízos para a sociedade não 
se limitam aos prejuízos para o meio ambiente, mas incluem também todos os prejuízos 
diretos para os compradores do produto, tais como quebras inesperadas, consumo excessivo, 
mau posicionamento do freio de mão, etc. 
Há ainda quem defina a qualidade como o valor do bem – ou do serviço -, que 
quantifica o grau de satisfação do consumidor com respeito a vários quesitos, tais como 
preço, confiabilidade, durabilidade, estética, pontualidade, sabor, conforto, entre outros. Esse 
valor pode ser quantificado, por exemplo, por meio do seguinte procedimento: para cada 
quesito, o consumidor fixa um peso e dá uma nota; a soma ponderada das notas leva, então, 
ao valor do bem ou do serviço. 
 2 
Montgomery cita as oito dimensões da qualidade: Desempenho, Confiabilidade, 
Durabilidade, Assistência Técnica, Estética, Características, Qualidade Percebida e 
Conformidade com Especificações. Para ele qualidade significa adequação para o uso. 
Outros definem qualidade como variabilidade zero. 
Outros ainda definem qualidade com o objetivo final sendo o cliente. 
Conceitos mais modernos de qualidade definem qualidade não apenas em relação 
aos clientes, aos métodos, ao ambiente, mas focam a empresa como um organismo que além 
das necessidades materiais tem necessidades espirituais. 
 
Produtividade, Como melhorar a produtividade 
 
A produtividade é vista como a razão entre o que a empresa produz e o que ela 
consome, ou seja, a razão entre o valor agregado ao seu produto e o seu custo de produção, 
ou ainda a razão entre o faturamento e os custos. 
Para melhorar a produtividade de uma empresa devemos melhorar os seguintes 
pontos: 
- Equipamentos e materiais (“Hardware”) 
- Procedimentos ou métodos, a maneira de fazer as coisas (“Software”) 
- Ser humano (“Humanware”) 
 
Para melhorar o “Hardware” precisamos de capital. 
Para melhorarmos os nosso métodos passamos necessariamente pela melhora do 
“Humanware”. 
Podemos melhorar o “Humanware” contratando pessoas bem-educadas ou educando 
os empregados. 
Portanto, considerando-se apenas os fatores internos de uma organização, a 
produtividade só pode ser aumentada pelo aporte de capital e pelo aporte de conhecimento. 
 
Competitividade 
 
Ser competitivo é ter a maior produtividade entre todos os seus concorrentes 
(produtividade como definida no item anterior). 
O que realmente garante a sobrevivência das empresas é a garantia de sua 
competitividade. No entanto, estas coisas estão todas interligadas: a garantia de sobrevivência 
decorre da competitividade, a competitividade decorre da produtividade e esta da qualidade 
(valor agregado). Antigamente pensava-seque salário baixo ou proximidade de matérias-
primas ou recursos energéticos seriam o suficiente para garantir a vantagem competitiva. 
Hoje tem ficado cada vez mais claro que o componente INFORMAÇÃO (conhecimento que 
alimenta o “humanware”, que desenvolve o “software”) é de fato muito importante. Este 
conhecimento é o necessário para: 
- saber captar as necessidades dos clientes através de métodos e instrumentos cada vez 
mais sofisticados, 
- saber pesquisar e desenvolver novos produtos que melhor se adaptem àquelas 
necessidades, 
- saber pesquisar e desenvolver novos processos que garantam melhor qualidade de 
conformidade e custos mais baixos, 
- saber gerenciar sistemas administrativos que conduzam a maior produtividade, 
- saber comercializar e dar assistência técnica aos clientes. 
 
 3 
Esta necessidade de conhecimento irá inevitavelmente conduzir as empresas a uma 
elevação do nível de qualificação da mão-de-obra como meio de aumentar a sua 
competitividade. 
 
Sobrevivência 
 
O mundo está passando por uma fase de mudanças muito rápidas. Estas mudanças 
têm trazido ameaça à sobrevivência das empresas em todo mundo pelos mais variados 
motivos (imagine-se proprietário de uma empresa): 
- seu produto perdeu atualidade pelo lançamento de um outro produto melhor e mais barato; 
- certos países, no desespero de conseguirem divisas, baixaram o preço internacional de seu 
produto fazendo com que sua empresa perdesse competitividade; 
- seus concorrentes já utilizam novos equipamentos que tornaram o seu processo ineficaz 
para o novo nível de qualidade e de tecnologia colocado no mercado; 
- certos países impõem exigências normativas difíceis de serem alcançadas com seu atual 
processo; etc. 
Esta é a condição característica da era em que vivemos: empresas até então 
aparentemente intocáveis podem, devido às rápidas mudanças, ter sua sobrevivência 
ameaçada. Todos nós conhecemos exemplos no Brasil e no exterior. É por este motivo que a 
preocupação atual da alta administração das empresas em todo mundo tem sido desenvolver 
sistemas administrativos (software) suficientemente fortes e ágeis de tal forma a garantir a 
sobrevivência das empresas. 
O objetivo do Controle da Qualidade Total é criar condições internas que garantam a 
sobrevivência das organizações a longo prazo. 
O conceito de sobrevivência da empresa a longo prazo decorre dos conceitos 
previamente discutidos. Garantir a sobrevivência de uma empresa é cultivar uma equipe de 
pessoas que saiba montar e operar um sistema, que seja capaz de projetar um produto que 
conquiste a preferência do consumidor a um custo inferior ao de seu concorrente. Estamos, 
pois, falando de QUALIDADE. 
A meta mais imediata de uma empresa é a sua sobrevivência à competição 
internacional. Toda empresa deve se comparar com o seu melhor concorrente do 
mundo e lutar para supera-lo. Não adianta se comparar com o terceiro ou quarto, ou 
com o melhor do país, pois será precisamente o melhor do mundo que irá desloca-lo dos 
melhores mercados. 
 
 
1.1 As raízes da Qualidade: Um breve histórico 
 
Fisher 
Às vezes, quando ouvimos falar sobre uma empresa, parece até que estamos falando 
de uma plantação: as empresas novas nascem quando se plantam sementes de dinheiro. Os 
administradores regam com capital para que a fábrica cresça e cultivam mercados para colher 
lucros. No entanto, quando o assunto é qualidade, a agricultura recebe mais do que uma 
atenção metafórica. Na realidade, todo o movimento da qualidade, e a área da estatística em 
geral, é consequência da pesquisa agrícola – principalmente do gênio inglês R. A. Fisher. 
Com a maior parte da sua obra produzida nas duas primeiras décadas do século XX, 
antes de Fisher o problema das experiências com as colheitas era a imensa lentidão. De 
acordo com Blanton Godfrey, presidente do Instituto Juran, o principal limite da pesquisa 
agrícola é que os pesquisadores “só podem tentar uma vez por ano. Eles podem planejar um 
experimento durante todo o inverno, mas só podem executa-lo no verão”. Para acelerar a 
 4 
criação de melhores métodos agrícolas, Fisher aperfeiçoou atalhos científicos por meio da 
seleção de uma quantidade imensa de dados a fim de determinar as principais relações de 
causa e efeito. Ele criou uma forma de organizar uma série de experimentos que, com um 
número incrivelmente pequeno de testes, revela as interações fundamentais entre múltiplos 
fatores variáveis – como diversas épocas de plantio e diferentes profundidades de colocação 
das sementes, formulações e quantidade de fertilizantes diferentes para diferentes níveis de 
irrigação. 
O equivalente numa fábrica seria o seguinte: há cerca de uma dezena de variáveis 
principais que afetam o desempenho da direção de um carro, desde a forma como as peças da 
coluna de direção se adaptam até a dureza dos amortecedores e molas. Para testar o que 
acontece quando um dos fatores muda, seriam necessários mais de 4 mil experimentos – algo 
proibitivo, tanto em termos de tempo quanto de dinheiro. “Mesmo assim, ainda não 
conheceríamos o efeito das interações”, ou o que acontece quando dois ou mais fatores 
mudam ao mesmo tempo, como observa Edward Fuchs, diretor de QUEST da AT&T Bell 
Labs. Para isso, seriam necessários 479 milhões de testes. Contudo, os métodos de Fisher 
podem detectar essas interações com apenas 14 testes – da mesma maneira que as pesquisas 
de opinião detectam a tendência de opinião de 130 milhões de brasileiros entrevistando 
menos de 3 mil pessoas. 
 
Shewhart 
A obra de Fisher nas primeiras duas décadas deste século eletrizaram Walter A. 
Shewhart, físico da AT&T Bell Labs, e ele decidiu tentar transformar os conceitos estatísticos 
empregados na pesquisa agrícola numa matéria da disciplina. Nos anos 30, Shewhart havia 
transformado os métodos de Fisher no controle estatístico da qualidade (CEQ), ou seja, a 
aplicação rigorosa da estatística para ajudar na localização e análise dos problemas da 
qualidade na linha de produção. Quase tão importante quanto isso foi a influência da 
Shewhart sobre W. Edwards Deming e J. M. Juran, que passaram a dedicar suas vidas à 
qualidade. 
 
Deming e Juran 
Durante mais de quatro décadas, Deming e Juran foram os nobres campeões da 
qualidade. Apesar dos seus caminhos se cruzarem e de manterem um certo ar de cordialidade 
sob a superfície, eram ferrenhos rivais. Deming, um dos especialistas enviados em 1946 para 
aconselhar na reindustrialização do Japão, foi o discípulo de Shewhart responsável pela 
conversão dos japoneses ao CEQ, e, portanto está acima de Juran, tanto em fama com em 
estatura física. Afinal, o “Prêmio Deming” do Japão recebeu o seu nome. Foi criado em 1951, 
logo após sua primeira turnê de conferências lá e rapidamente se transformou no mais 
cobiçado prêmio industrial dessa nação. 
Ainda um vigoroso maníaco por trabalho aos 90 anos, Deming tem um lendário 
temperamento cáustico, que se irrompe à mera sugestão de que as idéias de Juran tenham 
mais mérito ou permanecerão por mais tempo. “Não estou interessado em queima de fogos. É 
isso que Juran faz”, ele diz. “Estou criando um sistema de profundo conhecimento, que ainda 
vai ser bom daqui a cem anos.” Juran, quatro anos mais novo, é capaz de dar o troco. 
“Reconhecimento passou a ser a coisa mais importante na vida de Deming”, argumenta. 
“Mas o Prêmio Deming é muito mais importante do que ele – é como o Prêmio Nobel e 
Alfred Nobel.” Além da gravata-borboleta, sua marca registrada, Juran é mais conhecido por 
ser o mais antigo propagandista do controle total da qualidade (TQC), que amplia o CEQ, 
transformando-o numa filosofia abrangente de negócios, que pode ser praticada em toda a 
empresa.5 
Os seguidores mais fiéis de Juran estão no Japão, primeiro local onde descreveu seu 
método, em 1954. Embora a dianteira de três anos de Deming lhe tenha dado mais fama, há 
uma linha de raciocínio bastante apoiada de que a influência de Juran tenha sido maior ao 
longo dos anos. Como o TQC é mais abrangente, “Juran foi mais importante para o Japão que 
Deming”, afirma Junji Noguchi, diretor executivo da Japonese Union of Scientists & 
Engineers (JUSE), que entra na briga contra Deming. “O CEQ só se aplica aos técnicos”, 
acrescenta. “Juran aplicou qualidade para todos, desde os gerentes até o pessoal da 
administração”. 
Em reconhecimento ao papel de Juran, em 1969 a JUSE propôs um superprêmio, a 
“Medalha Juran”, para os vencedores do “Prêmio Deming” que apresentassem uma melhoria 
contínua da qualidade durante cinco anos. Juran considera-o uma resposta descomprometida. 
Os japoneses consideram-no uma virada cortês. Portanto, o prêmio foi chamado de “Japan 
Quality Control Medal” ou, resumidamente, “Prêmio Japão”. 
Apesar das suas diferenças, Deming e Juran tiveram vidas paralelas. Ambos têm 
origem humilde. Deming nasceu em 1900, cresceu num barracão de zinco perto de Cody, 
Wyoming; Juran nasceu em 1904 e cresceu num barracão de zinco perto de Minneapolis, 
Minnesota. Ambos entraram no jogo da qualidade por acaso. Em meados dos anos 20, ambos 
eram funcionários da Western Electric Co., onde foram influenciados por Shewhart. Depois 
da Segunda Guerra Mundial, ambos se tornaram consultores autônomos. 
Deming ainda trabalhou sozinho em um escritório em Washington, D.C., embora 
rodeado de discípulos. Em meados dos anos 80, ele começou a gravar em fitas de vídeo 
palestras e debates com outros especialistas em qualidade. Essas fitas podem ser adquiridas 
na Films Inc. em Chicago e se tornaram uma das mais vendidas da companhia. Deming 
participou de várias cerimônias do “Prêmio Deming”, realizadas todos os anos no mês de 
outubro em Tóquio. Deming faleceu em 1994. 
Juran parou de trabalhar sozinho em 1979. Fundou o Instituto Juran para continuar a 
obra da sua vida e construiu uma biblioteca de fitas de vídeo e materiais de treinamento. Em 
1989, ele saiu do Instituto Wilton, em Connecticut. Passou o bastão – na realidade, uma de 
suas gravatas-borboleta – para A. Blanton Godfrey, ex-diretor de teoria da qualidade na Bell 
Labs. Agora, ele trabalha principalmente em casa, na história da gestão da qualidade e em 
suas memórias dos dias em que ele e Deming deram início à revolução da qualidade. 
 
Apesar do movimento de controle de qualidade ter-se iniciado nos Estados Unidos por 
Shewhart, o Japão não perdeu tempo em ser o líder em qualidade. De fato, durante muitos 
anos, não teve concorrência: apesar da indústria americana ter usado o CEQ na Segunda 
Guerra Mundial, perdeu o interesse nos anos 50. Incentivados por Deming e Juran, os 
japoneses ficaram com a bola, começando a reconstruir suas indústrias destruídas pela guerra, 
e estão com ela desde então. 
 
Feigenbaum 
Feigenbaum foi o primeiro a introduzir o conceito de 
controle da qualidade por toda a companhia, em seu livro histórico 
“Total Quality Control” de 1951. Esse livro influenciou muitos dos 
princípios da filosofia da gerência de qualidade no Japão, no início 
dos anos 50. Na verdade, muitas companhias japonesas usaram o 
nome “Controle da Qualidade Total” para descrever seus esforços. 
 
Feigenbaum se preocupa mais com a estrutura 
organizacional e com uma abordagem de sistemas para a melhoria 
da qualidade do que com métodos estatísticos. Inicialmente, ele 
 6 
sugeriu que a maior parte da capacidade técnica fosse concentrada em um departamento 
especializado. Isso contrasta com o ponto de vista mais moderno de que o conhecimento e o 
uso de ferramentas estatísticas devem se generalizar. No entanto, os aspectos organizacionais 
do trabalho de Feigenbaum são importantes, na medida em que a melhoria da qualidade não 
surge como uma atividade de base; requer muito compromisso da gerência para fazê-la 
funcionar. 
 
Segundo Montgomery, todos esses 3 pioneiros (Deming, Juran e Feigenbaum) acentuam a 
importância da qualidade como uma arma competitiva essencial, o papel importante 
que a gerência deve ter na implementação da melhoria da qualidade e a importância das 
técnicas e métodos estatísticos na “transformação da qualidade” de uma organização”. 
Deming e Juran acreditam que a maior parte (80%) das oportunidades para a melhoria da 
qualidade pode ser tratada apenas pela gerência, e que uma pequena proporção dessas 
oportunidades (20%) pode ser tratada ao nível da força de trabalho. 
 
Taguchi 
Um dos motivos pelos quais os japoneses detêm a liderança é o trabalho de Genichi 
Taguchi, um engenheiro que, após a Segunda Guerra, acrescentou algumas novidades às 
idéias de Fisher. Desde então, ele entrou para o grupo seleto dos mestres da qualidade e seu 
método passou a fazer parte da formação em Engenharia no Japão. 
O credo de Taguchi consiste em criar produtos tão “robustos” que eliminariam da 
produção as flutuações aleatórias que poderiam ocasionar defeitos. Por exemplo, um forno 
pode produzir ladrilhos deformados em decorrência de umidade e variações bruscas de 
temperatura. Em vez de colocar mais dinheiro na fábrica, Taguchi, um consultor da Ohken 
Associates em Tóquio, alteraria os ingredientes da argila. Ele também acha que princípios de 
projeto robusto devem ser usados para criar produtos que possam suportar o mau uso. “Para 
melhorar a qualidade, é preciso olhar para a frente no estágio do projeto”, ele diz. “No nível 
do cliente, já é tarde demais”. 
Parece simples, mas não é. Taguchi identifica as variáveis controláveis e não-
controláveis que têm maior probabilidade de afetar a qualidade. Em vez de utilizar os 
métodos de tentativa e erro, ele usa algumas mágicas estatísticas para desenvolver um 
experimento, a fim de encontrar a combinação mais forte dessas variáveis – por exemplo, a 
melhor temperatura de processamento e os ingredientes principais que têm maior 
probabilidade de dar certo, quase sem se importar com o que mais pode dar errado. 
Fábricas de autopeças como a Nippondenso Co., por exemplo, testam as variáveis 
para produzir peças eletrônicas. Quando um gerente do controle da qualidade quis produzir 
um resistor menor, escolheu cinco diferentes propriedades que poderiam afetar o 
desempenho, incluindo espessura, poder de explosão e temperatura da têmpera. Em seguida 
escolheu 3 níveis para avaliar esses parâmetros. Usando estatística, ele foi capaz de criar 18 
testes que lhe dariam as mesmas informações sobre desempenho que os 243 que seriam 
necessários para testar cada uma das cinco propriedades nos 3 níveis – e que lhe mostraram 
qual combinação de fatores pode originar o resistor mais robusto. O trabalho extra é 
compensado mais tarde por menos despesas com consertos e mais fidelidade dos clientes. 
Taguchi também diz que se deve tentar atingir uma meta de desempenho por 
vez, no lugar de se estar satisfeito em ficar dentro de uma certa margem. Qualquer desvio, 
acredita ele, provoca o risco de despesas evitáveis com reparos, garantia e a não repetição de 
compras por clientes insatisfeitos. Ele sugere que os fabricantes devem produzir um item 
melhor desenvolvido e mais preciso do que o que prometeram ao público, de forma que ele 
possa funcionar apesar do uso impróprio ou abuso. Assim, por exemplo, uma fábrica de 
relógios que garante uma variação de dez segundos por mês na realidade deve procurar fazer 
 7 
com que os seus relógios tenham uma variação de três segundos – levando em conta uma 
folga de sete segundos para um uso imprevisível por parte do cliente. 
A maior vantagem da filosofia de Taguchi pode serverificada no estágio de projeto. 
A Fuji Xerox aplicou seus métodos na copiadora 3500 no final da década de 1970, reduzindo 
o tempo de desenvolvimento dos cinco anos previstos para dois anos. Mais tarde, os 
engenheiros continuaram com esse método na alimentadora de papel da copiadora mais 
rápida da empresa, a FX-7700. O projeto é tão robusto que pode lidar facilmente com o papel 
reciclado, mais grosso, enquanto alguns concorrentes tiveram de redesenvolver suas 
máquinas. 
Os soldados da Guerra do Golfo também têm uma dívida de gratidão para com as 
técnicas de projeto de Taguchi. No meio da areia, explorando as tropas iraquianas, os 
americanos tinham total confiança nos óculos de visão noturna. Mas essa vantagem não 
ocorreu tão facilmente. Em 1989, seu produtor, a ITT Corp.’s Electro-Optical Products 
Division, lutara com problemas de vazamento na selagem das telas de fósforo dos óculos. A 
ITT resolveu o problema, decorrente de variações de um componente de selagem cerâmico, 
com os métodos de Taguchi. 
Esses conceitos começaram a tomar forma em 1950, quando Taguchi foi recrutado 
por um laboratório de pesquisa criado pelo general Douglas MacArthur na ocupação pós-
guerra para ajudar a arrumar o caótico sistema telefônico do Japão. Ele prontamente acabou 
com o tempo e o dinheiro gastos nos experimentos de tentativa e erro. Suas ferramentas 
estatísticas para desenvolver experimentos ganharam o “Prêmio Deming” para indivíduos em 
1960 e ele ganhou mais três “Deming” por pesquisas realizadas. Suas lições ajudaram 
produtores de primeira linha, tais como Hitachi Ltda., NEC e Toshiba, além de concorrentes 
americanas. 
Taguchi era pouco conhecido nos Estados Unidos até 1983, quando a Ford Motor Co. 
começou a ensinar seus métodos para os engenheiros e estes aos fornecedores. À medida que 
sua abordagem tornou-se mais famosa e outras empresas pediam para enviar pessoas para dar 
treinamento, a Ford criou em 1984 o American Supplier Institute Inc., em Dearborn, 
Michigan, que atualmente dá cursos para milhares de engenheiros e presta consultoria a 
empresas como a Uniroyal Chemical Co., Polaroid Corp. e AT&T Bell Labs. 
Não muito tempo depois que Deming, Juran e Taguchi começaram a introduzir suas 
teorias de controle da qualidade na cultura corporativa japonesa, uma conclusão da JUSE em 
1953 galvanizou as idéias díspares numa filosofia coerente que poderia ser usada em 
qualquer nível de uma organização. A JUSE decidiu que inspetores da qualidade do tipo dos 
Estados Unidos eram supérfluos e contraproducentes. A qualidade deveria ser 
responsabilidade de todos os empregados, pois atribuí-la a um grupo incentivava todos os 
demais a ignorá-la. A ligação da JUSE com Deming fez com que ela obtivesse a reputação de 
matriz do controle da qualidade do Japão, e sua proclamação logo ganhou muitos seguidores. 
“Aprendemos com Deming que os especialistas não são necessários”, afirma Noguchi, da 
JUSE. Essa idéia ajudou a gerar os círculos de controle da qualidade (CCQ), uma invenção 
feita em 1962 por Kaoru Ishikawa, professor da Universidade de Tóquio. “No Japão faltavam 
engenheiros, mas os operários eram bem treinados e cooperavam com a administração. 
Portanto, podiam ser ensinados a aplicar técnicas de controle de qualidade”, recorda Noguchi. 
A noção de que todos no local de trabalho são responsáveis pela qualidade – o foco 
central na abordagem de Juran – foi a base para o controle total da qualidade, que estendeu a 
disciplina do chão da fábrica para toda a empresa. A partir de 1964, a utilização bem-
sucedida do TQC tornou-se pré-requisito para conseguir o “Prêmio Deming”. “É por isso que 
ganhar o prêmio ficou tão difícil: é preciso aplicar qualidade em toda a companhia”, conta 
Noguchi. A Komatsu Ltda., produtora de tratores, foi a primeira a vencer sob as novas regras. 
A Toyota Motor Corp. foi a segunda, em 1965. 
 8 
1.2 Linha do Tempo dos Métodos de Qualidade 
 
1700-1900 
 
A qualidade é grandemente determinada pelos esforços de um artesão 
individual. Eli Whitney introduz partes padronizadas, intercambiáveis para 
simplificar a montagem. 
1875 Frederick W. Taylor introduz os princípios do “Gerenciamento Científico” 
focalizando-se na produtividade. 
1900-1930 Henry Ford – a linha de montagem – Ford desenvolveu os conceitos erro-prova 
da montagem, a auto-inspeção, e a inspeção durante o processo 
1915-1919 WWI – O governo britânico inicia um programa de certificados ao fornecedor 
1922-1923 R. A. Fisher publica uma série de artigos fundamentais sobre planejamento de 
experimentos e suas aplicações às ciências da agricultura. 
1924 W. A. Shewhart introduz o conceito de gráfico de controle em um memorando 
técnico do Bell Laboratories 
1939-1945 Os conceitos estatísticos de qualidade são utilizados pelo U.S. War 
Department. 
1946 Deming vai para o Japão. Formam-se a ASQC (Sociedade Americana para o 
Controle da Qualidade) e JUSE (União Japonesa de Cientistas e Engenheiros) 
1948 O professor Taguchi inicia o estudo e a aplicação do planejamento de 
experimentos 
1950 O professor Ishikawa introduz o diagrama de causa-e-efeito. 
1951 O professor Feigenbaum publica a primeira edição do seu livro “Total Quality 
Control”. 
1951 G.E.P. Box e K.B. Wilson publicam trabalho fundamental sobre o uso de 
experimentos planejados e a metodologia da superfície de resposta para a 
otimização de processo. 
1954 Juran é convidado pelos japoneses para conferências em gerenciamento e 
melhoria da qualidade. O estatístico britânico E. S. Page introduz o gráfico de 
controle da soma cumulativa (CUSUM). 
1960 Box e Hunter escrevem artigos fundamentais sobre planejamento fatorial 
fracionado 
1975-1978 Começam a surgir livros de planejamento de experimentos voltados para 
engenheiros e cientistas. 
Anos 80 O planejamento experimental é adotado por muitas empresas. 
1989 Começa a iniciativa seis-sigma da Motorola. 
Anos 90 Crescem as certificações ISO 9000 nos EUA 
1997 A abordagem seis-sigma da Motorola se espalha para outras indústrias. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 9 
1.3 Os 14 pontos da Filosofia de Deming para a melhoria da qualidade e da 
produtividade 
 
1) Crie uma constância de propósitos focada na melhoria de produtos e serviços. Tente, 
constantemente, melhorar o projeto e o desempenho do produto. Investimentos em pesquisa, 
desenvolvimento e inovação trarão retorno a longo prazo para a organização. 
 
2) Adote uma nova filosofia de rejeição de acabamento pobre, produtos defeituosos ou mau 
serviço. O custo para produzir uma unidade defeituosa é o mesmo para produzir uma unidade 
boa (ou, às vezes, maior). O custo de lidar com sucata, retrabalho e outras perdas criadas 
pelos itens defeituosos é um enorme gasto de recursos da companhia. 
 
3) Não confie em inspeção de massa para “controlar” a qualidade. Tudo que a inspeção pode 
fazer é separar os defeituosos e, a essa altura, é muito tarde, pois já pagamos para produzir 
esses defeituosos. A inspeção, tipicamente, ocorre muito tarde no processo, é dispendiosa e, 
em geral, ineficaz. A qualidade resulta da prevenção de itens defeituosos através de melhoria 
no processo, e não de inspeção. 
 
4) Não premie os fornecedores com a realização de negócios com base apenas no preço, mas 
considere, também, a qualidade. O preço é uma medida significativa do produto do 
fornecedor apenas se é considerado em relação a uma medida de qualidade. Em outras 
palavras, o custo total do item deve ser considerado, e não apenas o preço de venda. Quando 
a qualidade é considerada, o licitante que oferece menos não é, frequentemente, o fornecedor 
de menor custo. Deve-se dar preferência aos fornecedores que usam métodosmodernos de 
melhoria da qualidade em seus negócios e que podem demonstrar controle e capacidade do 
processo. 
 
5) Concentre-se no aprimoramento contínuo. Tente, constantemente, melhorar o sistema de 
produção e serviço. Envolva a força de trabalho nessas atividades e faça uso de métodos 
estatísticos, particularmente as ferramentas de resolução de problemas estatisticamente 
embasadas. 
 
6) Ponha em prática os métodos de treinamento modernos e treine todos os empregados. 
Todos devem ser treinados nos aspectos técnicos de seu trabalho, bem como nos métodos 
modernos de melhoria da qualidade e produtividade. O treinamento deve encorajar todos os 
empregados a praticar esses métodos todos os dias. 
 
7) Ponha em prática os métodos modernos de supervisão. A supervisão não deve consistir 
meramente em uma vigilância passiva dos empregados, mas deve se concentrar em ajudar os 
empregados a melhorar o sistema no qual trabalham. O objetivo n
o
1 da supervisão deve ser 
melhorar o sistema de trabalho e o produto. 
 
8) Afaste o medo. Muitos empregados têm medo de fazer 
perguntas, relatar problemas, ou apontar condições que são 
barreiras para a qualidade e produção efetiva. Em muitas 
organizações, a perda econômica associada ao medo é 
grande; apenas o gerenciamento pode eliminar o medo. 
 
9) Quebre as barreiras entre áreas funcionais do negócio. O 
trabalho de equipe entre diferentes unidades da organização é 
 10 
essencial para que aconteça a efetiva melhoria da qualidade e da produtividade. 
 
10) Elimine alvos, slogans e objetivos numéricos para os empregados. Um alvo como “zero 
defeito” é inútil sem um plano para a consecução de tal objetivo. Na verdade, tais slogans e 
programas são contraproducentes. Trabalhe para melhorar o sistema e forneça informação 
sobre isso. 
 
11) Elimine quotas numéricas e padrões de trabalho. Esses padrões têm sido, historicamente, 
estabelecidos sem considerar a qualidade. Os padrões de trabalho são, em geral, sintomas de 
incapacidade da gerência de entender o processo de trabalho e de propiciar um sistema de 
gerenciamento efetivo centrado na melhora deste processo. 
 
12) Remova as barreiras que desencorajam os 
empregados a fazerem seus trabalhos. A gerência deve 
ouvir as sugestões, comentários e reclamações dos 
empregados. A pessoa que está executando uma tarefa é 
quem sabe mais sobre ela e, em geral, tem idéias valiosas 
sobre como fazer o processo funcionar mais 
efetivamente. A força de trabalho é um participante 
importante no negócio, e não apenas um oponente nas 
negociações coletivas. 
 
13) Institua um programa permanente de treinamento e 
educação para todos os empregados. Educação em técnicas estatísticas simples, mas 
poderosas, deveria ser obrigatória para todos os empregados. O uso das ferramentas básicas 
do CEP para resolução de problemas particularmente o gráfico de controle, deve se tornar 
comum na empresa. Na medida em que esses gráficos se 
espalham e que os empregados entendem seu uso, é mais 
provável que esses empregados procurem as causas da baixa 
qualidade e identifiquem as melhorias no processo. A 
educação é uma maneira de tornar todos parceiros no 
processo de melhoria da qualidade. 
 
14) Crie uma estrutura no nível mais alto da gerência que 
defenderá, com vigor, os 13 primeiros pontos. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 11 
1.4 International Standards Organization (ISO) 
A International Standards Organization (ISO – Organização Internacional de Padrões) 
desenvolveu uma série de padrões de qualidade, incluindo a série ISO9000, que é também um 
padrão do American National Standards Institute e da ASQ. O foco desses padrões é a 
qualidade do sistema, incluindo componentes tais como: 
 
1. Responsabilidade da gerência pela qualidade 
2. Controle do planejamento 
3. Controle de documentos e dados 
4. Gerência de compras e contratos 
5. Identificação e rastreamento do produto 
6. Inspeção e teste, incluindo o controle de medidas e inspeção de equipamento 
7. Controle do processo 
8. Trato de produtos não-conformes, ações corretivas e preventivas 
9. Manuseio, estocagem, embalagem e entrega do produto, incluindo atividades de revisão 
10. Controle dos registros de qualidade 
11. Auditorias internas 
12. Treinamento 
13. Metodologia estatística 
 
 
1.5 Custo da Qualidade (prevenção, avaliação, falha interna e falha externa) 
 
O monitoramento dos processos, se realizado de forma inteligente, implica em custos 
que se pagam facilmente, pois qualidade agrega valor. Os custos com a qualidade são 
organizados em quatro categorias: custos de prevenção, custos de avaliação, custos de falhas 
internas e custos de falhas externas. 
Os custos de falhas externas são os que ocorrem quando da venda de produtos ou 
serviços que não atendem às especificações, ou seja, são os custos de substituições, de 
assistência técnica, e mesmo de perda de clientes. 
Os custos de falhas internas englobam os custos com itens não conformes 
descobertos antes de chegarem ao consumidor, como os custos de retrabalhos, de refugos e de 
ações corretivas. 
Os custos com as atividades de prevenção contra a ocorrência de não-
conformidades são classificados como custos de prevenção. De acordo com essa 
classificação, custos com o treinamento de pessoal ou com o monitoramento de processos são 
custos de prevenção. 
Os custos advindos de atividades estabelecidas com o propósito de avaliar a 
observância das especificações são classificados como custos de avaliação. 
 
 
Branco-falhas externas/Verde-falhas internas/Azul-avaliação/Amarelo-prevenção 
 
 12 
 
Ronald Aylmer Fisher (1890-1962), 
estatístico inglês 
 
 
Walter Andrew Shewhart (1891-
1967), físico, engenheiro e estatístico 
americano 
 
 
William Edwards Deming (1900 – 
1993), professor e estatístico americano 
 
 
Joseph Moses Juran (1904 – 2008), 
engenheiro e consultor romeno. 
 
Armand Vallin Feigenbaum (1922- ) 
consultor americano em Controle de 
Qualidade 
 
Genichi Taguchi (1924 - 2012), engenheiro e 
estatístico japonês. 
 
Kaoru Ishikawa (1915 – 1989), professor 
japonês 
 
 
 
 
 
 13 
2. AS 7 FERRAMENTAS BÁSICAS DA QUALIDADE 
A Estatística é uma ferramenta muito utilizada para o ESTUDO DOS MAIS 
DIFERENTES TIPOS DE SISTEMAS. Ferramentas estatísticas são usadas para testar teorias 
contra dados empíricos. 
A Estatística é a ciência que coleta, organiza, analisa, interpreta e apresenta dados. 
Alguns especialistas preferem chamar a estatística de CIÊNCIA DOS DADOS, uma trilogia 
de tarefas envolvendo modelagem de dados, análise e tomada de decisão. 
 Uma variável estatística é uma medida, apresentada como um número, usada para 
resumir um conjunto de dados amostrais. Como exemplo podemos pensar na altura média dos 
alunos de uma sala de aula. 
As ferramentas estatísticas são utilizadas na indústria por se ter a consciência que ao 
remover as causas dos problemas se obtém uma maior produtividade e que a resolução de 
problemas utilizando técnicas gráficas e específicas produz melhores resultados do que os 
processos de procura não estruturados. Tais técnicas, que permitem saber onde estão os 
problemas, qual a sua importância relativa e que alterações irão provocar os efeitos 
desejados, podem ser divididas em quatro grupos distintos: 
 
a) As 7 Ferramentas básicas da Qualidade (também conhecidas pelas “seven QC tools”) 
− Fluxograma 
− Diagrama de Pareto 
− Diagrama de Ishikawa ou de Causa e Efeito 
− Folha de verificação 
− Histograma− Diagrama de dispersão 
− Gráfico de controle 
 
b) Ferramentas intermédias 
− Técnicas de amostragem 
− Inferência estatística 
− Métodos não paramétricos 
 
 
 
 14 
c) Ferramentas avançadas 
− Métodos de Taguchi (desenho de experiências) 
− Análises multi-variáveis 
− Análise de séries temporais 
− Técnicas de investigação operacional 
 
d) Ferramentas de planejamento 
− Desenvolvimento da função qualidade (QFD) 
− Análise modal de falhas e efeitos (AMFE) 
 
2.1 Fluxograma 
O fluxograma (ou flowsheet) é uma das primeiras ferramentas a utilizar quando se 
pretende estudar um processo. Trata-se de um diagrama sistemático que pretende representar 
de uma forma bastante simples, ordenada e facilmente compreensível as várias fases de 
qualquer procedimento, processo de fabrico, funcionamento de sistemas ou equipamentos, 
etc., bem assim como as relações de dependência entre elas. Estes diagramas são constituídos 
por passos sequenciais de ação e decisão, cada um dos quais representado por simbologia 
própria que ajuda a compreender a sua natureza: início, ação, decisão, etc. 
 15 
 
 
 
2.2 Diagrama de Pareto 
Foi no século passado, ao analisar a sociedade, que o economista italiano Alfredo 
Pareto concluíu que grande parte da riqueza se encontrava nas mãos de um número reduzido 
de pessoas. A partir desta observação, e por tal conclusão poder ser generalizada a muitas 
áreas da vida quotidiana, foi estabelecido o designado método de análise de Pareto, também 
chamado método ABC ou dos 20-80%. De uma forma sucinta, este método diz-nos que a 
grande maioria dos efeitos é devida a um número reduzido de causas. 
A grande aplicabilidade deste princípio à resolução dos problemas da qualidade reside 
precisamente no fato de ajudar a identificar o reduzido número de causas que estão muitas 
vezes por trás de uma grande parte dos problemas e variações que ocorrem. Uma vez 
identificadas dever-se-à proceder à sua análise, estudo e implementação de processos que 
conduzam à sua redução ou eliminação. 
O princípio de Pareto pode ser usado para diferentes tipos de aplicações em termos de 
qualidade. Assim, uma vez que os problemas da qualidade aparecem normalmente sobre a 
 16 
forma de perdas (items defeituosos e seus custos), é de extrema importância tentar esclarecer 
o porquê da sua ocorrência. A análise de Pareto diz que, em muitos casos, a maior parte das 
perdas que se fazem sentir são devidas a um pequeno número de defeitos considerados vitais 
(vital few). Os restantes defeitos, que dão origem a poucas perdas, são considerados triviais 
(trivial many) e não constituem qualquer perigo sério. Por outro lado, este princípio pode 
também ser aplicado à redução dos custos de defeitos. Tais custos compõem-se 
principalmente do custo das reparações e das rejeições devidos a defeitos nos produtos em 
curso de fabrico ou devolvidos pelos clientes. Mais uma vez o que se verifica é que uma 
pequena porção (cerca de 20%) dos produtos defeituosos ou do número de defeitos de uma 
mesma produção é muitas vezes responsável pela maior parte (cerca de 80%) do custo global 
dos defeitos, quer ao nível da empresa, quer ao nível do produto considerado. 
É na detecção das 20% das causas que dão origem a 80% dos efeitos que o que o 
diagrama de Pareto se revela uma ferramenta muito eficiente. Trata-se de uma representação 
gráfica ordenada na qual, para cada causa se representa, sob a forma de barras, a respectiva 
consequência (nº. de defeitos, custo, etc.). A elaboração deste tipo de diagrama pode ser 
sistematizada da seguinte forma: 
 
1. decidir o tipo de problema a ser investigado (exº: nº. de items defeituosos, perdas em 
valores monetários, ocorrência de acidentes); 
2. identificar e listar o tipo de causas que lhe dá origem (exº. processo, máquina, operador, 
método); 
3. recolher dados e, para cada tipo de causa, registar o nº. de vezes que estes contribuem para 
o efeito em questão; 
4. ordenar as causas por ordem decrescente da respectiva frequência começando pela classe 
com maior frequência. Se várias das causas apresentarem uma frequência de ocorrência de 
defeitos muito baixa quando comparadas com as outras, elas poderão ser reunidas numa única 
classe denominada “outros”; 
5. construir um diagrama de barras por esta ordem decrescente; 
6. desenhar a curva acumulada (curva de Pareto) ao unir com segmentos de reta os valores 
percentuais acumulados até cada item; 
7. descobertas as causas das não-conformidades mais importantes há depois que tomaras 
ações corretivas apropriadas para as eliminar. 
 
Veja o exemplo a seguir da construção do diagrama de Pareto. 
 17 
 
 
 
 
2.3 Diagrama de causa-efeito (Ishikawa, espinha de peixe) 
O diagrama de causa-efeito, também chamado diagrama de Ishikawa (por ser esse o 
nome da pessoa que primeiro o usou) ou de espinha de peixe (por ser esta a forma que 
apresenta), é uma ferramenta simples muito utilizada em qualidade. Trata-se de um processo 
que permite a identificação e análise das potenciais causas de variação do processo ou da 
ocorrência de um fenómeno, bem assim como da forma como essas causas interagem entre si. 
Este tipo de diagrama mostra a relação entre a característica da qualidade em questão e essas 
causas que podem, usualmente, ser de 6 naturezas diferentes (também designadas por 6 M’s): 
mão-de-obra, máquinas, matéria-prima, métodos, meio-ambiente, medidas. Casos há, no 
entanto, em que são de uma outra natureza qualquer. 
 18 
O procedimento a seguir para elaborar um diagrama deste tipo pode ser sistematizado da 
forma seguinte: 
1. Determinar a característica de qualidade cujas causas se pretendem identificar; 
2. Através da investigação e discussão com um grupo de pessoas (brainstorming),determinar 
quais as causas que mais diretamente afetam essa característica, isto é, aquelas que têm uma 
influência direta no problema a ser resolvido (causas primárias ou causas de nível 1); 
3. Traçar o esqueleto do diagrama colocando, numa das extremidades, a característica da 
qualidade em questão. A partir desta deverá partir ‘a espinha do peixe’, isto é, uma linha 
horizontal de onde deverão irradiar as ramificações com as causas consideradas como 
primárias; 
4. Identificar as causas (secundárias ou causas de nível 2) que afetam as causas primárias 
anteriormente identificadas, bem assim como aquelas (causas terciárias) que afetam as causas 
secundárias, etc. Cada um destes níveis irá constituir ramificações nas causas de nível 
imediatamente inferior. 
 
 
 
 
Veja o exemplo abaixo de aplicação do diagrama de causa e efeito para o excesso de 
consumo de combustível de um automóvel. 
 19 
 
 
Um outro tipo de diagrama de causa e efeito que se pode construir é o diagrama de 
classificação do processo. Tal consiste em, a partir do diagrama de fluxo do processo em 
causa, ir identificando para cada fase todas as potenciais causas ou características que 
influenciam a qualidade. A combinação dos diagramas de Causa e Efeito diagramas de Pareto 
revela-se extremamente útil na resolução de problemas. 
 
2.4 Diagrama de barras ou histograma 
A análise dos dados recolhidos ao longo de qualquer processo irá permitir avaliar a 
forma como este está a decorrer, bem assim como tirar conclusões sobre ele. No entanto, caso 
o número dos dados recolhidos seja grande, o seu tratamento e análise tornar-se-à difícil 
amenos que se recorra a métodos que permitam a sua fácil ordenação e apresentação. Os 
histogramas apresentam-se como um método de simples elaboração que, através da 
representação gráfica do número de vezes que determinada característica oufenômeno ocorre 
(distribuição de frequência), permitem obter uma impressão visual objetiva sobre a dispersão 
e localização dos valores recolhidos e, caso a amostra seja representativa, da totalidade da 
população. Tais diagramas podem assim ser utilizados para o controlo e melhoria do 
processo. A construção dos histogramas passa pelas seguintes fases: 
1. obtenção dos valores; 
2. cálculo da amplitude total da amostra; 
3. caso necessário, divisão em classes e cálculo da amplitude e limites de cada classe; 
4. determinação da frequência (absoluta ou relativa) de cada valor ou classe; 
5. para cada valor da característica, desenhar uma barra cuja altura seja proporcional à 
frequência com que esse valor ocorre. As barras correspondentes a valores consecutivos 
devem estar todas unidas e todas elas apresentam normalmente larguras semelhantes. 
 20 
 
Exemplo. Construir um histograma que represente o número de clientes de um dado 
restaurante ao longo de 15 dias 
 
Tabela de frequência 
 
Histograma de frequências absolutas 
 
 21 
 
Histograma de frequência acumulada 
 
 
A forma dos histogramas de frequências absolutas e de frequências relativas, assim 
como os de frequências absolutas acumuladas e frequências relativas acumuladas são iguais. 
A única diferença reside na escala de valores abrangida. Para o exemplo considerado 
anteriormente os valores das frequências relativas e relativas acumuladas encontram-se já 
marcados na tabela de frequências. 
 
Histograma de frequências relativas 
 
 
 22 
Histograma de frequências relativas acumuladas 
 
 
A utilização de classes (intervalos de valores) é comum quando as variáveis são do 
tipo contínuo ou quando a amplitude dos valores é muito grande. No primeiro dos casos 
torna-se muito difícil a contagem da frequência com que cada valor ocorre, enquanto que no 
segundo se corre o risco de perder a definição da forma da distribuição devido ao grande 
número de valores com frequências muito semelhantes. 
Os intervalos das classes são usualmente de igual amplitude por forma a que a altura 
das 
barras seja proporcional à frequência que representam. Um dos aspectos a ter em conta no 
estabelecimento das classes é que se deverá sempre garantir que o limite inferior da primeira 
classe seja menor ou igual ao menor dos valores observados, da mesma forma que o limite 
superior da última classe deverá ser maior ou igual ao maior dos valores observados. Por 
outro lado, deverá ficar desde logo estabelecido se os limites das classes são inclusivos ou 
exclusivos, isto é, cada valor só poderá pertencer a um único intervalo, razão pela qual se os 
limites superiores das classes forem fechados (i.e. o máximo dos valores encontra-se incluído 
nesse intervalo), os limites inferiores das classes que a sucedem deverão ser abertos e vice-
versa. 
Não existem regras exatas sobre a forma de determinar o número e a amplitude das 
classes a considerar. Como referência, sendo N o número total de dados, poder-se-ão 
utilizaras fórmulas seguintes para a determinação do número aproximado de classes: 
2log
log
1_
N
classesn 
 
ou 
 23 
Nclassesn _
 
sendo depois a amplitude de cada classe calculada através da fórmula: 
 
classesn
mínimovalormáximovalor
amplitude
_
__ 

 
Outra forma possível será determinar o número de classes em função do número total 
de dados recorrendo à tabela seguinte 
 
Exercício. Construa o histograma das frequências absolutas e frequências absolutas 
acumuladas que represente a variação do diâmetro de uma peça. 
 
 24 
 
 
fr
eq
uê
nc
ia
 a
bs
ol
ut
a
diâmetro (cm)
fr
eq
uê
nc
ia
 a
bs
ol
ut
a 
ac
um
ul
ad
a
diâmetro (cm)
 25 
É possível obter informações úteis sobre a população pela análise da forma do 
histograma. No que diz respeito à centralidade, podemos considerar os diagramas de 
tendência central representados na figura a seguir. Neste tipo de representações (muitas vezes 
simétricas) a maior frequência corresponde ao valor médio que se encontra centrado 
relativamente aos restantes dados. Tendências não centrais podem ser observadas nos 
histogramas representados nas figuras (c) e (d). O primeiro destes apresenta uma tendência 
assimétrica do tipo negativo (deslocado para a direita) verificando-se que a diminuição da 
frequência é abrupta para a direita e mais lenta para o lado esquerdo. Tendências assimétricas 
do tipo positivo correspondem a histogramas deslocados para a esquerda. Na figura (d) 
encontra-se representado um histograma truncado. Neste tipo de histogramas o valor ou 
classe à qual corresponde a maior frequência coincide com uma das extremidades do 
histograma. 
 
 
 
Na figura (b) encontra-se representada um histograma multi-modal (i.e. apresenta 
mais do que um valor máximo) também conhecido como histograma do tipo pente. Estes 
histogramas são particularmente importantes uma vez que podem indicar que aí estão 
representadas duas populações distintas, cada uma das quais apresentando distribuições de 
frequências que se sobrepõem mas que apresentam máximos não coincidentes. Quando as 
frequências dos valores ou classes são mais ou menos idênticas, o histograma pode ainda 
tomar um aspecto achatado. Se se estiver a trabalhar com classes, o ideal neste tipo de 
situações será tentar redifinir os intervalos por forma a conseguir procurar uma forma no 
 26 
histograma com base na qual seja possível tirar conclusões. É ainda de referir a possibilidade 
de surgir nos histogramas um pico isolado. Tal é comum quando se verifica uma pequena 
inclusão de dados provenientes de uma distribuição diferente que podem, por exemplo, ser 
devidos à ocorrência de causas especiais no processo conducentes a valores atípicos. 
Em termos de dispersão, os valores podem ser bastante concentrados em torno do 
valor com maior frequência (veja a figura (a) a seguir) ou, alternativamente, apresentar uma 
grande dispersão em torno dele (figura (b) a seguir). Tal como anteriormente referido, é 
importante que o produto apresente características o mais uniformes possível pelo que há que 
continuamente tentar reduzir a variabilidade do processo. Desta forma, será possível concluir 
que é de todo o interesse que os histogramas apresentem uma forma semelhante ao da Figura 
(a) em que a amplitude dos valores observados é pequena. Histogramas semelhantes ao da 
Figura (b) querem dizer que existe ainda um grande número de causas comuns a afetar o 
processo, causas essas que precisam ser reduzidas e eliminadas. 
 
 
 
2.5 Diagrama de dispersão 
 
Na prática é muitas vezes importante verificar se duas variáveis (por exemplo, 
concentração e pH) estão ou não relacionadas e, caso positivo, qual o tipo de relação que 
existe entre elas. Os diagramas de dispersão tornam-se uma ferramenta extremamente 
poderosa para atingir esse objetivo. Caso exista, essa relação é usualmente do tipo 
causa/efeito não sendo, no entanto possível, através dos diagramas de dispersão, identificar 
qual das variáveis é a causa e qual é o efeito. A construção destes diagramas passa por 
recolher os pares de dados (x,y) entre os quais se pretende analisar a relação, organizar esses 
dados numa tabela, encontrar os valores máximos e mínimos para x e para y, marcar as 
escalas respectivas por forma a que sejam mais ou menos iguais e marcar os pontos no 
gráfico. 
Na análise destes gráficos a primeira coisa a fazer será verificar se existem ou não 
pontos nitidamente afastados do grupo principal (pontos com comportamento atípico). O 
afastamento desses pontos poderá ser explicado por eventuais errosna medição ou registo de 
 27 
dados, bem assim como por variações ocorridas durante o processo. Pontos atípicos deverão 
ser excluídos da análise, não sem, no entanto tentar descobrir a causa de tal comportamento. 
Da marcação dos pontos poderão surgir uma das três situações ilustradas abaixo: (a) 
correlação positiva (em que o aumento de uma variável conduz ao aumento da outra), (b) 
correlação negativa (em que o aumento de uma variável conduz à diminuição da outra) e (c) 
ausência de correlação (quando não parece haver qualquer tipo de ligação entre as variáveis 
consideradas). 
 
 
 
Exercício. Verificar se existe algum tipo de relação entre as alturas e os pesos de um grupo de 
pessoas. 
Altura (m) Peso (kg) 
1,57 60 
2,00 95 
1,67 66 
1,90 85 
1,50 45 
1,75 78 
1,63 64 
1,78 75 
1,94 92 
1,82 80 
1,77 75 
1,59 60 
 
 28 
 
As correlações entre as variáveis podem ser de vários tipos: lineares, quadráticas, 
cúbicas, logarítmicas, etc. Por forma a poder prever o comportamento de uma das variáveis 
em função da outra é útil conseguir encontrar aquilo a que se chama função ou equação de 
ajuste. Trata-se da equação matemática que melhor ajusta o comportamento e a dependência 
dos dados e que é função do tipo de dependência que existe entre elas. Por exemplo, quando 
o aumento de uma variável implica o aumento da outra (tal como no exercício anterior) a 
função de ajuste assume normalmente a equação de uma reta do tipo y = a + b x em que y 
representa a variável dependente (no caso do exercício anterior y seria o peso) e x a variável 
dependente (no caso do exercício anterior x seria a altura). Desta forma, e se conseguirmos 
uma reta que aproxime a evolução dos pontos de uma forma razoável, será possível prever y 
(i.e. o peso de uma pessoa) se soubermos o valor x (i.e. a sua altura) e vice versa. Tal 
previsão poderá ser mais ou menos exata consoante o modelo se ajusta melhor ou pior aos 
dados. O coeficiente de correlação (r) é um parâmetro que permite avaliar se o ajuste feito é 
ou não bom. Os valores admissíveis para r variam entre -1 e 1 (-1 ≤ r ≤ 1). Se r assumir 
valores negativos (-1 ≤ r < 0) isso significa que a correlação é do tipo negativo, isto é, que o 
aumento de uma variável implica a diminuição da outra. Se, pelo contrário, r estiver 
compreendido entre 0 e 1 (0 < r ≤ 1) isso quererá dizer que a correlação é do tipo positivo. 
Quanto mais próximo de 1 ou de -1 estiver r, melhor o ajuste. Se r = 0 (ou próximo dele) isso 
quer dizer que não há qualquer tipo de correlação. 
 
P
es
o
Altura
 29 
2.6 Folha/Ficha de verificação 
 
É importante garantir bastante objetividade na recolha de dados sendo para tal, antes 
de mais, necessário definir com precisão quais os dados que é necessário recolher. Avaliar 
parâmetros ou fazer leituras que não nos interessam apenas conduz a perdas de tempo e a 
uma maior confusão em termos do seu armazenamento. Por forma a que isso não aconteça 
convém dispor de um formulário/ficha bastante simples e convenientemente elaborado onde 
as perguntas para as quais se deseja a resposta se encontram perfeitamente definidas e que 
permita a qualquer utilizador identificar corretamente quais os itens a medir/registar e em que 
altura e sequência tal deverá ser feito. 
As folhas de verificação não só facilitam a recolha de dados como também a sua 
organização. Com base nelas será mais fácil posteriormente encontrar dados que sejam 
necessários, bem assim como fazer estudos retrospectivos. Não existe uma folha de 
verificação standard uma vez que estas devem ser elaboradas em função do fim a que se 
destinam. Na figura 7 dá-se o exemplo de uma folha de verificação que poderia ser utilizada 
na realização de ensaios às matérias-primas recepcionadas. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 30 
Empresa ABC Resultados dos ensaios às matérias-primas 
Nome do produto: ________________________________________ 
Fornecedor: _____________________________________________ 
Endereço: _____________________________________________________________ 
______________________________________________________________________ 
Resultados dos ensaios laboratoriais: 
 
Características: 
 
Observações: 
 
 
 Responsável pelo D.Q.: __/__/__ 
 
Resultados dos ensaios industriais: 
 
Características: 
 
Observações: 
 
 
 Responsável pelo D.P.: __/__/__ 
 
Apreciação global: 
 
 
 Assinatura: __/__/__ 
 
 
 31 
2.7 Gráficos de Controle 
 
 O gráfico de controle é um método gráfico que serve para acompanhar a evolução do 
processo. Existem gráficos para monitorar a média e a dispersão do processo. 
 
 
A primeira fase da construção destes gráficos consiste na recolha de uma série de 
dados relativos à característica a ser estudada (dimensões, nº. de peças defeituosas, nº. de 
defeitos nas peças produzidas, tempos, etc.). Uma vez que, quer por uma questão de dinheiro 
como de tempo, na grande maioria das vezes é impossível fazer o controlo de todas as peças, 
há que selecionar apenas algumas que sejam representativas das restantes (amostragem). Para 
ser feito de forma correta, tal deverá seguir um plano e, uma vez que existem vários tipos de 
planos de amostragem disponíveis, é importante escolher aquele que dá mais e melhor 
informação. Amostragens bem feitas irão permitir que, verificando apenas uma pequena 
quantidade de peças, seja possível dizer o que se passa com a totalidade delas. 
Numa fase seguinte os dados recolhidos deverão ser reunidos e, dependendo do tipo 
de gráfico de controle a usar, convertidos numa forma tal que permita a sua marcação. 
A utilização dos gráficos de controle é frequentemente vista como um processo de 
monitoramento. No entanto, para poderem assumir esse papel, terão antes que ser definidos 
quais os limites de controle para além dos quais as características avaliadas do produto, 
processo ou serviço não poderão passar. É de ter em atenção que os limites de controle não 
são especificações limites nem objetivos. De fato, cada característica (por exemplo o 
diâmetro de um parafuso) tem um valor objetivo em torno do qual, devido às causas comuns, 
os valores realmente observados se irão dispôr. Consciente de que é impossível que todos os 
produtos apresentem esse valor objetivo, o cliente estabelece ainda as especificações 
máximas admissíveis (tolerâncias) para além das quais os produtos não deverão passar: 
limites máximo e mínimo de especificação. Por outro lado, o produtor tem que dispôr de 
meios que garantam a qualidade e homogeneidade do seu produto. Com esse objetivo marca 
 32 
nos gráficos de controle limites para além dos quais considera que o seu produto não é 
suficientemente bom para seguir para o cliente: limite máximo e mínimo de controle. Estes 
limites de controle utilizados pelo produtor deverão ser inferiores aos admitidos pelo cliente 
por forma a evitar que cheguem a estes produtos fora das especificações 
O conjunto de dados recolhidos que irá constituir o primeiro dos gráficos de controle é 
também utilizado para, através de fórmulas baseadas na variabilidade natural do processo e 
no plano de amostragem, determinar os limites de controle dos gráficos subsequentes. O 
controle e melhoria do processo usando gráficos de controle deve ser encarado como um 
processo iterativo em que se repetem as fases fundamentais de recolha de dados, controlee 
análise. De fato, calculados os limites de controle com esse primeiro conjunto de dados, se 
for evidente a existência de causas especiais de variação que leve pontos para fora dos limites 
ou que tornem evidentes tendências na variação dos pontos, o processo deverá ser estudado 
para se conseguir determinar o que o está a afetar e se tomarem depois as devidas ações para 
eliminar essas causas especiais. Após eliminadas, dever-se-ão recolher mais dados e 
recalcular os limites de controle, fundamentais para interpretar os dados para o controle 
estatístico. 
A partir do momento em que todas as causas especiais tenham sido eliminadas e o 
processo se encontrar em controle estatístico, o gráfico irá servir de ferramenta para 
monitoramento. Sempre que algum ponto saia fora dos limites de controle ou que apresentem 
alguma tendência marcada de variação, o processo deverá ser interrompido e a razão de ser 
de tal ocorrência ser investigada uma vez que não vale a pena estar a produzir peças que 
provavelmente irão ter defeitos ou estar fora das especificações. Identificadas as causas 
especiais que levaram à ocorrência destes pontos fora de controle o processo deverá ser 
alterado por forma a contornar os problemas que as originaram. O ciclo recomeça novamente 
à medida que mais dados são recolhidos, interpretados e usados como base de atuação. 
Nesta fase, o processo poderá ser interpretado em termos da sua capacidade. Será 
então possível prever a performance do processo podendo, quer o produtor quer o cliente, 
confiar em níveis de qualidade consistentes e em custos estáveis para atingir esse nível de 
qualidade. 
Por outro lado, atingido o controle estatístico não se deve ficar por aí. Caso a variação 
oriunda das causas comuns seja excessiva, o resultado do controle do processo não irá de 
encontro às necessidades uma vez que o produto continuará a apresentar pouca 
homogeneidade. O processo em si deverá ser investigado e corrigido por forma a eliminar 
e/ou reduzir essas comuns e, para isso, tipicamente, uma atitude superior a nível das chefias 
deverá ser tomada para melhorar o sistema. O objetivo é que os produtos se tornem cada vez 
mais homogêneos e, consequentemente, que os limites de controle se tornem mais estreitos. 
Os gráficos de controle, que se apresentam assim como uma ferramenta de controle e 
de melhoria do processo, podem ser de dois tipos distintos: gráficos de controle para 
variáveis e gráficos de controle para atributos. 
 
 33 
3. O CICLO PDCA OU CICLO DE DEMING 
 
 
 
 
 
 
 
 
O PDCA é um método de gerenciamento de processos ou de sistemas. Ele é 
empregado a partir do reconhecimento de um PROBLEMA ou de uma OPORTUNIDADE 
encontrada numa análise a respeito de um objeto de interesse, seja um serviço, um produto, 
um processo, etc. 
Os termos do Ciclo PDCA têm o seguinte significado: 
 
(P) Planejamento – Consiste em (a) estabelecer metas e (b) estabelecer a maneira (o caminho, 
o método) para se atingir as metas propostas. Esta é a fase do estabelecimento da “diretriz de 
controle”. 
 
(D) Execução – Execução das tarefas exatamente como prevista no plano e coleta de dados 
para verificação do processo. Nesta etapa é essencial o treinamento no trabalho decorrente da 
fase de planejamento. 
 
(C) Verificação – A partir dos dados coletados na execução, compara-se o resultado 
alcançado com a meta planejada. 
 
(A) Atuação Corretiva – Esta é a etapa onde o usuário detectou desvios e atuará no sentido de 
fazer correções definitivas, de tal modo que o problema nunca volte a ocorrer. 
 
 
 
 
 
 
 
 34 
PDCA Fluxograma Fase Objetivo 
P 1 Identificação do 
problema 
Definir claramente o problema e 
reconhecer sua importância. 
2 Observação Investigar as características específicas do 
problema com uma visão ampla e sob 
vários pontos de vista. 
3 Análise Descobrir as causas fundamentais. 
4 Plano de ação Conceber um plano para bloquear as 
causas fundamentais. 
D 5 Ação Bloquear as causas fundamentais. 
C 6 Verificação Verificar se o bloqueio foi efetivo. 
? (Bloqueio foi 
efetivo?) 
 
A 7 Padronização Prevenir contra o reaparecimento do 
problema. 
8 Conclusão Recapitular todo o processo de solução do 
problema para trabalho futuro. 
 
 35 
 
 
PROCESSO 1 – IDENTIFICAÇÃO DO PROBLEMA 
Fluxo Tarefas Ferramentas empregadas Observações 
1 Escolha do 
problema 
Diretrizes gerais da área 
de trabalho (qualidade, 
custo, atendimento, 
moral, segurança) 
Um problema é o resultado indesejável de um trabalho (esteja certo de que o 
problema escolhido é o mais importante baseado em fatos e dados). Por exemplo: 
perda de produção por parada de equipamento, pagamentos em atraso, 
porcentagem de peças defeituosas, etc. 
2 Histórico do 
problema 
Gráficos, fotografias, 
utilize sempre dados 
históricos 
Qual a freqüência do problema? 
Como ocorre? 
3 Mostrar perdas 
atuais e ganhos 
viáveis 
Gráficos O que se está perdendo?(custo da qualidade) 
O que é possível ganhar? 
4 Fazer a análise de 
Pareto 
Análise de Pareto A Análise de Pareto permite priorizar temas e estabelecer metas numéricas viáveis. 
Subtemas podem também ser estabelecidos se necessário. Nota: Não se procuram 
causas aqui. Só resultados indesejáveis. As causas serão procuradas no Processo 3. 
5 Nomear 
responsáveis 
Nomear Nomear a pessoa responsável ou nomear o grupo responsável e o líder. 
Propor uma data limite pra ter o problema solucionado. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 36 
PROCESSO 2 – OBSERVAÇÃO 
Fluxo Tarefas Ferramentas 
empregadas 
Observações 
1 Descoberta das 
características do 
problema através 
da coleta de dados 
(Recomendação 
importante: 
Quanto mais 
tempo você gastar 
aqui mais fácil 
será para resolver 
o problema. Não 
salte esta parte!) 
Análise de Pareto 
 
1-Estratificação 
2-Folha ou lista de 
verificação 
Coleta de dados-5W1H 
3-Gráfico de Pareto 
Prioridades (Escolha o 
tema mais importante e 
retorne) 
Observe o problema sob vários pontos de vista (estratificação) 
(a) Tempo- os resultados são diferentes de manhã, à tarde, à noite, às segundas-feiras, 
feriados, etc.? 
(b) Local- os resultados são diferentes em partes diferentes de uma peça (defeitos no 
topo, na base, periferia)? Em locais diferentes (acidentes em esquinas, no meio da rua, 
calçadas), etc. ? 
(c) Tipo- os resultados são diferentes dependendo do produto, matéria-prima, do 
material usado? 
(d) Sintoma- os resultados são diferentes se os defeitos são cavidades ou porosidade, se 
o absenteísmo é por falta ou licença médica, se a parada é por queima de um motor ou 
falha mecânica, etc. ? 
(e) Indivíduo- Que turma? Que operador? 
5W1H-Faça as perguntas: o que, quem, quando, onde, por que e como, para coletar os 
dados. 
Construa vários tipos de gráficos de Pareto conforme os grupos definidos na 
estratificação 
2 Descoberta das 
características do 
problema através 
de observação no 
local 
 
Análise no local da 
ocorrência do problema 
pelas pessoas 
envolvidas na 
investigação 
Deve ser feita não no escritório, mas no próprio local da ocorrência, para coleta de 
informações suplementares que não podem ser obtidas na forma de dados numéricos. 
Utilize vídeos e fotos. 
3 Cronograma, 
orçamento e meta 
Fazer cronogramas e 
orçamentos 
Estimar um cronograma para referência. Este cronograma pode ser atualizado em cada 
processo. 
Estimar um orçamento 
Definir uma meta a ser atingida 
 
 
 
 37 
PROCESSO 3 – ANÁLISEFluxo Tarefas Ferramentas empregadas Observações 
1 Definição das 
causas influentes 
Tempestade cerebral (Brainstorm) 
e 
Diagrama de Ishikawa (espinha 
de peixe ou causa e efeito) 
Pergunta: Por que ocorre o 
problema? 
Formação do grupo de trabalho: Envolva todas as pessoas que possam contribuir 
na identificação das causas. As reuniões devem ser participativas. 
Diagrama de causa-e-efeito: Anote o maior número possível de causas. Estabeleça 
a relação de causa e efeito entre as causas levantadas. Construa o diagrama de 
causa e efeito colocando as causas mais gerais nas espinhas maiores e causas 
secundárias, terciárias, etc, ..., nas ramificações menores 
2 Escolha das causas 
mais prováveis 
(hipóteses) 
Identificação no diagrama de 
causa e efeito 
Causas mais prováveis: As causas assinaladas na tarefa anterior têm que ser 
reduzidas por eliminação das causas menos prováveis baseadas nos dados 
levantados no processo de observação. Aproveite também as sugestões baseadas na 
experiência do grupo e dos superiores hierárquicos. Baseado ainda nas 
informações colhidas na observação priorize as causas mais prováveis. 
Cuidado com efeitos “cruzados”: problemas que resultam de 2 ou mais fatores 
simultâneos. Maior atenção nestes casos. 
3 Análise das causas 
mais prováveis 
(verificação das 
hipóteses) 
Coletar novos dados sobre as 
causas mais prováveis usando a 
lista de verificação. 
Analisar dados coletados usando 
Pareto, Diagramas de dispersão, 
Histogramas e gráficos. 
Testar as causas. 
Visite o local onde atuam as hipóteses. Colete informações. 
Estratifique as hipóteses, colete dados utilizando as folhas de verificação para 
maior facilidade. Use o Pareto para priorizar, o Diagrama de dispersão (ou relação) 
para testar a correlação entre a hipótese e o efeito. Use o histograma para avaliar a 
dispersão e gráficos para verificar a evolução. 
Teste as hipóteses através de experiências. 
? Houve 
confirmação de 
alguma causa mais 
provável? 
 Com base nos resultados das experiências será confirmada ou não a existência de 
relação entre o problema (efeito) e as causas mais prováveis (hipóteses). 
? Teste de 
consistência da 
causa fundamental 
Existe evidência técnica de que é 
possível bloquear? 
O bloqueio geraria efeitos 
indesejáveis? 
Se o bloqueio é tecnicamente impossível ou se pode provocar efeitos indesejáveis 
(sucateamento, alto custo, retrabalho, complexidades, etc.) pode ser que a causa 
determinada ainda não seja a causa fundamental, mas um efeito dela. Transforme a 
causa no novo problema (F) e pergunte outro porque voltando ao início do fluxo 
deste processo 
 
 38 
PROCESSO 4 – PLANO DE AÇÃO 
Fluxo Tarefas Ferramentas empregadas Observações 
1 Elaboração da 
estratégia de 
ação 
Discussão com o grupo 
envolvido 
Certifique-se de que as ações serão tomadas sobre as causas fundamentais e não sobre 
seus efeitos. 
Certifique-se de que as ações propostas não produzam efeitos colaterais. Se ocorrerem, 
adote ações contra eles. 
Proponha diferentes soluções, analise a eficácia e custo de cada uma, escolha a melhor. 
2 Elaboração do 
plano de ação 
para o 
bloqueio e 
revisão do 
cronograma e 
orçamento 
final 
Discussão com o grupo 
envolvido 
5W1H. Cronograma. 
Custos. 
Defina o que será feito, quando será feito, quem fará, onde será feito, por que será feito 
e como será feito. 
Determine a meta a ser atingida e quantifique($, toneladas, defeitos, etc.) 
Determine os itens de controle e verificação dos diversos níveis envolvidos. 
PROCESSO 5 - AÇÃO 
1 Treinamento Divulgação do plano a 
todos. 
Reuniões participativas. 
Técnicas de treinamento. 
Certifique-se de quais ações necessitam da ativa cooperação de todos e dê especial 
atenção a estas ações. 
Apresente claramente as tarefas e a razão delas. 
Certifique-se de que todos entendem e concordam com as medidas propostas. 
2 Execução da 
ação 
Plano e cronograma. Durante a execução verifique fisicamente e no local em que as ações estão sendo 
efetuadas. 
Todas as ações e os resultados bons ou ruins devem ser registrados com a data em que 
foram tomados. 
 
 
 
 
 
 
 
 
 39 
PROCESSO 6 – VERIFICAÇÃO 
Fluxo Tarefas Ferramentas empregadas Observações 
1 Comparação dos 
resultados 
Pareto, gráficos de 
controle, histogramas 
Deve-se utilizar os dados coletados antes e após a ação de bloqueio para verificar a 
efetividade da ação e o grau de redução dos resultados indesejáveis. 
Os formatos usados na comparação devem ser os mesmos antes e depois da ação. 
Converta e compare os efeitos, também em termos monetários. 
2 Listagem dos efeitos 
secundários 
 Toda alteração do sistema pode provocar efeitos secundários positivos ou 
negativos. 
3 Verificação da 
continuidade ou não 
do problema 
Gráfico em função dos 
meses do ano 
Quando o resultado da ação não é tão satisfatório quanto o esperado, certifique-se 
de que todas as ações planejadas foram implementadas conforme o plano. 
Quando os efeitos indesejáveis continuam a ocorrer, mesmo depois de executada a 
ação de bloqueio, significa que a solução apresentada foi falha. 
? O bloqueio foi 
efetivo? 
Pergunta: a causa 
fundamental foi 
efetivamente encontrada 
e bloqueada? 
Utilize as informações levantadas nas tarefas anteriores para a decisão. 
Se a solução foi falha, então retorne ao Processo 2 (Observação) 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 40 
 
PROCESSO 7 – PADRONIZAÇÃO 
Fluxo Tarefas Ferramentas empregadas Observações 
1 Elaboração ou 
alteração do padrão 
Estabeleça o novo 
procedimento operacional 
ou reveja o antigo pelo 
5W1H 
Incorpore sempre que 
possível um mecanismo à 
prova de bobeira. 
Esclarecer no procedimento operacional o que, quem, quando, onde, como e 
principalmente por que, para as atividades que efetivamente devem ser incluídas 
ou alteradas nos padrões já existentes. 
Verifique se as instruções, determinações e procedimentos implantados no 
Processo 5 devem sofrer alterações antes de serem padronizados, baseado nos 
resultados obtidos no Processo 6. 
Use a criatividade para garantir o não reaparecimento dos problemas. Incorpore no 
padrão, se possível, o mecanismo “à prova de bobeira”, de modo que o trabalho 
possa ser realizado sem erro por qualquer trabalhador. 
2 Comunicação Comunicados, circulares, 
reuniões, etc. 
Evite possíveis confusões: estabeleça a data de início da nova sistemática, quais as 
áreas que serão afetadas para que a aplicação do padrão ocorra em todos os locais 
necessários ao mesmo tempo e por todos os envolvidos. 
3 Educação e 
treinamento 
Reuniões e palestras. 
Manuais de treinamento. 
Treinamento no trabalho. 
Garanta que os novos padrões ou as alterações nos existentes sejam transmitidas a 
todos os envolvidos. 
Não fique apenas na comunicação por meio de documento. É preciso expor a razão 
da mudança e apresentar com clareza os aspectos importantes e o que mudou. 
Certifique-se de que os funcionários estão aptos a executar o procedimento 
operacional padrão. 
Proceda o treinamento no trabalho no próprio local. 
Providencie documentos no local e na forma que forem necessários. 
4 Acompanhamento 
da utilização do 
padrão 
Sistema de verificação do 
cumprimento do padrão. 
Evite que um problema resolvido reapareça devido à degeneração no cumprimento 
dos padrões: 
Estabelecendo um sistema de verificações periódicas, 
Delegando o gerenciamento por etapas, 
O supervisor deve acompanhar periodicamente

Continue navegando