Baixe o app para aproveitar ainda mais
Prévia do material em texto
Universidade Estadual do Oeste do Paraná – UNIOESTE Controle de Qualidade Histórico da Qualidade, Ferramentas Básicas da Qualidade e o Ciclo PDCA Prof. Marcos Moreira Toledo – PR 2016 SUMÁRIO 1. Controle da Qualidade Total (TQC).................................................. 01 2. As 7 Ferramentas Básicas da Qualidade............................................ 13 3. O Ciclo PDCA ou Ciclo de Deming.................................................. 33 4. Aplicação do Ciclo PDCA: Um Estudo de Caso............................... 43 BIBLIOGRAFIA................................................................................. 64 “A responsabilidade pela qualidade de uma empresa é de todas as pessoas que nela trabalham, independentemente do posto que ocupam, do local onde estejam, ou do serviço que prestam”. (Kaoru Ishikawa) APRESENTAÇÃO Nesta apostila de introdução da disciplina de Controle de Qualidade da Engenharia Química apresenta-se no Capítulo 1 um histórico sobre QUALIDADE onde destacam-se as diversas definições de QUALIDADE e os principais pesquisadores sobre o assunto. No Capítulo 2 são apresentadas as sete ferramentas básicas da qualidade: - Fluxograma; - Diagrama de Pareto; - Diagrama de causa-e-efeito; - Ficha de Verificação; - Histograma; - Diagrama de Dispersão, e - o Gráfico de Controle. Essas últimas três são ferramentas estatísticas, ou seja, fazem parte do Controle Estatístico do Processo, área que será abordada detalhadamente mais à frente. No Capítulo 3 apresenta-se o ciclo PDCA ou ciclo de Deming, um sistema metódico para abordagens a problemas ou oportunidades. No Capítulo 4 apresenta-se um estudo de caso sobre a aplicação do PDCA; um projeto desenvolvido no período de 10/03/2012 a 08/03/2013, sob a coordenação do Prof. Marcos Moreira, visando a redução do consumo de energia elétrica na prefeitura de Toledo-PR. Prof. Marcos Moreira 1 1. CONTROLE DA QUALIDADE TOTAL (TQC) Conceito de Qualidade Por que razão o ser humano se organiza, constituindo empresas, escolas, clubes, hospitais, governos, etc.? Para responder imaginem a nossa condição humana: “Estamos vivendo na Terra que é um planeta aproximadamente esférico de metal líquido com cerca de 6400km de raio, cuja superfície é uma fina casca solidificada de 6km de espessura, o que corresponde a menos de um milésimo do seu raio. Giramos a uma velocidade supersônica em torno do Sol e todo este conjunto viaja para algum lugar desconhecido. Diante deste quadro, qual poderia ser o objetivo do ser humano na Terra, senão sobreviver da forma mais amena e agradável possível?” Pelo raciocínio acima, fica mais fácil responder à pergunta colocada inicialmente: - “o grande objetivo das organizações humanas é atender às necessidades do ser humano na sua luta pela sobrevivência na Terra”. Diante disto podemos também definir mais facilmente o que é qualidade. No contexto do que foi dito acima, um produto ou serviço de qualidade é aquele que atende perfeitamente, de forma confiável, de forma acessível, de forma segura e no tempo certo às necessidades do cliente. Estas coisas parecem evidentes e às vezes somos até levados a pensar que já as conhecíamos. No entanto por que um presidente de uma montadora americana afirmou: “ - ... nossos carros são tão bons quanto os dos japoneses. Como os senhores podem ver nesta tabela, o número de defeitos após a venda é o mesmo”. Este senhor possivelmente não entendeu ainda o que é qualidade, pois aparentemente ele pensa que qualidade é só ausência de defeitos. Não é difícil imaginar um automóvel sem defeitos, mas de um modelo ou preço que ninguém queira comprar. O verdadeiro critério da boa qualidade é a preferência do consumidor. É isto que garantirá a sobrevivência de sua empresa: a preferência do consumidor pelo seu produto em relação ao seu concorrente, hoje e no futuro. Para Deming, qualidade significa atender e, se possível, exceder as expectativas do consumidor. Para Crosby, qualidade significa atender às especificações. Para Taguchi, a produção, o uso e o descarte de um produto sempre acarretam prejuízos (perdas) para a sociedade; quanto menor for o prejuízo, melhor será a qualidade do produto. Exemplo: a produção de veículos leva à construção de siderúrgicas que poluem o ar com a emissão do CO; e, como se não bastasse, ao findar a vida útil, muitos de seus componentes ficam sem destino, por não serem recicláveis. Os prejuízos para a sociedade não se limitam aos prejuízos para o meio ambiente, mas incluem também todos os prejuízos diretos para os compradores do produto, tais como quebras inesperadas, consumo excessivo, mau posicionamento do freio de mão, etc. Há ainda quem defina a qualidade como o valor do bem – ou do serviço -, que quantifica o grau de satisfação do consumidor com respeito a vários quesitos, tais como preço, confiabilidade, durabilidade, estética, pontualidade, sabor, conforto, entre outros. Esse valor pode ser quantificado, por exemplo, por meio do seguinte procedimento: para cada quesito, o consumidor fixa um peso e dá uma nota; a soma ponderada das notas leva, então, ao valor do bem ou do serviço. 2 Montgomery cita as oito dimensões da qualidade: Desempenho, Confiabilidade, Durabilidade, Assistência Técnica, Estética, Características, Qualidade Percebida e Conformidade com Especificações. Para ele qualidade significa adequação para o uso. Outros definem qualidade como variabilidade zero. Outros ainda definem qualidade com o objetivo final sendo o cliente. Conceitos mais modernos de qualidade definem qualidade não apenas em relação aos clientes, aos métodos, ao ambiente, mas focam a empresa como um organismo que além das necessidades materiais tem necessidades espirituais. Produtividade, Como melhorar a produtividade A produtividade é vista como a razão entre o que a empresa produz e o que ela consome, ou seja, a razão entre o valor agregado ao seu produto e o seu custo de produção, ou ainda a razão entre o faturamento e os custos. Para melhorar a produtividade de uma empresa devemos melhorar os seguintes pontos: - Equipamentos e materiais (“Hardware”) - Procedimentos ou métodos, a maneira de fazer as coisas (“Software”) - Ser humano (“Humanware”) Para melhorar o “Hardware” precisamos de capital. Para melhorarmos os nosso métodos passamos necessariamente pela melhora do “Humanware”. Podemos melhorar o “Humanware” contratando pessoas bem-educadas ou educando os empregados. Portanto, considerando-se apenas os fatores internos de uma organização, a produtividade só pode ser aumentada pelo aporte de capital e pelo aporte de conhecimento. Competitividade Ser competitivo é ter a maior produtividade entre todos os seus concorrentes (produtividade como definida no item anterior). O que realmente garante a sobrevivência das empresas é a garantia de sua competitividade. No entanto, estas coisas estão todas interligadas: a garantia de sobrevivência decorre da competitividade, a competitividade decorre da produtividade e esta da qualidade (valor agregado). Antigamente pensava-seque salário baixo ou proximidade de matérias- primas ou recursos energéticos seriam o suficiente para garantir a vantagem competitiva. Hoje tem ficado cada vez mais claro que o componente INFORMAÇÃO (conhecimento que alimenta o “humanware”, que desenvolve o “software”) é de fato muito importante. Este conhecimento é o necessário para: - saber captar as necessidades dos clientes através de métodos e instrumentos cada vez mais sofisticados, - saber pesquisar e desenvolver novos produtos que melhor se adaptem àquelas necessidades, - saber pesquisar e desenvolver novos processos que garantam melhor qualidade de conformidade e custos mais baixos, - saber gerenciar sistemas administrativos que conduzam a maior produtividade, - saber comercializar e dar assistência técnica aos clientes. 3 Esta necessidade de conhecimento irá inevitavelmente conduzir as empresas a uma elevação do nível de qualificação da mão-de-obra como meio de aumentar a sua competitividade. Sobrevivência O mundo está passando por uma fase de mudanças muito rápidas. Estas mudanças têm trazido ameaça à sobrevivência das empresas em todo mundo pelos mais variados motivos (imagine-se proprietário de uma empresa): - seu produto perdeu atualidade pelo lançamento de um outro produto melhor e mais barato; - certos países, no desespero de conseguirem divisas, baixaram o preço internacional de seu produto fazendo com que sua empresa perdesse competitividade; - seus concorrentes já utilizam novos equipamentos que tornaram o seu processo ineficaz para o novo nível de qualidade e de tecnologia colocado no mercado; - certos países impõem exigências normativas difíceis de serem alcançadas com seu atual processo; etc. Esta é a condição característica da era em que vivemos: empresas até então aparentemente intocáveis podem, devido às rápidas mudanças, ter sua sobrevivência ameaçada. Todos nós conhecemos exemplos no Brasil e no exterior. É por este motivo que a preocupação atual da alta administração das empresas em todo mundo tem sido desenvolver sistemas administrativos (software) suficientemente fortes e ágeis de tal forma a garantir a sobrevivência das empresas. O objetivo do Controle da Qualidade Total é criar condições internas que garantam a sobrevivência das organizações a longo prazo. O conceito de sobrevivência da empresa a longo prazo decorre dos conceitos previamente discutidos. Garantir a sobrevivência de uma empresa é cultivar uma equipe de pessoas que saiba montar e operar um sistema, que seja capaz de projetar um produto que conquiste a preferência do consumidor a um custo inferior ao de seu concorrente. Estamos, pois, falando de QUALIDADE. A meta mais imediata de uma empresa é a sua sobrevivência à competição internacional. Toda empresa deve se comparar com o seu melhor concorrente do mundo e lutar para supera-lo. Não adianta se comparar com o terceiro ou quarto, ou com o melhor do país, pois será precisamente o melhor do mundo que irá desloca-lo dos melhores mercados. 1.1 As raízes da Qualidade: Um breve histórico Fisher Às vezes, quando ouvimos falar sobre uma empresa, parece até que estamos falando de uma plantação: as empresas novas nascem quando se plantam sementes de dinheiro. Os administradores regam com capital para que a fábrica cresça e cultivam mercados para colher lucros. No entanto, quando o assunto é qualidade, a agricultura recebe mais do que uma atenção metafórica. Na realidade, todo o movimento da qualidade, e a área da estatística em geral, é consequência da pesquisa agrícola – principalmente do gênio inglês R. A. Fisher. Com a maior parte da sua obra produzida nas duas primeiras décadas do século XX, antes de Fisher o problema das experiências com as colheitas era a imensa lentidão. De acordo com Blanton Godfrey, presidente do Instituto Juran, o principal limite da pesquisa agrícola é que os pesquisadores “só podem tentar uma vez por ano. Eles podem planejar um experimento durante todo o inverno, mas só podem executa-lo no verão”. Para acelerar a 4 criação de melhores métodos agrícolas, Fisher aperfeiçoou atalhos científicos por meio da seleção de uma quantidade imensa de dados a fim de determinar as principais relações de causa e efeito. Ele criou uma forma de organizar uma série de experimentos que, com um número incrivelmente pequeno de testes, revela as interações fundamentais entre múltiplos fatores variáveis – como diversas épocas de plantio e diferentes profundidades de colocação das sementes, formulações e quantidade de fertilizantes diferentes para diferentes níveis de irrigação. O equivalente numa fábrica seria o seguinte: há cerca de uma dezena de variáveis principais que afetam o desempenho da direção de um carro, desde a forma como as peças da coluna de direção se adaptam até a dureza dos amortecedores e molas. Para testar o que acontece quando um dos fatores muda, seriam necessários mais de 4 mil experimentos – algo proibitivo, tanto em termos de tempo quanto de dinheiro. “Mesmo assim, ainda não conheceríamos o efeito das interações”, ou o que acontece quando dois ou mais fatores mudam ao mesmo tempo, como observa Edward Fuchs, diretor de QUEST da AT&T Bell Labs. Para isso, seriam necessários 479 milhões de testes. Contudo, os métodos de Fisher podem detectar essas interações com apenas 14 testes – da mesma maneira que as pesquisas de opinião detectam a tendência de opinião de 130 milhões de brasileiros entrevistando menos de 3 mil pessoas. Shewhart A obra de Fisher nas primeiras duas décadas deste século eletrizaram Walter A. Shewhart, físico da AT&T Bell Labs, e ele decidiu tentar transformar os conceitos estatísticos empregados na pesquisa agrícola numa matéria da disciplina. Nos anos 30, Shewhart havia transformado os métodos de Fisher no controle estatístico da qualidade (CEQ), ou seja, a aplicação rigorosa da estatística para ajudar na localização e análise dos problemas da qualidade na linha de produção. Quase tão importante quanto isso foi a influência da Shewhart sobre W. Edwards Deming e J. M. Juran, que passaram a dedicar suas vidas à qualidade. Deming e Juran Durante mais de quatro décadas, Deming e Juran foram os nobres campeões da qualidade. Apesar dos seus caminhos se cruzarem e de manterem um certo ar de cordialidade sob a superfície, eram ferrenhos rivais. Deming, um dos especialistas enviados em 1946 para aconselhar na reindustrialização do Japão, foi o discípulo de Shewhart responsável pela conversão dos japoneses ao CEQ, e, portanto está acima de Juran, tanto em fama com em estatura física. Afinal, o “Prêmio Deming” do Japão recebeu o seu nome. Foi criado em 1951, logo após sua primeira turnê de conferências lá e rapidamente se transformou no mais cobiçado prêmio industrial dessa nação. Ainda um vigoroso maníaco por trabalho aos 90 anos, Deming tem um lendário temperamento cáustico, que se irrompe à mera sugestão de que as idéias de Juran tenham mais mérito ou permanecerão por mais tempo. “Não estou interessado em queima de fogos. É isso que Juran faz”, ele diz. “Estou criando um sistema de profundo conhecimento, que ainda vai ser bom daqui a cem anos.” Juran, quatro anos mais novo, é capaz de dar o troco. “Reconhecimento passou a ser a coisa mais importante na vida de Deming”, argumenta. “Mas o Prêmio Deming é muito mais importante do que ele – é como o Prêmio Nobel e Alfred Nobel.” Além da gravata-borboleta, sua marca registrada, Juran é mais conhecido por ser o mais antigo propagandista do controle total da qualidade (TQC), que amplia o CEQ, transformando-o numa filosofia abrangente de negócios, que pode ser praticada em toda a empresa.5 Os seguidores mais fiéis de Juran estão no Japão, primeiro local onde descreveu seu método, em 1954. Embora a dianteira de três anos de Deming lhe tenha dado mais fama, há uma linha de raciocínio bastante apoiada de que a influência de Juran tenha sido maior ao longo dos anos. Como o TQC é mais abrangente, “Juran foi mais importante para o Japão que Deming”, afirma Junji Noguchi, diretor executivo da Japonese Union of Scientists & Engineers (JUSE), que entra na briga contra Deming. “O CEQ só se aplica aos técnicos”, acrescenta. “Juran aplicou qualidade para todos, desde os gerentes até o pessoal da administração”. Em reconhecimento ao papel de Juran, em 1969 a JUSE propôs um superprêmio, a “Medalha Juran”, para os vencedores do “Prêmio Deming” que apresentassem uma melhoria contínua da qualidade durante cinco anos. Juran considera-o uma resposta descomprometida. Os japoneses consideram-no uma virada cortês. Portanto, o prêmio foi chamado de “Japan Quality Control Medal” ou, resumidamente, “Prêmio Japão”. Apesar das suas diferenças, Deming e Juran tiveram vidas paralelas. Ambos têm origem humilde. Deming nasceu em 1900, cresceu num barracão de zinco perto de Cody, Wyoming; Juran nasceu em 1904 e cresceu num barracão de zinco perto de Minneapolis, Minnesota. Ambos entraram no jogo da qualidade por acaso. Em meados dos anos 20, ambos eram funcionários da Western Electric Co., onde foram influenciados por Shewhart. Depois da Segunda Guerra Mundial, ambos se tornaram consultores autônomos. Deming ainda trabalhou sozinho em um escritório em Washington, D.C., embora rodeado de discípulos. Em meados dos anos 80, ele começou a gravar em fitas de vídeo palestras e debates com outros especialistas em qualidade. Essas fitas podem ser adquiridas na Films Inc. em Chicago e se tornaram uma das mais vendidas da companhia. Deming participou de várias cerimônias do “Prêmio Deming”, realizadas todos os anos no mês de outubro em Tóquio. Deming faleceu em 1994. Juran parou de trabalhar sozinho em 1979. Fundou o Instituto Juran para continuar a obra da sua vida e construiu uma biblioteca de fitas de vídeo e materiais de treinamento. Em 1989, ele saiu do Instituto Wilton, em Connecticut. Passou o bastão – na realidade, uma de suas gravatas-borboleta – para A. Blanton Godfrey, ex-diretor de teoria da qualidade na Bell Labs. Agora, ele trabalha principalmente em casa, na história da gestão da qualidade e em suas memórias dos dias em que ele e Deming deram início à revolução da qualidade. Apesar do movimento de controle de qualidade ter-se iniciado nos Estados Unidos por Shewhart, o Japão não perdeu tempo em ser o líder em qualidade. De fato, durante muitos anos, não teve concorrência: apesar da indústria americana ter usado o CEQ na Segunda Guerra Mundial, perdeu o interesse nos anos 50. Incentivados por Deming e Juran, os japoneses ficaram com a bola, começando a reconstruir suas indústrias destruídas pela guerra, e estão com ela desde então. Feigenbaum Feigenbaum foi o primeiro a introduzir o conceito de controle da qualidade por toda a companhia, em seu livro histórico “Total Quality Control” de 1951. Esse livro influenciou muitos dos princípios da filosofia da gerência de qualidade no Japão, no início dos anos 50. Na verdade, muitas companhias japonesas usaram o nome “Controle da Qualidade Total” para descrever seus esforços. Feigenbaum se preocupa mais com a estrutura organizacional e com uma abordagem de sistemas para a melhoria da qualidade do que com métodos estatísticos. Inicialmente, ele 6 sugeriu que a maior parte da capacidade técnica fosse concentrada em um departamento especializado. Isso contrasta com o ponto de vista mais moderno de que o conhecimento e o uso de ferramentas estatísticas devem se generalizar. No entanto, os aspectos organizacionais do trabalho de Feigenbaum são importantes, na medida em que a melhoria da qualidade não surge como uma atividade de base; requer muito compromisso da gerência para fazê-la funcionar. Segundo Montgomery, todos esses 3 pioneiros (Deming, Juran e Feigenbaum) acentuam a importância da qualidade como uma arma competitiva essencial, o papel importante que a gerência deve ter na implementação da melhoria da qualidade e a importância das técnicas e métodos estatísticos na “transformação da qualidade” de uma organização”. Deming e Juran acreditam que a maior parte (80%) das oportunidades para a melhoria da qualidade pode ser tratada apenas pela gerência, e que uma pequena proporção dessas oportunidades (20%) pode ser tratada ao nível da força de trabalho. Taguchi Um dos motivos pelos quais os japoneses detêm a liderança é o trabalho de Genichi Taguchi, um engenheiro que, após a Segunda Guerra, acrescentou algumas novidades às idéias de Fisher. Desde então, ele entrou para o grupo seleto dos mestres da qualidade e seu método passou a fazer parte da formação em Engenharia no Japão. O credo de Taguchi consiste em criar produtos tão “robustos” que eliminariam da produção as flutuações aleatórias que poderiam ocasionar defeitos. Por exemplo, um forno pode produzir ladrilhos deformados em decorrência de umidade e variações bruscas de temperatura. Em vez de colocar mais dinheiro na fábrica, Taguchi, um consultor da Ohken Associates em Tóquio, alteraria os ingredientes da argila. Ele também acha que princípios de projeto robusto devem ser usados para criar produtos que possam suportar o mau uso. “Para melhorar a qualidade, é preciso olhar para a frente no estágio do projeto”, ele diz. “No nível do cliente, já é tarde demais”. Parece simples, mas não é. Taguchi identifica as variáveis controláveis e não- controláveis que têm maior probabilidade de afetar a qualidade. Em vez de utilizar os métodos de tentativa e erro, ele usa algumas mágicas estatísticas para desenvolver um experimento, a fim de encontrar a combinação mais forte dessas variáveis – por exemplo, a melhor temperatura de processamento e os ingredientes principais que têm maior probabilidade de dar certo, quase sem se importar com o que mais pode dar errado. Fábricas de autopeças como a Nippondenso Co., por exemplo, testam as variáveis para produzir peças eletrônicas. Quando um gerente do controle da qualidade quis produzir um resistor menor, escolheu cinco diferentes propriedades que poderiam afetar o desempenho, incluindo espessura, poder de explosão e temperatura da têmpera. Em seguida escolheu 3 níveis para avaliar esses parâmetros. Usando estatística, ele foi capaz de criar 18 testes que lhe dariam as mesmas informações sobre desempenho que os 243 que seriam necessários para testar cada uma das cinco propriedades nos 3 níveis – e que lhe mostraram qual combinação de fatores pode originar o resistor mais robusto. O trabalho extra é compensado mais tarde por menos despesas com consertos e mais fidelidade dos clientes. Taguchi também diz que se deve tentar atingir uma meta de desempenho por vez, no lugar de se estar satisfeito em ficar dentro de uma certa margem. Qualquer desvio, acredita ele, provoca o risco de despesas evitáveis com reparos, garantia e a não repetição de compras por clientes insatisfeitos. Ele sugere que os fabricantes devem produzir um item melhor desenvolvido e mais preciso do que o que prometeram ao público, de forma que ele possa funcionar apesar do uso impróprio ou abuso. Assim, por exemplo, uma fábrica de relógios que garante uma variação de dez segundos por mês na realidade deve procurar fazer 7 com que os seus relógios tenham uma variação de três segundos – levando em conta uma folga de sete segundos para um uso imprevisível por parte do cliente. A maior vantagem da filosofia de Taguchi pode serverificada no estágio de projeto. A Fuji Xerox aplicou seus métodos na copiadora 3500 no final da década de 1970, reduzindo o tempo de desenvolvimento dos cinco anos previstos para dois anos. Mais tarde, os engenheiros continuaram com esse método na alimentadora de papel da copiadora mais rápida da empresa, a FX-7700. O projeto é tão robusto que pode lidar facilmente com o papel reciclado, mais grosso, enquanto alguns concorrentes tiveram de redesenvolver suas máquinas. Os soldados da Guerra do Golfo também têm uma dívida de gratidão para com as técnicas de projeto de Taguchi. No meio da areia, explorando as tropas iraquianas, os americanos tinham total confiança nos óculos de visão noturna. Mas essa vantagem não ocorreu tão facilmente. Em 1989, seu produtor, a ITT Corp.’s Electro-Optical Products Division, lutara com problemas de vazamento na selagem das telas de fósforo dos óculos. A ITT resolveu o problema, decorrente de variações de um componente de selagem cerâmico, com os métodos de Taguchi. Esses conceitos começaram a tomar forma em 1950, quando Taguchi foi recrutado por um laboratório de pesquisa criado pelo general Douglas MacArthur na ocupação pós- guerra para ajudar a arrumar o caótico sistema telefônico do Japão. Ele prontamente acabou com o tempo e o dinheiro gastos nos experimentos de tentativa e erro. Suas ferramentas estatísticas para desenvolver experimentos ganharam o “Prêmio Deming” para indivíduos em 1960 e ele ganhou mais três “Deming” por pesquisas realizadas. Suas lições ajudaram produtores de primeira linha, tais como Hitachi Ltda., NEC e Toshiba, além de concorrentes americanas. Taguchi era pouco conhecido nos Estados Unidos até 1983, quando a Ford Motor Co. começou a ensinar seus métodos para os engenheiros e estes aos fornecedores. À medida que sua abordagem tornou-se mais famosa e outras empresas pediam para enviar pessoas para dar treinamento, a Ford criou em 1984 o American Supplier Institute Inc., em Dearborn, Michigan, que atualmente dá cursos para milhares de engenheiros e presta consultoria a empresas como a Uniroyal Chemical Co., Polaroid Corp. e AT&T Bell Labs. Não muito tempo depois que Deming, Juran e Taguchi começaram a introduzir suas teorias de controle da qualidade na cultura corporativa japonesa, uma conclusão da JUSE em 1953 galvanizou as idéias díspares numa filosofia coerente que poderia ser usada em qualquer nível de uma organização. A JUSE decidiu que inspetores da qualidade do tipo dos Estados Unidos eram supérfluos e contraproducentes. A qualidade deveria ser responsabilidade de todos os empregados, pois atribuí-la a um grupo incentivava todos os demais a ignorá-la. A ligação da JUSE com Deming fez com que ela obtivesse a reputação de matriz do controle da qualidade do Japão, e sua proclamação logo ganhou muitos seguidores. “Aprendemos com Deming que os especialistas não são necessários”, afirma Noguchi, da JUSE. Essa idéia ajudou a gerar os círculos de controle da qualidade (CCQ), uma invenção feita em 1962 por Kaoru Ishikawa, professor da Universidade de Tóquio. “No Japão faltavam engenheiros, mas os operários eram bem treinados e cooperavam com a administração. Portanto, podiam ser ensinados a aplicar técnicas de controle de qualidade”, recorda Noguchi. A noção de que todos no local de trabalho são responsáveis pela qualidade – o foco central na abordagem de Juran – foi a base para o controle total da qualidade, que estendeu a disciplina do chão da fábrica para toda a empresa. A partir de 1964, a utilização bem- sucedida do TQC tornou-se pré-requisito para conseguir o “Prêmio Deming”. “É por isso que ganhar o prêmio ficou tão difícil: é preciso aplicar qualidade em toda a companhia”, conta Noguchi. A Komatsu Ltda., produtora de tratores, foi a primeira a vencer sob as novas regras. A Toyota Motor Corp. foi a segunda, em 1965. 8 1.2 Linha do Tempo dos Métodos de Qualidade 1700-1900 A qualidade é grandemente determinada pelos esforços de um artesão individual. Eli Whitney introduz partes padronizadas, intercambiáveis para simplificar a montagem. 1875 Frederick W. Taylor introduz os princípios do “Gerenciamento Científico” focalizando-se na produtividade. 1900-1930 Henry Ford – a linha de montagem – Ford desenvolveu os conceitos erro-prova da montagem, a auto-inspeção, e a inspeção durante o processo 1915-1919 WWI – O governo britânico inicia um programa de certificados ao fornecedor 1922-1923 R. A. Fisher publica uma série de artigos fundamentais sobre planejamento de experimentos e suas aplicações às ciências da agricultura. 1924 W. A. Shewhart introduz o conceito de gráfico de controle em um memorando técnico do Bell Laboratories 1939-1945 Os conceitos estatísticos de qualidade são utilizados pelo U.S. War Department. 1946 Deming vai para o Japão. Formam-se a ASQC (Sociedade Americana para o Controle da Qualidade) e JUSE (União Japonesa de Cientistas e Engenheiros) 1948 O professor Taguchi inicia o estudo e a aplicação do planejamento de experimentos 1950 O professor Ishikawa introduz o diagrama de causa-e-efeito. 1951 O professor Feigenbaum publica a primeira edição do seu livro “Total Quality Control”. 1951 G.E.P. Box e K.B. Wilson publicam trabalho fundamental sobre o uso de experimentos planejados e a metodologia da superfície de resposta para a otimização de processo. 1954 Juran é convidado pelos japoneses para conferências em gerenciamento e melhoria da qualidade. O estatístico britânico E. S. Page introduz o gráfico de controle da soma cumulativa (CUSUM). 1960 Box e Hunter escrevem artigos fundamentais sobre planejamento fatorial fracionado 1975-1978 Começam a surgir livros de planejamento de experimentos voltados para engenheiros e cientistas. Anos 80 O planejamento experimental é adotado por muitas empresas. 1989 Começa a iniciativa seis-sigma da Motorola. Anos 90 Crescem as certificações ISO 9000 nos EUA 1997 A abordagem seis-sigma da Motorola se espalha para outras indústrias. 9 1.3 Os 14 pontos da Filosofia de Deming para a melhoria da qualidade e da produtividade 1) Crie uma constância de propósitos focada na melhoria de produtos e serviços. Tente, constantemente, melhorar o projeto e o desempenho do produto. Investimentos em pesquisa, desenvolvimento e inovação trarão retorno a longo prazo para a organização. 2) Adote uma nova filosofia de rejeição de acabamento pobre, produtos defeituosos ou mau serviço. O custo para produzir uma unidade defeituosa é o mesmo para produzir uma unidade boa (ou, às vezes, maior). O custo de lidar com sucata, retrabalho e outras perdas criadas pelos itens defeituosos é um enorme gasto de recursos da companhia. 3) Não confie em inspeção de massa para “controlar” a qualidade. Tudo que a inspeção pode fazer é separar os defeituosos e, a essa altura, é muito tarde, pois já pagamos para produzir esses defeituosos. A inspeção, tipicamente, ocorre muito tarde no processo, é dispendiosa e, em geral, ineficaz. A qualidade resulta da prevenção de itens defeituosos através de melhoria no processo, e não de inspeção. 4) Não premie os fornecedores com a realização de negócios com base apenas no preço, mas considere, também, a qualidade. O preço é uma medida significativa do produto do fornecedor apenas se é considerado em relação a uma medida de qualidade. Em outras palavras, o custo total do item deve ser considerado, e não apenas o preço de venda. Quando a qualidade é considerada, o licitante que oferece menos não é, frequentemente, o fornecedor de menor custo. Deve-se dar preferência aos fornecedores que usam métodosmodernos de melhoria da qualidade em seus negócios e que podem demonstrar controle e capacidade do processo. 5) Concentre-se no aprimoramento contínuo. Tente, constantemente, melhorar o sistema de produção e serviço. Envolva a força de trabalho nessas atividades e faça uso de métodos estatísticos, particularmente as ferramentas de resolução de problemas estatisticamente embasadas. 6) Ponha em prática os métodos de treinamento modernos e treine todos os empregados. Todos devem ser treinados nos aspectos técnicos de seu trabalho, bem como nos métodos modernos de melhoria da qualidade e produtividade. O treinamento deve encorajar todos os empregados a praticar esses métodos todos os dias. 7) Ponha em prática os métodos modernos de supervisão. A supervisão não deve consistir meramente em uma vigilância passiva dos empregados, mas deve se concentrar em ajudar os empregados a melhorar o sistema no qual trabalham. O objetivo n o 1 da supervisão deve ser melhorar o sistema de trabalho e o produto. 8) Afaste o medo. Muitos empregados têm medo de fazer perguntas, relatar problemas, ou apontar condições que são barreiras para a qualidade e produção efetiva. Em muitas organizações, a perda econômica associada ao medo é grande; apenas o gerenciamento pode eliminar o medo. 9) Quebre as barreiras entre áreas funcionais do negócio. O trabalho de equipe entre diferentes unidades da organização é 10 essencial para que aconteça a efetiva melhoria da qualidade e da produtividade. 10) Elimine alvos, slogans e objetivos numéricos para os empregados. Um alvo como “zero defeito” é inútil sem um plano para a consecução de tal objetivo. Na verdade, tais slogans e programas são contraproducentes. Trabalhe para melhorar o sistema e forneça informação sobre isso. 11) Elimine quotas numéricas e padrões de trabalho. Esses padrões têm sido, historicamente, estabelecidos sem considerar a qualidade. Os padrões de trabalho são, em geral, sintomas de incapacidade da gerência de entender o processo de trabalho e de propiciar um sistema de gerenciamento efetivo centrado na melhora deste processo. 12) Remova as barreiras que desencorajam os empregados a fazerem seus trabalhos. A gerência deve ouvir as sugestões, comentários e reclamações dos empregados. A pessoa que está executando uma tarefa é quem sabe mais sobre ela e, em geral, tem idéias valiosas sobre como fazer o processo funcionar mais efetivamente. A força de trabalho é um participante importante no negócio, e não apenas um oponente nas negociações coletivas. 13) Institua um programa permanente de treinamento e educação para todos os empregados. Educação em técnicas estatísticas simples, mas poderosas, deveria ser obrigatória para todos os empregados. O uso das ferramentas básicas do CEP para resolução de problemas particularmente o gráfico de controle, deve se tornar comum na empresa. Na medida em que esses gráficos se espalham e que os empregados entendem seu uso, é mais provável que esses empregados procurem as causas da baixa qualidade e identifiquem as melhorias no processo. A educação é uma maneira de tornar todos parceiros no processo de melhoria da qualidade. 14) Crie uma estrutura no nível mais alto da gerência que defenderá, com vigor, os 13 primeiros pontos. 11 1.4 International Standards Organization (ISO) A International Standards Organization (ISO – Organização Internacional de Padrões) desenvolveu uma série de padrões de qualidade, incluindo a série ISO9000, que é também um padrão do American National Standards Institute e da ASQ. O foco desses padrões é a qualidade do sistema, incluindo componentes tais como: 1. Responsabilidade da gerência pela qualidade 2. Controle do planejamento 3. Controle de documentos e dados 4. Gerência de compras e contratos 5. Identificação e rastreamento do produto 6. Inspeção e teste, incluindo o controle de medidas e inspeção de equipamento 7. Controle do processo 8. Trato de produtos não-conformes, ações corretivas e preventivas 9. Manuseio, estocagem, embalagem e entrega do produto, incluindo atividades de revisão 10. Controle dos registros de qualidade 11. Auditorias internas 12. Treinamento 13. Metodologia estatística 1.5 Custo da Qualidade (prevenção, avaliação, falha interna e falha externa) O monitoramento dos processos, se realizado de forma inteligente, implica em custos que se pagam facilmente, pois qualidade agrega valor. Os custos com a qualidade são organizados em quatro categorias: custos de prevenção, custos de avaliação, custos de falhas internas e custos de falhas externas. Os custos de falhas externas são os que ocorrem quando da venda de produtos ou serviços que não atendem às especificações, ou seja, são os custos de substituições, de assistência técnica, e mesmo de perda de clientes. Os custos de falhas internas englobam os custos com itens não conformes descobertos antes de chegarem ao consumidor, como os custos de retrabalhos, de refugos e de ações corretivas. Os custos com as atividades de prevenção contra a ocorrência de não- conformidades são classificados como custos de prevenção. De acordo com essa classificação, custos com o treinamento de pessoal ou com o monitoramento de processos são custos de prevenção. Os custos advindos de atividades estabelecidas com o propósito de avaliar a observância das especificações são classificados como custos de avaliação. Branco-falhas externas/Verde-falhas internas/Azul-avaliação/Amarelo-prevenção 12 Ronald Aylmer Fisher (1890-1962), estatístico inglês Walter Andrew Shewhart (1891- 1967), físico, engenheiro e estatístico americano William Edwards Deming (1900 – 1993), professor e estatístico americano Joseph Moses Juran (1904 – 2008), engenheiro e consultor romeno. Armand Vallin Feigenbaum (1922- ) consultor americano em Controle de Qualidade Genichi Taguchi (1924 - 2012), engenheiro e estatístico japonês. Kaoru Ishikawa (1915 – 1989), professor japonês 13 2. AS 7 FERRAMENTAS BÁSICAS DA QUALIDADE A Estatística é uma ferramenta muito utilizada para o ESTUDO DOS MAIS DIFERENTES TIPOS DE SISTEMAS. Ferramentas estatísticas são usadas para testar teorias contra dados empíricos. A Estatística é a ciência que coleta, organiza, analisa, interpreta e apresenta dados. Alguns especialistas preferem chamar a estatística de CIÊNCIA DOS DADOS, uma trilogia de tarefas envolvendo modelagem de dados, análise e tomada de decisão. Uma variável estatística é uma medida, apresentada como um número, usada para resumir um conjunto de dados amostrais. Como exemplo podemos pensar na altura média dos alunos de uma sala de aula. As ferramentas estatísticas são utilizadas na indústria por se ter a consciência que ao remover as causas dos problemas se obtém uma maior produtividade e que a resolução de problemas utilizando técnicas gráficas e específicas produz melhores resultados do que os processos de procura não estruturados. Tais técnicas, que permitem saber onde estão os problemas, qual a sua importância relativa e que alterações irão provocar os efeitos desejados, podem ser divididas em quatro grupos distintos: a) As 7 Ferramentas básicas da Qualidade (também conhecidas pelas “seven QC tools”) − Fluxograma − Diagrama de Pareto − Diagrama de Ishikawa ou de Causa e Efeito − Folha de verificação − Histograma− Diagrama de dispersão − Gráfico de controle b) Ferramentas intermédias − Técnicas de amostragem − Inferência estatística − Métodos não paramétricos 14 c) Ferramentas avançadas − Métodos de Taguchi (desenho de experiências) − Análises multi-variáveis − Análise de séries temporais − Técnicas de investigação operacional d) Ferramentas de planejamento − Desenvolvimento da função qualidade (QFD) − Análise modal de falhas e efeitos (AMFE) 2.1 Fluxograma O fluxograma (ou flowsheet) é uma das primeiras ferramentas a utilizar quando se pretende estudar um processo. Trata-se de um diagrama sistemático que pretende representar de uma forma bastante simples, ordenada e facilmente compreensível as várias fases de qualquer procedimento, processo de fabrico, funcionamento de sistemas ou equipamentos, etc., bem assim como as relações de dependência entre elas. Estes diagramas são constituídos por passos sequenciais de ação e decisão, cada um dos quais representado por simbologia própria que ajuda a compreender a sua natureza: início, ação, decisão, etc. 15 2.2 Diagrama de Pareto Foi no século passado, ao analisar a sociedade, que o economista italiano Alfredo Pareto concluíu que grande parte da riqueza se encontrava nas mãos de um número reduzido de pessoas. A partir desta observação, e por tal conclusão poder ser generalizada a muitas áreas da vida quotidiana, foi estabelecido o designado método de análise de Pareto, também chamado método ABC ou dos 20-80%. De uma forma sucinta, este método diz-nos que a grande maioria dos efeitos é devida a um número reduzido de causas. A grande aplicabilidade deste princípio à resolução dos problemas da qualidade reside precisamente no fato de ajudar a identificar o reduzido número de causas que estão muitas vezes por trás de uma grande parte dos problemas e variações que ocorrem. Uma vez identificadas dever-se-à proceder à sua análise, estudo e implementação de processos que conduzam à sua redução ou eliminação. O princípio de Pareto pode ser usado para diferentes tipos de aplicações em termos de qualidade. Assim, uma vez que os problemas da qualidade aparecem normalmente sobre a 16 forma de perdas (items defeituosos e seus custos), é de extrema importância tentar esclarecer o porquê da sua ocorrência. A análise de Pareto diz que, em muitos casos, a maior parte das perdas que se fazem sentir são devidas a um pequeno número de defeitos considerados vitais (vital few). Os restantes defeitos, que dão origem a poucas perdas, são considerados triviais (trivial many) e não constituem qualquer perigo sério. Por outro lado, este princípio pode também ser aplicado à redução dos custos de defeitos. Tais custos compõem-se principalmente do custo das reparações e das rejeições devidos a defeitos nos produtos em curso de fabrico ou devolvidos pelos clientes. Mais uma vez o que se verifica é que uma pequena porção (cerca de 20%) dos produtos defeituosos ou do número de defeitos de uma mesma produção é muitas vezes responsável pela maior parte (cerca de 80%) do custo global dos defeitos, quer ao nível da empresa, quer ao nível do produto considerado. É na detecção das 20% das causas que dão origem a 80% dos efeitos que o que o diagrama de Pareto se revela uma ferramenta muito eficiente. Trata-se de uma representação gráfica ordenada na qual, para cada causa se representa, sob a forma de barras, a respectiva consequência (nº. de defeitos, custo, etc.). A elaboração deste tipo de diagrama pode ser sistematizada da seguinte forma: 1. decidir o tipo de problema a ser investigado (exº: nº. de items defeituosos, perdas em valores monetários, ocorrência de acidentes); 2. identificar e listar o tipo de causas que lhe dá origem (exº. processo, máquina, operador, método); 3. recolher dados e, para cada tipo de causa, registar o nº. de vezes que estes contribuem para o efeito em questão; 4. ordenar as causas por ordem decrescente da respectiva frequência começando pela classe com maior frequência. Se várias das causas apresentarem uma frequência de ocorrência de defeitos muito baixa quando comparadas com as outras, elas poderão ser reunidas numa única classe denominada “outros”; 5. construir um diagrama de barras por esta ordem decrescente; 6. desenhar a curva acumulada (curva de Pareto) ao unir com segmentos de reta os valores percentuais acumulados até cada item; 7. descobertas as causas das não-conformidades mais importantes há depois que tomaras ações corretivas apropriadas para as eliminar. Veja o exemplo a seguir da construção do diagrama de Pareto. 17 2.3 Diagrama de causa-efeito (Ishikawa, espinha de peixe) O diagrama de causa-efeito, também chamado diagrama de Ishikawa (por ser esse o nome da pessoa que primeiro o usou) ou de espinha de peixe (por ser esta a forma que apresenta), é uma ferramenta simples muito utilizada em qualidade. Trata-se de um processo que permite a identificação e análise das potenciais causas de variação do processo ou da ocorrência de um fenómeno, bem assim como da forma como essas causas interagem entre si. Este tipo de diagrama mostra a relação entre a característica da qualidade em questão e essas causas que podem, usualmente, ser de 6 naturezas diferentes (também designadas por 6 M’s): mão-de-obra, máquinas, matéria-prima, métodos, meio-ambiente, medidas. Casos há, no entanto, em que são de uma outra natureza qualquer. 18 O procedimento a seguir para elaborar um diagrama deste tipo pode ser sistematizado da forma seguinte: 1. Determinar a característica de qualidade cujas causas se pretendem identificar; 2. Através da investigação e discussão com um grupo de pessoas (brainstorming),determinar quais as causas que mais diretamente afetam essa característica, isto é, aquelas que têm uma influência direta no problema a ser resolvido (causas primárias ou causas de nível 1); 3. Traçar o esqueleto do diagrama colocando, numa das extremidades, a característica da qualidade em questão. A partir desta deverá partir ‘a espinha do peixe’, isto é, uma linha horizontal de onde deverão irradiar as ramificações com as causas consideradas como primárias; 4. Identificar as causas (secundárias ou causas de nível 2) que afetam as causas primárias anteriormente identificadas, bem assim como aquelas (causas terciárias) que afetam as causas secundárias, etc. Cada um destes níveis irá constituir ramificações nas causas de nível imediatamente inferior. Veja o exemplo abaixo de aplicação do diagrama de causa e efeito para o excesso de consumo de combustível de um automóvel. 19 Um outro tipo de diagrama de causa e efeito que se pode construir é o diagrama de classificação do processo. Tal consiste em, a partir do diagrama de fluxo do processo em causa, ir identificando para cada fase todas as potenciais causas ou características que influenciam a qualidade. A combinação dos diagramas de Causa e Efeito diagramas de Pareto revela-se extremamente útil na resolução de problemas. 2.4 Diagrama de barras ou histograma A análise dos dados recolhidos ao longo de qualquer processo irá permitir avaliar a forma como este está a decorrer, bem assim como tirar conclusões sobre ele. No entanto, caso o número dos dados recolhidos seja grande, o seu tratamento e análise tornar-se-à difícil amenos que se recorra a métodos que permitam a sua fácil ordenação e apresentação. Os histogramas apresentam-se como um método de simples elaboração que, através da representação gráfica do número de vezes que determinada característica oufenômeno ocorre (distribuição de frequência), permitem obter uma impressão visual objetiva sobre a dispersão e localização dos valores recolhidos e, caso a amostra seja representativa, da totalidade da população. Tais diagramas podem assim ser utilizados para o controlo e melhoria do processo. A construção dos histogramas passa pelas seguintes fases: 1. obtenção dos valores; 2. cálculo da amplitude total da amostra; 3. caso necessário, divisão em classes e cálculo da amplitude e limites de cada classe; 4. determinação da frequência (absoluta ou relativa) de cada valor ou classe; 5. para cada valor da característica, desenhar uma barra cuja altura seja proporcional à frequência com que esse valor ocorre. As barras correspondentes a valores consecutivos devem estar todas unidas e todas elas apresentam normalmente larguras semelhantes. 20 Exemplo. Construir um histograma que represente o número de clientes de um dado restaurante ao longo de 15 dias Tabela de frequência Histograma de frequências absolutas 21 Histograma de frequência acumulada A forma dos histogramas de frequências absolutas e de frequências relativas, assim como os de frequências absolutas acumuladas e frequências relativas acumuladas são iguais. A única diferença reside na escala de valores abrangida. Para o exemplo considerado anteriormente os valores das frequências relativas e relativas acumuladas encontram-se já marcados na tabela de frequências. Histograma de frequências relativas 22 Histograma de frequências relativas acumuladas A utilização de classes (intervalos de valores) é comum quando as variáveis são do tipo contínuo ou quando a amplitude dos valores é muito grande. No primeiro dos casos torna-se muito difícil a contagem da frequência com que cada valor ocorre, enquanto que no segundo se corre o risco de perder a definição da forma da distribuição devido ao grande número de valores com frequências muito semelhantes. Os intervalos das classes são usualmente de igual amplitude por forma a que a altura das barras seja proporcional à frequência que representam. Um dos aspectos a ter em conta no estabelecimento das classes é que se deverá sempre garantir que o limite inferior da primeira classe seja menor ou igual ao menor dos valores observados, da mesma forma que o limite superior da última classe deverá ser maior ou igual ao maior dos valores observados. Por outro lado, deverá ficar desde logo estabelecido se os limites das classes são inclusivos ou exclusivos, isto é, cada valor só poderá pertencer a um único intervalo, razão pela qual se os limites superiores das classes forem fechados (i.e. o máximo dos valores encontra-se incluído nesse intervalo), os limites inferiores das classes que a sucedem deverão ser abertos e vice- versa. Não existem regras exatas sobre a forma de determinar o número e a amplitude das classes a considerar. Como referência, sendo N o número total de dados, poder-se-ão utilizaras fórmulas seguintes para a determinação do número aproximado de classes: 2log log 1_ N classesn ou 23 Nclassesn _ sendo depois a amplitude de cada classe calculada através da fórmula: classesn mínimovalormáximovalor amplitude _ __ Outra forma possível será determinar o número de classes em função do número total de dados recorrendo à tabela seguinte Exercício. Construa o histograma das frequências absolutas e frequências absolutas acumuladas que represente a variação do diâmetro de uma peça. 24 fr eq uê nc ia a bs ol ut a diâmetro (cm) fr eq uê nc ia a bs ol ut a ac um ul ad a diâmetro (cm) 25 É possível obter informações úteis sobre a população pela análise da forma do histograma. No que diz respeito à centralidade, podemos considerar os diagramas de tendência central representados na figura a seguir. Neste tipo de representações (muitas vezes simétricas) a maior frequência corresponde ao valor médio que se encontra centrado relativamente aos restantes dados. Tendências não centrais podem ser observadas nos histogramas representados nas figuras (c) e (d). O primeiro destes apresenta uma tendência assimétrica do tipo negativo (deslocado para a direita) verificando-se que a diminuição da frequência é abrupta para a direita e mais lenta para o lado esquerdo. Tendências assimétricas do tipo positivo correspondem a histogramas deslocados para a esquerda. Na figura (d) encontra-se representado um histograma truncado. Neste tipo de histogramas o valor ou classe à qual corresponde a maior frequência coincide com uma das extremidades do histograma. Na figura (b) encontra-se representada um histograma multi-modal (i.e. apresenta mais do que um valor máximo) também conhecido como histograma do tipo pente. Estes histogramas são particularmente importantes uma vez que podem indicar que aí estão representadas duas populações distintas, cada uma das quais apresentando distribuições de frequências que se sobrepõem mas que apresentam máximos não coincidentes. Quando as frequências dos valores ou classes são mais ou menos idênticas, o histograma pode ainda tomar um aspecto achatado. Se se estiver a trabalhar com classes, o ideal neste tipo de situações será tentar redifinir os intervalos por forma a conseguir procurar uma forma no 26 histograma com base na qual seja possível tirar conclusões. É ainda de referir a possibilidade de surgir nos histogramas um pico isolado. Tal é comum quando se verifica uma pequena inclusão de dados provenientes de uma distribuição diferente que podem, por exemplo, ser devidos à ocorrência de causas especiais no processo conducentes a valores atípicos. Em termos de dispersão, os valores podem ser bastante concentrados em torno do valor com maior frequência (veja a figura (a) a seguir) ou, alternativamente, apresentar uma grande dispersão em torno dele (figura (b) a seguir). Tal como anteriormente referido, é importante que o produto apresente características o mais uniformes possível pelo que há que continuamente tentar reduzir a variabilidade do processo. Desta forma, será possível concluir que é de todo o interesse que os histogramas apresentem uma forma semelhante ao da Figura (a) em que a amplitude dos valores observados é pequena. Histogramas semelhantes ao da Figura (b) querem dizer que existe ainda um grande número de causas comuns a afetar o processo, causas essas que precisam ser reduzidas e eliminadas. 2.5 Diagrama de dispersão Na prática é muitas vezes importante verificar se duas variáveis (por exemplo, concentração e pH) estão ou não relacionadas e, caso positivo, qual o tipo de relação que existe entre elas. Os diagramas de dispersão tornam-se uma ferramenta extremamente poderosa para atingir esse objetivo. Caso exista, essa relação é usualmente do tipo causa/efeito não sendo, no entanto possível, através dos diagramas de dispersão, identificar qual das variáveis é a causa e qual é o efeito. A construção destes diagramas passa por recolher os pares de dados (x,y) entre os quais se pretende analisar a relação, organizar esses dados numa tabela, encontrar os valores máximos e mínimos para x e para y, marcar as escalas respectivas por forma a que sejam mais ou menos iguais e marcar os pontos no gráfico. Na análise destes gráficos a primeira coisa a fazer será verificar se existem ou não pontos nitidamente afastados do grupo principal (pontos com comportamento atípico). O afastamento desses pontos poderá ser explicado por eventuais errosna medição ou registo de 27 dados, bem assim como por variações ocorridas durante o processo. Pontos atípicos deverão ser excluídos da análise, não sem, no entanto tentar descobrir a causa de tal comportamento. Da marcação dos pontos poderão surgir uma das três situações ilustradas abaixo: (a) correlação positiva (em que o aumento de uma variável conduz ao aumento da outra), (b) correlação negativa (em que o aumento de uma variável conduz à diminuição da outra) e (c) ausência de correlação (quando não parece haver qualquer tipo de ligação entre as variáveis consideradas). Exercício. Verificar se existe algum tipo de relação entre as alturas e os pesos de um grupo de pessoas. Altura (m) Peso (kg) 1,57 60 2,00 95 1,67 66 1,90 85 1,50 45 1,75 78 1,63 64 1,78 75 1,94 92 1,82 80 1,77 75 1,59 60 28 As correlações entre as variáveis podem ser de vários tipos: lineares, quadráticas, cúbicas, logarítmicas, etc. Por forma a poder prever o comportamento de uma das variáveis em função da outra é útil conseguir encontrar aquilo a que se chama função ou equação de ajuste. Trata-se da equação matemática que melhor ajusta o comportamento e a dependência dos dados e que é função do tipo de dependência que existe entre elas. Por exemplo, quando o aumento de uma variável implica o aumento da outra (tal como no exercício anterior) a função de ajuste assume normalmente a equação de uma reta do tipo y = a + b x em que y representa a variável dependente (no caso do exercício anterior y seria o peso) e x a variável dependente (no caso do exercício anterior x seria a altura). Desta forma, e se conseguirmos uma reta que aproxime a evolução dos pontos de uma forma razoável, será possível prever y (i.e. o peso de uma pessoa) se soubermos o valor x (i.e. a sua altura) e vice versa. Tal previsão poderá ser mais ou menos exata consoante o modelo se ajusta melhor ou pior aos dados. O coeficiente de correlação (r) é um parâmetro que permite avaliar se o ajuste feito é ou não bom. Os valores admissíveis para r variam entre -1 e 1 (-1 ≤ r ≤ 1). Se r assumir valores negativos (-1 ≤ r < 0) isso significa que a correlação é do tipo negativo, isto é, que o aumento de uma variável implica a diminuição da outra. Se, pelo contrário, r estiver compreendido entre 0 e 1 (0 < r ≤ 1) isso quererá dizer que a correlação é do tipo positivo. Quanto mais próximo de 1 ou de -1 estiver r, melhor o ajuste. Se r = 0 (ou próximo dele) isso quer dizer que não há qualquer tipo de correlação. P es o Altura 29 2.6 Folha/Ficha de verificação É importante garantir bastante objetividade na recolha de dados sendo para tal, antes de mais, necessário definir com precisão quais os dados que é necessário recolher. Avaliar parâmetros ou fazer leituras que não nos interessam apenas conduz a perdas de tempo e a uma maior confusão em termos do seu armazenamento. Por forma a que isso não aconteça convém dispor de um formulário/ficha bastante simples e convenientemente elaborado onde as perguntas para as quais se deseja a resposta se encontram perfeitamente definidas e que permita a qualquer utilizador identificar corretamente quais os itens a medir/registar e em que altura e sequência tal deverá ser feito. As folhas de verificação não só facilitam a recolha de dados como também a sua organização. Com base nelas será mais fácil posteriormente encontrar dados que sejam necessários, bem assim como fazer estudos retrospectivos. Não existe uma folha de verificação standard uma vez que estas devem ser elaboradas em função do fim a que se destinam. Na figura 7 dá-se o exemplo de uma folha de verificação que poderia ser utilizada na realização de ensaios às matérias-primas recepcionadas. 30 Empresa ABC Resultados dos ensaios às matérias-primas Nome do produto: ________________________________________ Fornecedor: _____________________________________________ Endereço: _____________________________________________________________ ______________________________________________________________________ Resultados dos ensaios laboratoriais: Características: Observações: Responsável pelo D.Q.: __/__/__ Resultados dos ensaios industriais: Características: Observações: Responsável pelo D.P.: __/__/__ Apreciação global: Assinatura: __/__/__ 31 2.7 Gráficos de Controle O gráfico de controle é um método gráfico que serve para acompanhar a evolução do processo. Existem gráficos para monitorar a média e a dispersão do processo. A primeira fase da construção destes gráficos consiste na recolha de uma série de dados relativos à característica a ser estudada (dimensões, nº. de peças defeituosas, nº. de defeitos nas peças produzidas, tempos, etc.). Uma vez que, quer por uma questão de dinheiro como de tempo, na grande maioria das vezes é impossível fazer o controlo de todas as peças, há que selecionar apenas algumas que sejam representativas das restantes (amostragem). Para ser feito de forma correta, tal deverá seguir um plano e, uma vez que existem vários tipos de planos de amostragem disponíveis, é importante escolher aquele que dá mais e melhor informação. Amostragens bem feitas irão permitir que, verificando apenas uma pequena quantidade de peças, seja possível dizer o que se passa com a totalidade delas. Numa fase seguinte os dados recolhidos deverão ser reunidos e, dependendo do tipo de gráfico de controle a usar, convertidos numa forma tal que permita a sua marcação. A utilização dos gráficos de controle é frequentemente vista como um processo de monitoramento. No entanto, para poderem assumir esse papel, terão antes que ser definidos quais os limites de controle para além dos quais as características avaliadas do produto, processo ou serviço não poderão passar. É de ter em atenção que os limites de controle não são especificações limites nem objetivos. De fato, cada característica (por exemplo o diâmetro de um parafuso) tem um valor objetivo em torno do qual, devido às causas comuns, os valores realmente observados se irão dispôr. Consciente de que é impossível que todos os produtos apresentem esse valor objetivo, o cliente estabelece ainda as especificações máximas admissíveis (tolerâncias) para além das quais os produtos não deverão passar: limites máximo e mínimo de especificação. Por outro lado, o produtor tem que dispôr de meios que garantam a qualidade e homogeneidade do seu produto. Com esse objetivo marca 32 nos gráficos de controle limites para além dos quais considera que o seu produto não é suficientemente bom para seguir para o cliente: limite máximo e mínimo de controle. Estes limites de controle utilizados pelo produtor deverão ser inferiores aos admitidos pelo cliente por forma a evitar que cheguem a estes produtos fora das especificações O conjunto de dados recolhidos que irá constituir o primeiro dos gráficos de controle é também utilizado para, através de fórmulas baseadas na variabilidade natural do processo e no plano de amostragem, determinar os limites de controle dos gráficos subsequentes. O controle e melhoria do processo usando gráficos de controle deve ser encarado como um processo iterativo em que se repetem as fases fundamentais de recolha de dados, controlee análise. De fato, calculados os limites de controle com esse primeiro conjunto de dados, se for evidente a existência de causas especiais de variação que leve pontos para fora dos limites ou que tornem evidentes tendências na variação dos pontos, o processo deverá ser estudado para se conseguir determinar o que o está a afetar e se tomarem depois as devidas ações para eliminar essas causas especiais. Após eliminadas, dever-se-ão recolher mais dados e recalcular os limites de controle, fundamentais para interpretar os dados para o controle estatístico. A partir do momento em que todas as causas especiais tenham sido eliminadas e o processo se encontrar em controle estatístico, o gráfico irá servir de ferramenta para monitoramento. Sempre que algum ponto saia fora dos limites de controle ou que apresentem alguma tendência marcada de variação, o processo deverá ser interrompido e a razão de ser de tal ocorrência ser investigada uma vez que não vale a pena estar a produzir peças que provavelmente irão ter defeitos ou estar fora das especificações. Identificadas as causas especiais que levaram à ocorrência destes pontos fora de controle o processo deverá ser alterado por forma a contornar os problemas que as originaram. O ciclo recomeça novamente à medida que mais dados são recolhidos, interpretados e usados como base de atuação. Nesta fase, o processo poderá ser interpretado em termos da sua capacidade. Será então possível prever a performance do processo podendo, quer o produtor quer o cliente, confiar em níveis de qualidade consistentes e em custos estáveis para atingir esse nível de qualidade. Por outro lado, atingido o controle estatístico não se deve ficar por aí. Caso a variação oriunda das causas comuns seja excessiva, o resultado do controle do processo não irá de encontro às necessidades uma vez que o produto continuará a apresentar pouca homogeneidade. O processo em si deverá ser investigado e corrigido por forma a eliminar e/ou reduzir essas comuns e, para isso, tipicamente, uma atitude superior a nível das chefias deverá ser tomada para melhorar o sistema. O objetivo é que os produtos se tornem cada vez mais homogêneos e, consequentemente, que os limites de controle se tornem mais estreitos. Os gráficos de controle, que se apresentam assim como uma ferramenta de controle e de melhoria do processo, podem ser de dois tipos distintos: gráficos de controle para variáveis e gráficos de controle para atributos. 33 3. O CICLO PDCA OU CICLO DE DEMING O PDCA é um método de gerenciamento de processos ou de sistemas. Ele é empregado a partir do reconhecimento de um PROBLEMA ou de uma OPORTUNIDADE encontrada numa análise a respeito de um objeto de interesse, seja um serviço, um produto, um processo, etc. Os termos do Ciclo PDCA têm o seguinte significado: (P) Planejamento – Consiste em (a) estabelecer metas e (b) estabelecer a maneira (o caminho, o método) para se atingir as metas propostas. Esta é a fase do estabelecimento da “diretriz de controle”. (D) Execução – Execução das tarefas exatamente como prevista no plano e coleta de dados para verificação do processo. Nesta etapa é essencial o treinamento no trabalho decorrente da fase de planejamento. (C) Verificação – A partir dos dados coletados na execução, compara-se o resultado alcançado com a meta planejada. (A) Atuação Corretiva – Esta é a etapa onde o usuário detectou desvios e atuará no sentido de fazer correções definitivas, de tal modo que o problema nunca volte a ocorrer. 34 PDCA Fluxograma Fase Objetivo P 1 Identificação do problema Definir claramente o problema e reconhecer sua importância. 2 Observação Investigar as características específicas do problema com uma visão ampla e sob vários pontos de vista. 3 Análise Descobrir as causas fundamentais. 4 Plano de ação Conceber um plano para bloquear as causas fundamentais. D 5 Ação Bloquear as causas fundamentais. C 6 Verificação Verificar se o bloqueio foi efetivo. ? (Bloqueio foi efetivo?) A 7 Padronização Prevenir contra o reaparecimento do problema. 8 Conclusão Recapitular todo o processo de solução do problema para trabalho futuro. 35 PROCESSO 1 – IDENTIFICAÇÃO DO PROBLEMA Fluxo Tarefas Ferramentas empregadas Observações 1 Escolha do problema Diretrizes gerais da área de trabalho (qualidade, custo, atendimento, moral, segurança) Um problema é o resultado indesejável de um trabalho (esteja certo de que o problema escolhido é o mais importante baseado em fatos e dados). Por exemplo: perda de produção por parada de equipamento, pagamentos em atraso, porcentagem de peças defeituosas, etc. 2 Histórico do problema Gráficos, fotografias, utilize sempre dados históricos Qual a freqüência do problema? Como ocorre? 3 Mostrar perdas atuais e ganhos viáveis Gráficos O que se está perdendo?(custo da qualidade) O que é possível ganhar? 4 Fazer a análise de Pareto Análise de Pareto A Análise de Pareto permite priorizar temas e estabelecer metas numéricas viáveis. Subtemas podem também ser estabelecidos se necessário. Nota: Não se procuram causas aqui. Só resultados indesejáveis. As causas serão procuradas no Processo 3. 5 Nomear responsáveis Nomear Nomear a pessoa responsável ou nomear o grupo responsável e o líder. Propor uma data limite pra ter o problema solucionado. 36 PROCESSO 2 – OBSERVAÇÃO Fluxo Tarefas Ferramentas empregadas Observações 1 Descoberta das características do problema através da coleta de dados (Recomendação importante: Quanto mais tempo você gastar aqui mais fácil será para resolver o problema. Não salte esta parte!) Análise de Pareto 1-Estratificação 2-Folha ou lista de verificação Coleta de dados-5W1H 3-Gráfico de Pareto Prioridades (Escolha o tema mais importante e retorne) Observe o problema sob vários pontos de vista (estratificação) (a) Tempo- os resultados são diferentes de manhã, à tarde, à noite, às segundas-feiras, feriados, etc.? (b) Local- os resultados são diferentes em partes diferentes de uma peça (defeitos no topo, na base, periferia)? Em locais diferentes (acidentes em esquinas, no meio da rua, calçadas), etc. ? (c) Tipo- os resultados são diferentes dependendo do produto, matéria-prima, do material usado? (d) Sintoma- os resultados são diferentes se os defeitos são cavidades ou porosidade, se o absenteísmo é por falta ou licença médica, se a parada é por queima de um motor ou falha mecânica, etc. ? (e) Indivíduo- Que turma? Que operador? 5W1H-Faça as perguntas: o que, quem, quando, onde, por que e como, para coletar os dados. Construa vários tipos de gráficos de Pareto conforme os grupos definidos na estratificação 2 Descoberta das características do problema através de observação no local Análise no local da ocorrência do problema pelas pessoas envolvidas na investigação Deve ser feita não no escritório, mas no próprio local da ocorrência, para coleta de informações suplementares que não podem ser obtidas na forma de dados numéricos. Utilize vídeos e fotos. 3 Cronograma, orçamento e meta Fazer cronogramas e orçamentos Estimar um cronograma para referência. Este cronograma pode ser atualizado em cada processo. Estimar um orçamento Definir uma meta a ser atingida 37 PROCESSO 3 – ANÁLISEFluxo Tarefas Ferramentas empregadas Observações 1 Definição das causas influentes Tempestade cerebral (Brainstorm) e Diagrama de Ishikawa (espinha de peixe ou causa e efeito) Pergunta: Por que ocorre o problema? Formação do grupo de trabalho: Envolva todas as pessoas que possam contribuir na identificação das causas. As reuniões devem ser participativas. Diagrama de causa-e-efeito: Anote o maior número possível de causas. Estabeleça a relação de causa e efeito entre as causas levantadas. Construa o diagrama de causa e efeito colocando as causas mais gerais nas espinhas maiores e causas secundárias, terciárias, etc, ..., nas ramificações menores 2 Escolha das causas mais prováveis (hipóteses) Identificação no diagrama de causa e efeito Causas mais prováveis: As causas assinaladas na tarefa anterior têm que ser reduzidas por eliminação das causas menos prováveis baseadas nos dados levantados no processo de observação. Aproveite também as sugestões baseadas na experiência do grupo e dos superiores hierárquicos. Baseado ainda nas informações colhidas na observação priorize as causas mais prováveis. Cuidado com efeitos “cruzados”: problemas que resultam de 2 ou mais fatores simultâneos. Maior atenção nestes casos. 3 Análise das causas mais prováveis (verificação das hipóteses) Coletar novos dados sobre as causas mais prováveis usando a lista de verificação. Analisar dados coletados usando Pareto, Diagramas de dispersão, Histogramas e gráficos. Testar as causas. Visite o local onde atuam as hipóteses. Colete informações. Estratifique as hipóteses, colete dados utilizando as folhas de verificação para maior facilidade. Use o Pareto para priorizar, o Diagrama de dispersão (ou relação) para testar a correlação entre a hipótese e o efeito. Use o histograma para avaliar a dispersão e gráficos para verificar a evolução. Teste as hipóteses através de experiências. ? Houve confirmação de alguma causa mais provável? Com base nos resultados das experiências será confirmada ou não a existência de relação entre o problema (efeito) e as causas mais prováveis (hipóteses). ? Teste de consistência da causa fundamental Existe evidência técnica de que é possível bloquear? O bloqueio geraria efeitos indesejáveis? Se o bloqueio é tecnicamente impossível ou se pode provocar efeitos indesejáveis (sucateamento, alto custo, retrabalho, complexidades, etc.) pode ser que a causa determinada ainda não seja a causa fundamental, mas um efeito dela. Transforme a causa no novo problema (F) e pergunte outro porque voltando ao início do fluxo deste processo 38 PROCESSO 4 – PLANO DE AÇÃO Fluxo Tarefas Ferramentas empregadas Observações 1 Elaboração da estratégia de ação Discussão com o grupo envolvido Certifique-se de que as ações serão tomadas sobre as causas fundamentais e não sobre seus efeitos. Certifique-se de que as ações propostas não produzam efeitos colaterais. Se ocorrerem, adote ações contra eles. Proponha diferentes soluções, analise a eficácia e custo de cada uma, escolha a melhor. 2 Elaboração do plano de ação para o bloqueio e revisão do cronograma e orçamento final Discussão com o grupo envolvido 5W1H. Cronograma. Custos. Defina o que será feito, quando será feito, quem fará, onde será feito, por que será feito e como será feito. Determine a meta a ser atingida e quantifique($, toneladas, defeitos, etc.) Determine os itens de controle e verificação dos diversos níveis envolvidos. PROCESSO 5 - AÇÃO 1 Treinamento Divulgação do plano a todos. Reuniões participativas. Técnicas de treinamento. Certifique-se de quais ações necessitam da ativa cooperação de todos e dê especial atenção a estas ações. Apresente claramente as tarefas e a razão delas. Certifique-se de que todos entendem e concordam com as medidas propostas. 2 Execução da ação Plano e cronograma. Durante a execução verifique fisicamente e no local em que as ações estão sendo efetuadas. Todas as ações e os resultados bons ou ruins devem ser registrados com a data em que foram tomados. 39 PROCESSO 6 – VERIFICAÇÃO Fluxo Tarefas Ferramentas empregadas Observações 1 Comparação dos resultados Pareto, gráficos de controle, histogramas Deve-se utilizar os dados coletados antes e após a ação de bloqueio para verificar a efetividade da ação e o grau de redução dos resultados indesejáveis. Os formatos usados na comparação devem ser os mesmos antes e depois da ação. Converta e compare os efeitos, também em termos monetários. 2 Listagem dos efeitos secundários Toda alteração do sistema pode provocar efeitos secundários positivos ou negativos. 3 Verificação da continuidade ou não do problema Gráfico em função dos meses do ano Quando o resultado da ação não é tão satisfatório quanto o esperado, certifique-se de que todas as ações planejadas foram implementadas conforme o plano. Quando os efeitos indesejáveis continuam a ocorrer, mesmo depois de executada a ação de bloqueio, significa que a solução apresentada foi falha. ? O bloqueio foi efetivo? Pergunta: a causa fundamental foi efetivamente encontrada e bloqueada? Utilize as informações levantadas nas tarefas anteriores para a decisão. Se a solução foi falha, então retorne ao Processo 2 (Observação) 40 PROCESSO 7 – PADRONIZAÇÃO Fluxo Tarefas Ferramentas empregadas Observações 1 Elaboração ou alteração do padrão Estabeleça o novo procedimento operacional ou reveja o antigo pelo 5W1H Incorpore sempre que possível um mecanismo à prova de bobeira. Esclarecer no procedimento operacional o que, quem, quando, onde, como e principalmente por que, para as atividades que efetivamente devem ser incluídas ou alteradas nos padrões já existentes. Verifique se as instruções, determinações e procedimentos implantados no Processo 5 devem sofrer alterações antes de serem padronizados, baseado nos resultados obtidos no Processo 6. Use a criatividade para garantir o não reaparecimento dos problemas. Incorpore no padrão, se possível, o mecanismo “à prova de bobeira”, de modo que o trabalho possa ser realizado sem erro por qualquer trabalhador. 2 Comunicação Comunicados, circulares, reuniões, etc. Evite possíveis confusões: estabeleça a data de início da nova sistemática, quais as áreas que serão afetadas para que a aplicação do padrão ocorra em todos os locais necessários ao mesmo tempo e por todos os envolvidos. 3 Educação e treinamento Reuniões e palestras. Manuais de treinamento. Treinamento no trabalho. Garanta que os novos padrões ou as alterações nos existentes sejam transmitidas a todos os envolvidos. Não fique apenas na comunicação por meio de documento. É preciso expor a razão da mudança e apresentar com clareza os aspectos importantes e o que mudou. Certifique-se de que os funcionários estão aptos a executar o procedimento operacional padrão. Proceda o treinamento no trabalho no próprio local. Providencie documentos no local e na forma que forem necessários. 4 Acompanhamento da utilização do padrão Sistema de verificação do cumprimento do padrão. Evite que um problema resolvido reapareça devido à degeneração no cumprimento dos padrões: Estabelecendo um sistema de verificações periódicas, Delegando o gerenciamento por etapas, O supervisor deve acompanhar periodicamente
Compartilhar