Prévia do material em texto
Controle estatístico da qualidade e auditoria da qualidade Autor Reinaldo Azevedo Vargas Apresentação Este material, na forma de apostila, inclui-se em um processo de introdução e compreensão sobre o conhecimento do controle estatístico do processo da qualidade e noções de auditoria da qualidade, que vem ganhando mais importância com o desenvolvimento das indústrias, processos industriais, com a automatização e chegada da chamada indústria 4.0. Constituindo- se em um importante ponto de inflexão nesse processo de sistematização e produção de conhecimentos, tem por objetivo aprofundar algumas constatações básicas e apresentar exemplos de situações comumente encontradas. As unidades, capítulos e subcapítulos foram definidos construindo uma linha de raciocínio que abrange desde a noção de estatística, passando por conceitos como organização de dados, tabulação, construção de gráficos, cálculo e interpretação da média, desvio médio simples e desvio padrão, até sua aplicação na construção dos gráficos de controle, interpretando as informações desses gráficos para os mais diversos casos e relacionando-as com conceitos de auditoria da qualidade. O conteúdo foi escrito da forma mais didática possível, sendo direcionado tanto para o público que está tendo um primeiro contato com o controle estatístico como também para o público que já trabalha na área ou tem algum contato prévio com a ferramenta. Por fim, os exemplos, tabelas, equações, gráficos e casos explicados foram trabalhados para incentivar uma leitura conhecendo as variáveis envolvidas, forçando o estudante desse conteúdo a treinar interpretações para se acostumar com tomada de decisão e ajustes dos cálculos, quando necessário. Videoaula - Introdução Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629150834". Introdução1 Para iniciarmos, precisamos definir intuitivamente o conceito de qualidade. São várias as maneiras de definir, dependendo dos propósitos de cada análise, como “adequação ao uso”, “grau de excelência a um preço aceitável”, entre outros. Neste texto, enfatizamos como as características mais importantes do produto, serviço ou do processodevem ser definidas corretamente e mensuradas ou simplesmente contadas (como o número de defeitos em uma peça ou de peças defeituosas) em determinada operação. Para começarmos a estudar o controle estatístico dos processos de qualidade (CEP), devemos levar em conta que a qualidade deverá ser assegurada, principalmente, com a minimização da variabilidade das características importantes. Como Crosby (1996) destaca, “qualidade é a conformidade às especificações”, e conformidade, nesse contexto, significa fazer corretamente e repetidas vezes algumas tarefas que são necessárias, utilizando material de qualidade consistente para conseguir resultados do processo de produção que refletem o desejo e o interesse do consumidor. No contexto do CEP, um produto ou serviço de qualidade é aquele que atende a todas as especificações, atingindo o valor alvo com a menor variabilidade possível em torno dele. Cada produto possui um número de elementos que, em conjunto, descrevem sua adequação ao uso. Esses elementos são chamados características da qualidade ou indicadores de desempenho. Tais características podem ser de diversos tipos: físicas, tais como comprimento, peso, voltagem e viscosidade; sensoriais, como gosto, aparência e cor; ou de orientação temporal, como confiabilidade, manutenção, utilidade e durabilidade. O CEP é uma técnica estatística aplicada à produção que permite a redução sistemática da variabilidade nas características da qualidade de interesse, contribuindo para a melhoria da qualidade intrínseca, da produtividade, da confiabilidade e do custo do que está sendo produzido. Definição do CEP O controle estatístico de processo (ou CEP) pode ser entendido como sendo um sistema de inspeção por amostragem, operando ao longo do processo, com o objetivo de verificar a presença das chamadas causas especiais, ou seja, causas que não são naturais ao processo em si e que podem prejudicar a qualidade do produto. Uma vez identificadas as causas especiais, podemos atuar sobre elas, melhorando continuamente os processos de produção ou prestação de serviços e, por conseguinte, a qualidade do produto desejado. Além disso, o controle estatístico de processo fornece uma um “raio-x” do processo, identificando sua variabilidade e possibilitando o controle dessa variabilidade ao longo do tempo através da coleta de dados continuada, análise e bloqueio de possíveis causas especiais que estejam tornando o sistema instável. No atual mercado, dentro de um ambiente competitivo, o CEP abre caminho para melhorias contínuas, uma vez que garante um processo estável, previsível, com identidade e capacidade definidas, cuja evolução pode ser facilmente acompanhada, monitorada e corrigida, se for o caso. Objetivos do CEP O principal objetivo do CEP é possibilitar um controle eficaz da qualidade, feito pelo próprio operador em tempo real. Isso aumenta o comprometimento do operador com a qualidade do que está sendo produzido e libera a gerência para as tarefas de melhoria. O CEP também possibilita o monitoramento das características de interesse, assegurando que elas irão se manter dentro de limites preestabelecidos e indicando quando devem ser tomadas ações de correção e melhoria. É importante ressaltar a importância de se detectar os defeitos o mais cedo possível, para evitar a adição de matéria-prima e mão-de-obra a um produto defeituoso. Por fim, o CEP objetiva aumentar a capacidade dos processos, reduzindo refugo e retrabalho, e, por consequência, o custo da má-qualidade. Assim, ele proporciona às empresas a base para melhorar a qualidade de produtos e serviços e, simultaneamente, reduzir os custos envolvidos. Breve histórico A aplicação de algumas ferramentas estatísticas para melhorar a qualidade começou com Walter Shewhart, que colocou pela primeira vez em prática nas fábricas alguns conceitos básicos da estatística e também da metodologia científica na década de 1930, nos Estados Unidos da América. Shewhart foi o pioneiro da área de controle estatístico de processo. Atualmente, não existe fábrica no mundo que não aplica pelo menos algumas ferramentas básicas e mais simples de CEP com a finalidade de melhorar os processos industriais. A percepção extraordinária do Shewhart é a de que a qualidade e a variabilidade são conceitos antagônicos no sentido de que, onde tem muito de um, terá necessariamente pouco do outro. Essa ideia funciona tanto para um processo quanto para um produto. Uma tarefa dentro de um processo que leva um período de tempo irregular para se completar pode causar uma grande confusão na linha de produção; por exemplo, no caso da irregularidade das medidas de uma peça: uma hora saindo grande demais, outra hora pequena demais. Foi assim que Shewhart entendeu que, para medir, analisar e monitorar a questão da variabilidade das informações, seria necessário entender a estatística e que, através de aplicações desta ciência matemática nas fábricas, os processos e produtos poderiam chegar a melhores níveis de qualidade. Para alcançar esse objetivo, do ponto de vista da estatística, isso simplesmente significa menor variabilidade nas medidas do processo e do produto e mais exatidão em alcançar metas e alvos. Em seguida, Shewhart também propôs a aplicação da metodologia científica na linha de produção. Simplificando a terminologia, sugeriu que a metodologia poderia ser conceituada em quatro fases: FASE 1: identificação da problemática e planejamento de experimentos FASE 2: experimentação em si FASE 3: análise dos resultados dos experimentos FASE 4: reação do gerente para melhorar o processo A Segunda Guerra Mundial foi decisiva para a aplicação do controle de qualidade e da estatística moderna em um maior número de indústrias norte-americanas. Apóstambém é aplicada em processos administrativos e de serviços e para dados numéricos divididos em seções (por exemplo, diferentes setores na empresa no período de tempo). O gráfico consiste na plotagem de três linhas contendo os pontos que representam as médias de pequenas amostras (conhecidos também como chamados subgrupos racionais), cada uma de tamanho n (onde n = 1, 5, 9, 23, 1.000, por exemplo), representando a quantidade de mensurações periódicas de alguma característica importante de um processo (peso, cumprimento, volume, entre outros), assim como o número ou percentual de peças defeituosas ou número de defeitos. As três linhas representam dois limites de controle, um chamado de superior (ou limite de controle superior - LCS), outro de inferior (ou limite de controle inferior - LCI) e uma linha no meio, que é a média da variável ou o alvo da característica (ver Figura 4). Tradicionalmente, as linhas de controle ficam localizadas a uma distância de três desvios- padrão da média da série (ou alvo). A utilização de três desvios é arbitrária, mas na prática funciona na maioria dos casos. Os limites definem uma área considerável que irá evitar problemas que não existem na realidade, pois um profissional que gasta o precioso tempo correndo atrás de causas especiais que não existem não está sendo um empregado útil para a empresa. O desvio padrão utilizado é aquele das médias (ou erro-padrão), que é o desvio-padrão da população dividido pela raiz quadrada do tamanho da amostra: 3δ/√n. Na estatística, os dois limites de controle definem um intervalo de confiança com nível de confiança de aproximadamente 99,73%. Esse número significa que um “alarme falso” pode ocorrer uma vez em 370 subgrupos. Realmente é o “preço” a ser pago quando se utiliza a técnica de amostragem, mas pelo menos a possibilidade de ocorrência é realmente muito pequena. Se forem tiradas dezesseis amostras por dia na fábrica, ocorreria uma vez a cada 23 dias. Existe um “preço” razoável, considerando o grande valor dos gráficos de controle. A estimação dos limites de controle é válida para processos considerados estáveis, isto é, que mantêm fixos o desvio padrão e a média e, portanto, não estão sob a influência de causas especiais. No entanto, alguns processos aparentemente controlados podem ser influenciados por uma causa especial, e o resultado é que medidas se deslocam para fora dos limites de controle. No Gráfico 4, esse processo seria considerado sob a possível influência de alguma causa especial, instável, porque um ponto está fora dos limites. Um processo é considerado instável somente no momento da descoberta da causa especial. Existem alguns padrões de pontos que assinalam a existência de causas especiais – por exemplo, mais do que cinco pontos consecutivos, sendo todos acima ou abaixo da linha central. Este padrão é raro de acontecer como um ponto que está a uma distância de três desvios padrão da linha central. Para compreender, isso equivale a sair oito vezes consecutivas a face cara lançando uma moeda justa, o que certamente é uma ocorrência rara e, portanto, deverá ser investigada a suposição da justiça no lançamento da moeda da mesma maneira que na influência de causas especiais no processo produtivo. Outro padrão para se investigar é a ocorrência de dois pontos de três dentro dos limites de controle e mais precisamente perto deles. Finalmente, há um último padrão que normalmente assinala possíveis problemas na linha de produção: três pontos de um total de Figura 4 - Controle conceitual Fonte: adaptado de Samohyl (2009). https://objetos.institutophorte.com.br/PDF_generator/img/04.png https://objetos.institutophorte.com.br/PDF_generator/img/04.png quatro de um dos lados da média, mas no meio da área, ou seja, nem muito perto da linha central nem dos limites de controle. Dependendo da situação ou cultura existente na fábrica, outros padrões podem ser utilizados, mas com cautela, pois o uso de padrões deve ser minimizado, uma vez que muitos significam, na prática, alarmes falsos. Com base nos conceitos apresentados, serão abordados nas próximas seções vários tipos tradicionais de gráficos de controle e alguns derivados de situações especiais. Para compreender os conceitos desse tipo de gráfico de controle, vamos imaginar a seguinte situação: no processo de produção de uma ração para gatos de uma empresa desconhecida, sempre houve problemas no enchimento do pacote de um quilograma (kg). Com o passar do tempo, os clientes reclamavam sobre os pacotes contendo menos quantidade de ração do que a norma estipulava e, eventualmente, a empresa começou a perder clientes. Após um breve período de tempo, os pacotes de ração foram descobertos por fiscais, que encontraram diversos deles contendo menos do que um quilograma, resultando em multas pesadas para a empresa. O gerente então decidiu implantar um gráfico de controle no processo de produção, especificadamente no ponto do enchimento dos pacotes. Para a coleta de dados, decidiu-se utilizar amostras periódicas de hora em hora, cada uma com cinco mensurações (n = 5 elementos). Esse perfil de amostragem foi escolhido considerando as informações técnicas disponíveis na empresa. As indústrias normalmente possuem seus perfis para amostragem e, às vezes, devem seguir normas da agência reguladora. Por exemplo, na indústria química, diversas amostras são separadas em bateladas e o tamanho considerado é de um elemento. Essa técnica de amostragem será explicada mais adiante. Após dois dias de coleta de dados, foram separadas dezoito amostras com cinco mensurações cada, uma por hora, durante três turnos de seis horas cada. Os resultados estão na Tabela 10. Tabela 10 - Resultados de mensurações de dezoito amostras horárias Amostras recolhidas de hora em hora (valores expressos em gramas) 1h 2h 3h 4h 5h 6h 7h 8h 9h 1º 1.006 1.009,69 1.033,68 1.051,89 963,31 1.021 981,37 987,4 1.030,14 2º 1.005 1.000 1.001 1.031 993,69 1.023,78 1.010,28 994,03 1.034,07 3º 1.006,04 985,31 1.000 1.027 1.022,02 1.020 990,56 990,67 973,01 4º 1.032,35 1.001 1.016,9 1.026,36 990,05 1.046,87 990,46 1.025,03 994,89 5º 1.011,35 987,81 1.033,01 1.005,77 968,85 1.009,24 954,43 1.048,18 973,62 O gráfico das médias8.1 Amostras recolhidas de hora em hora (valores expressos em gramas) 10h 11h 12h 13h 14h 15h 16h 17h 18h 1º 1.024,88 1.003 999 1.015,25 978,48 1.021,71 1.038,32 1.050 1.040,13 2º 967,38 1.031,54 1.039,08 1.020 995,55 1.026 1.013,77 1.001,73 1.025,99 3º 1.018,81 1.017,65 1.034 1.010 989,48 1.065,55 1.009,32 1.045 985,04 4º 984 979,96 1.001 1.006,9 1.006,95 1.050 998,27 1.023,59 1.000 5º 1.035,11 1.013,52 999,11 1.011,67 1.002,07 1.041,78 980,34 1.036 1.011 Fonte: adaptado de Samohyl (2009). Sendo praticamente impossível tirar qualquer conhecimento dos dados presentes na Tabela 10, os mesmos são plotados e ilustrados em formato gráfico (ver Figura 5). Entretanto, embora o gráfico seja mais esclarecedor, ainda existem dúvidas sobre a série. Analisando o gráfico, existem vários pontos que se afastam do valor 1.000 gramas (g) ou 1 kg, mas será que os afastamentos são realmente grandes? Qual critério deve ser utilizado para medir esse afastamento? Onde é que devem ser colocados os limites de controle para assinalar a presença de causas especiais e melhorar o processo? A construção do gráfico de controle irá auxiliar na resolução deste problema. A linha central do gráfico é a média dos dados ou o alvo do processo. A média, neste caso, é 1.010,62 gramas (X). O valor parece alto, mas reflete o fato de que a empresa sofreu a perda de clientes, multas e, dada a instabilidade do processo, está sentindo a necessidade de proporcionar ração de graça para os compradores. Figura 5 - Todas as noventa mensurações (medidas) dos pacotes de ração Fonte: adaptado de Samohyl (2009). https://objetos.institutophorte.com.br/PDF_generator/img/05.png https://objetos.institutophorte.com.br/PDF_generator/img/05.png No momento em que o processoficar mais estável, a média tende a retornar para 1.000 gramas, economizando despesas e melhorando os resultados. Os limites de controle são iguais a três desvios padrão da média, ou três erros padrão, desde que, na prática, utiliza-se a amplitude média dos subgrupos racionais e os coeficientes de Shewhart presentes na Tabela 8 (SHEWART, 1931). Na indústria, é muito comum utilizar o desvio padrão calculado com a média das amplitudes e com o coeficiente d , um dividindo o outro: (R/d ). Para converter o desvio padrão em erro padrão, basta dividi-lo pela raiz quadrada do número total de elementos da amostra, ou seja, (R/d )/√n. Portanto, os limites de controle são três erros padrão acima e abaixo da média. De acordo com a Tabela 10, a coluna A corresponde a um coeficiente que facilita o cálculo dos limites de controle. Este coeficiente, que se modifica com o tamanho da amostra, transforma a média das amplitudes em três erros padrão: A utilização do coeficiente A facilita muito o cálculo dos limites de controle para o próprio operador no que está no “chão da fábrica”. Mesmo com as fábricas se tornando cada vez mais informatizadas, os coeficientes do Shewhart sobrevivem como a base dos cálculos de variabilidade (dispersão) (SHEWART, 2009). Desse modo, os limites de controle são: Onde 2 2 2 2 2 é a média total (média das médias parciais) e representa a linha central do gráfico. Voltando para nosso exemplo referente aos pacotes de ração, já foi calculada a média de 1.010,62 gramas. O valor de A da Tabela 8 é 0,577 para amostras de tamanho n = 5, e o valor da amplitude média R que consta na Tabela 11 é 47,67. Portanto, o cálculo do limite de controle superior é 1.010,62 + (0,577*47,67) = 1.038,12 e o cálculo do limite de controle inferior é 1.010,62 - (0,577*47,67) = 983,11. Tabela 11 - Médias dos subgrupos, média total e média das amplitudes 1 2 3 4 5 6 Média (X) 1.012,15 996,76 1.016,92 1.028,4 987,58 1.024,18 27,35 24,37 33,68 46,11 58,7 37,62 7 8 9 10 11 12 Média (X) 985,42 1.009,06 1.001,15 1.006,04 1.009,13 1.014,43 55,85 60,77 61,06 67,72 51,58 40,08 13 14 15 16 17 18 Média (X) 1012,76 994,51 1.041,01 1.008 1.031,26 1.012,43 13,09 28,47 43,83 57,98 48,26 55,09 2 Média Total ( ) = 1.010,17 Média das amplitudes (R) = 47,67 Fonte: adaptado de Samohyl (2009). Com a tabela montada, basta plotar o gráfico de controle (Figura 6), construído por padrão, contendo as três linhas para facilitar a interpretação: O gráfico da Figura 6 contém os valores das médias dos dezoito subgrupos, além dos limites de controle superior e inferior e da média das médias (média total). Nota-se que o subgrupo de número 15 possui a média mais alta que o limite de controle, e, portanto, a média desde subgrupo é suficientemente afastada da média do processo para justificar uma investigação e a eventual eliminação de uma causa especial. Figura 6 - Exemplo do gráfico de controle das médias Fonte: adaptado de Samohyl (2009). https://objetos.institutophorte.com.br/PDF_generator/img/06.png https://objetos.institutophorte.com.br/PDF_generator/img/06.png O gerente analisou a situação e descobriu a presença de um operador substituto e quase sem treinamento no lugar do operador veterano que estava com médico marcado nesse horário. Com isso, ocorreu nos próximos dias um treinamento rápido para garantir o desempenho de todos os operadores nas tarefas mais importantes de toda a linha de produção. Quase sempre os problemas na fábrica têm origem na gestão das operações. Se o operador foi ensinado de uma maneira inadequada, a culpa é da gerência, e não do operador. Os gráficos de controle devem ser atualizados periodicamente (uma vez por mês) e novos limites deverão ser calculados. No entanto, jamais utilizarão nas atualizações os subgrupos que estavam sob a influência comprovada de causas especiais. Esses dados devem ser arquivados longe dos gráficos de controle, mas lembrados como parte da história das melhorias e outras conquistas da empresa ao longo do tempo. É muito importante construir um gráfico de controle para monitorar diretamente a variabilidade do processo, já que a variabilidade contribui para a qualidade do produto. Alguns especialistas defendem que o gráfico R é mais importante que o gráfico das médias. Na prática, os limites de controle são calculados usando a teoria já discutida anteriormente a esta seção, além dos coeficientes de Shewhart (Tabela 8). Entre várias alternativas, o gráfico das amplitudes R é o mais comum para monitorar a variabilidade. A média das amplitudes R é a linha central do gráfico e os limites de controle são: Onde D e D são coeficientes da Tabela 8, os quais convertem a média das amplitudes em limites de controle. O gráfico da Figura 7 é um exemplo de gráfico de controle das amplitudes R. Neste caso, o valor de LCS é 2,115*47,67 = 100,58 e do LCI é 0 (pois D é 0). Nenhum ponto está fora dos limites de controle e, consequentemente, o gerente deve se sentir tranquilo que nenhuma causa especial está influenciando o processo. Claro que tem um ponto próximo ao limite superior e, se tiver tempo sobrando, o gerente poderia investigar as causas, mesmo não existindo indícios fortes para a presença de causas especiais. Por outro lado, se as amplitudes dos processos forem consideradas grandes demais, difíceis decisões terão que ser tomadas para melhorar o processo, como a compra de novas máquinas, mais treinamento para os funcionários, entre outras coisas. O gráfico da variabilidade8.2 4 3 3 Existe mais um gráfico para o monitoramento da variabilidade do processo, mas na prática é muito pouco utilizado: o gráfico do tipo S, baseado diretamente no desvio padrão dos subgrupos. É mais apropriado quando os subgrupos possuem um tamanho maior – por exemplo, maior do que dez, o que é raro acontecer. Por fim, a decisão referente à empresa de rações para animais foi decidida pelo gerente, sendo que a falta de treinamento foi o fator principal para explicar a variabilidade do processo. O que apareceu como uma causa especial no gráfico em um determinado ponto no tempo foi reconhecida mais tarde como um problema geral de todos os operadores. A empresa começou uma série de treinamentos que ocupavam apenas três horas por semana, mas o resultado se tornou surpreendente. A amplitude do peso do pacote de ração foi cortada pela metade e a média do processo ficou em 1.001 gramas (praticamente o peso da norma: 1 kg). A clientela retornou a consumir o produto e os fiscais não encontraram mais pacotes com não conformidades. Uma percentagem das economias realizadas foi distribuída na época do Natal, e a outra parte ficou com o gerente. Figura 7 - Exemplo do gráfico de controle das amplitudes R Fonte: adaptado de Samohyl (2009). https://objetos.institutophorte.com.br/PDF_generator/img/07.png https://objetos.institutophorte.com.br/PDF_generator/img/07.png Videoaula - O gráfico tipo Xi individual e amplitude móvel Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629156838". O gráfico tipo X individual é utilizado quando os subgrupos possuem apenas um elemento, como acontece regularmente na indústria química e de alimentos. Um dos problemas, nesse caso, é como definir a variabilidade e calcular a amplitude quando o subgrupo possui apenas um elemento. A solução é trabalhar com uma amplitude móvel. A Tabela 12, por exemplo, contém uma lista de temperaturas (em centígrados) de um produto químico. Tabela 12 - Temperaturas (em ºC) de um produto químico Número T (ºC) Amplitude móvel Número T (ºC) Amplitude móvel 1 95,43 4,42 13 97,81 0,03 2 99,85 0,24 14 97,84 5,25 3 100,09 1,65 15 103,09 7,91 4 101,73 0,45 16 95,18 2,42 5 102,18 3,81 17 97,61 0,39 6 98,37 2,84 18 97,22 4,56 7 101,21 4,96 19 101,78 1,54 O gráfico tipo X individual e amplitude móvel 8.3 i i Número T (ºC) Amplitude móvel Número T (ºC) Amplitude móvel 8 96,26 2,64 20 103,321,29 9 98,90 1,98 21 102,03 1,98 10 96,92 1,23 22 104,02 5,34 11 95,70 0,65 23 98,68 0,30 12 95,05 2,76 24 98,38 - Fonte: adaptado de Samohyl (2009). As colunas de temperatura, representadas pela letra T e expressas em centígrados (ou graus celsius: ºC) foram plotadas com a coluna da amplitude móvel. A amplitude móvel é a diferença entre duas medidas sequenciais. Por exemplo, a primeira amplitude móvel (4,42) é a diferença entre o segundo e o primeiro números (99,85 – 95,43). A segunda amplitude móvel (0,24) é a diferença entre o terceiro e o segundo números (100,09 – 99,85) e assim sucessivamente, sempre subtraindo o seguinte pelo anterior. A média das amplitudes é 2,55. Essa amplitude pode ser utilizada para definir os limites de controle da mesma maneira como foram determinados no gráfico de controle das médias. Supondo que o tamanho da amostra é igual a 2, o gráfico de controle terá linha central igual a 99,11 (média da coluna dos dados) e os limites de controle são calculados com o coeficiente de Shewhart, neste caso, d = 1,128 para n = 2 (ver Tabela 8). O limite de controle superior é calculado da seguinte forma: 99,11 + (3*2,55/1,128) = 105,89. Por sua vez, calcula-se o limite de controle inferior desta forma: 99,11 – (3*2,55/1,128) = 92,33. Nenhum dado contido na Tabela 12 está fora dos limites de controle, assim o processo está sofrendo apenas causas comuns. Se o engenheiro estiver insatisfeito com a variabilidade do processo, julgando que as temperaturas estão variando consideravelmente ou demais, então ele terá que atacar o problema com despesas grandes para comprar um novo aquecedor ou outro termostato. 2 Exemplo da estatística em ação para a melhoria da qualidade O administrador Roberto trabalha em uma companhia de grande porte, com serviços de cartão de crédito, e seus superiores querem agilizar o processamento de novos cartões. O processo em si já foi mapeado e um ponto crítico identificado: checar as referências bancárias do novo candidato ao cartão. Para levantar uma amostra (com a variável tempo, por exemplo) para essa tarefa, o processo foi monitorado durante intervalos regulares e, depois de três dias, a média do processo foi calculada em oito minutos, com desvio-padrão de cinco minutos. Com a primeira montagem do gráfico de controle para os valores individuais X , são encontrados vários pontos fora dos limites, indicando causas especiais e que o processo deve ser corrigido. Os pontos foram eliminados da base dos dados e novos limites de controle calculados. No decorrer do tempo, novos pontos aparecem fora dos limites de controle e quase sempre as causas especiais encontradas. A causa especial de documentos perdidos foi solucionada aplicando normas organizacionais na mesa dos funcionários. Outro problema foi a demora, ainda muito irregular, em conseguir contato com o funcionário do banco, o que foi solucionado pelo estabelecimento de uma série de convênios com os maiores bancos, padronizando um sistema de comunicação através de formulários disponíveis pela internet, e-mails e a utilização do telefone. Em poucas semanas, a média da tarefa baixou para três minutos, com desvio padrão de dois minutos. Com essa melhoria, o número de candidatos processados por semana triplicou (SAMOHYL, 2009). i Até agora não foi mencionado algo sobre os limites com especificações de informações para medir a tolerância permitida da variabilidade de uma característica importante do produto. Esses limites são conceitualmente independentes dos limites de controle. A tolerância é calculada pelo analista do processo ou produto na hora da sua concepção, ou seja, antes de qualquer tentativa de fabricá-lo. Em outras palavras, a tolerância é um conceito teórico e nem sempre aplicado efetivamente. Os limites de controle, por outro lado, são valores calculados dos dados observados e são valores práticos. Conceitualmente, a tolerância mede o que deve ser, enquanto os limites de controle medem o que realmente é. O índice de capacidade é uma medida da relação numérica entre os dois conceitos: é a distância entre o limite de especificação superior (LES) e o inferior (LEI) dividido pela distância entre o limite de controle superior (LCS) e inferior (LCI) do gráfico de controle para valores individuais, ou seja: O valor (LCS – LCI) é conhecido como “seis sigmas”, representando uma distância de seis desvios padrão. Quando o processo cumpre o objetivo, então os limites de controle ficam inteiramente dentro dos limites de especificação, e o valor do índice é maior que 1,0. Com isso, um índice igual a 1,0 significa que a taxa de rejeição do produto não conforme fica em 27 itens de 10.000. Geralmente, as indústrias desejam processos com índices maiores que 1,33 e, se alcançar o valor 2,0 (cenário considerado ideal), a tolerância seria de doze desvios padrão da distância, ou seis desvios padrão da linha central. Com um índice igual a dois, a taxa de rejeição de defeituosas seria de apenas dois itens defeituosos em um total de dez bilhões. No exemplo das temperaturas, os limites de especificação são 92,53 e 106,09; indicando que uma temperatura adequada e dentro dos conformes deve ficar sempre entre essas duas temperaturas para garantir a qualidade do produto. O índice de capacidade nesse processo químico é (106,09 – 92,028) / (105,89 – 92,328) = 14,062/13,562 = 1,04. Portanto, pelo índice de capacidade, as temperaturas estão fora das especificações quase 27 vezes para cada 10.000 amostras ou 0,27% do tempo total, um valor normalmente avaliado e considerado como adequado pelo gerente da linha de produção. Para compreender outro importante gráfico para o controle estatístico do processo, imaginemos mais um exemplo fictício. Uma empresa de materiais para escritório tem como carro chefe de fabricação uma caneta esferográfica customizada com a logomarca do cliente. O custo de fabricação da caneta está em torno de 45 centavos, sendo vendida a $1,00 e com lotes sempre entre 3.000 e 30.000 unidades. Recentemente, as canetas vêm recebendo reclamações dos clientes por três razões: 1. O mecanismo de fechar e abrir a ponta da caneta não funciona bem. 2. A tinta da caneta é de baixa qualidade, secando rápido demais, o que é considerado o pior dos problemas. 3. A tinta da logomarca do cliente desaparece em apenas poucas horas. Analisando esse caso, percebe-se que, obviamente, uma inspeção de 100% seria impossível, dado o tamanho dos lotes e o custo baixo de cada item. O gerente da linha de produção toma a iniciativa de implantar a utilização de um gráfico de controle na linha de produção, e como primeira tentativa constrói o gráfico com valores que foram coletados na etapa final da linha de O gráfico do tipop8.4 produção (Tabela 13). Neste caso, o gráfico utiliza a grandeza porcentagem (ou percentagem), representado pela letra p de itens defeituosos. Tabela 13 - Porcentagem de canetas defeituosas na linha de produção Número / tamanho da amostra Número de canetas defeituosas Canetas defeituosas (em %) Número / tamanho da amostra Número de canetas defeituosas Canetas defeituosas (em %) 1 / 100 8 8 18 / 100 5 5 2 / 100 8 8 19 / 100 4 4 3 /100 5 5 20 /100 5 5 4 / 100 2 2 21 / 100 3 3 5 / 100 5 5 22 / 100 8 8 6 / 100 7 7 23 / 100 2 2 7 / 100 2 2 24 / 100 6 6 8 / 100 5 5 25 / 100 2 2 9 / 100 3 3 26 / 100 5 5 10 / 100 12 12 27 / 100 6 6 11 / 100 3 3 28 / 100 9 9 12 / 100 6 6 29 / 100 2 2 13 / 100 2 2 30 / 100 3 3 14 / 100 7 7 31 / 100 9 9 15 / 100 8 8 32 / 100 7 7 16 / 100 3 3 33 / 100 5 5 17 / 100 3 3 34 / 100 4 4 Média = 5,12 5,12 Fonte: adaptado de Samohyl (2009). Este tipo de gráfico é popular nas fábricas onde a utilização do CEP é ainda muito embrionária. A peça é inspecionada e julgada conforme ou não conforme. Não é preciso nenhum equipamento avançado de medida. No caso da empresa de materiais de escritório, não é necessário mensurar alguma característica da caneta, mas sim deve-se apenas analisar se a caneta preencheos três parâmetros de qualidade discutidos acima. O gráfico exige tamanho de amostra grande, de 100 a 1.000 ou até 2.000. O gerente decidiu usar amostras de tamanho igual a cem elementos para facilitar a conversão de número de defeituosas em porcentagem. Depois de três turnos de amostragem, foram coletados dados em 34 subgrupos, como organizado pela Tabela 13. Analisando a tabela anterior, pode ser verificado que a porcentagem defeituosa média é de 5,12%, idêntica ao número médio de canetas defeituosas em cada um dos lotes (subgrupos), pois todos possuem cem amostras. O cálculo do desvio padrão neste caso segue a fórmula (SAMOHYL, 2009): Portanto, se os limites de controle se distanciam da porcentagem média em três desvios padrão, mas com um peso de 2,2%, temos: O limite de controle inferior resultou em -1,48%, número negativo, indicando uma impossibilidade. Nesse caso, devemos considerar zero, pois não existe número de itens defeituosos negativos. Após os cálculos, foi plotado o gráfico de controle (Figura 8) de porcentagem de canetas defeituosas, com uma porcentagem defeituosa média igual a 5,12%, além dos limites de controle inferior e superior a três desvios-padrão da média. O gerente imediatamente nota que o 10º subgrupo possui um número de canetas defeituosas maior do que o limite superior de controle (12 > 11,72). Uma investigação direcionada para causas especiais é apontada, e, se for encontrada a causa da deterioração da qualidade do produto, ela deverá ser eliminada. Em muitos casos, na prática, a utilização do gráfico pode ser simplificada para facilitar as tarefas do operador na linha de produção. Quando o item fabricado é pequeno, mas produzido em lotes muito grandes e o custo de fabricação é muito baixo, o tamanho do subgrupo deve ser grande, talvez contendo 1.000 ou 2.000 elementos. É o caso da fabricação de porcas ou parafusos, onde o tamanho do lote pode ser de 100.000 ou mais. Para facilitar os procedimentos, um subgrupo contendo 2.000 elementos não precisa ser contado um a um, mas sim os 2.000 itens podem ser coletados em algum tipo de recipiente onde cabem exatamente 2.000 parafusos, sendo então espalhados por uma mesa onde três ou quatro operadores vão fazer inspeção dos itens de forma rápida e eficiente. Desse modo, o número de peças defeituosas será relatado em uma ficha de verificação. Figura 8 - Controle da porcentagem defeituosa de canetas Fonte: adaptado de Samohyl (2009). https://objetos.institutophorte.com.br/PDF_generator/img/08.png https://objetos.institutophorte.com.br/PDF_generator/img/08.png Exemplo da estatística em ação para a melhoria da qualidade O supervisor de uma linha de produção de um tubo de PVC está com o problema de cortar o tubo sem deixar nenhum vestígio do corte, como pó residual, fios de PVC no corte ou a beirada riscada. A linha de produção é responsável por aproximadamente mil cortes por hora e, portanto, a inspeção de 100% não é justificável. Dessa forma, a cada hora são colhidos aleatoriamente 150 cortes para inspeção, para a plotagem do gráfico de controle p. É a primeira vez na história da fábrica que monitoram um processo com regularidade e disciplina. O supervisor estima que a porcentagem de cortes rejeitadas deva ser de 5%. Para calcular o desvio-padrão: = 0,018. Com isso, o limite superior de controle é 0,05 + (3*0,018) = 0,10 e o inferior é zero. Assim, de hora em hora ele calcula o valor de p na amostra de 150 cortes e plota o gráfico de controle p. Muitas vezes o valor de p da amostra é maior que o limite de controle, obrigando a busca das causas especiais. Uma depois da outra, as causas especiais são descobertas: a serra de corte não era substituída regularmente, houve troca de operador sem prestar atenção à fase do processo e os plásticos utilizados possuíam níveis de dureza diferentes. Ao longo do tempo, as causas foram eliminadas e, depois de apenas uma semana de monitoramento, o percentual de cortes defeituosos diminuiu para 1,5%. O resultado maior é que o supervisor foi promovido à chefia de qualidade da empresa (SAMOHYL, 2009). Se o gerente optar pelo número de peças defeituosas, e não a porcentagem, as fórmulas para a linha central e os limites de controle serão diferentes. A linha central é a média das peças defeituosas nos subgrupos, e o desvio-padrão é calculado com uma fórmula ligeiramente diferente: p (1 − p)n, contendo o n (tamanho do subgrupo) no numerador. Assim, os limites de controle serão calculados da seguinte forma: Esse gráfico leva o nome de gráfico de controle np, desde que n é o tamanho da amostra e p a porcentagem defeituosa na média, então o valor np é o valor esperado de peças defeituosas em um subgrupo qualquer. Quando a fabricação é de itens maiores, de maior custo e complexidade, a possibilidades de encontrar defeitos é extremamente alta, como em carros, aviões, iates, geladeiras, paredes em construções de grande porte, erros de datilografia em livros, entre outros. Surge então a necessidade de contar o número de defeitos encontrados no item fabricado para melhorar a qualidade. Por exemplo, abordaremos uma fábrica de geladeiras e uma pesquisa para avaliar os defeitos (Tabela 14). Tabela 14 - Número de defeitos por geladeira em 50 subgrupos Geladeira Defeitos (número) Geladeira Defeitos (número) Geladeira Defeitos (número) Geladeira Defeitos (número) 1 0 14 0 27 1 40 1 2 3 15 0 28 5 41 2 3 1 16 0 29 1 42 1 4 0 17 1 30 0 43 1 5 0 18 1 31 2 44 0 6 0 19 0 32 1 45 0 7 0 20 0 33 0 46 2 8 0 21 3 34 0 47 3 9 0 22 0 35 2 48 1 10 1 23 1 36 0 49 3 11 3 24 2 37 1 50 3 12 0 25 2 38 0 13 3 26 1 39 4 Média = 1,12 Fonte: adaptado de Samohyl (2009). Certamente, existe uma série de falhas que podem aparecer na geladeira: arranhões na tinta, problemas de fechamento de porta, pé mal-equilibrado, entre outros. Contando o número de defeitos por geladeira, consegue-se uma quantidade de dados numéricos suficiente para a montagem do gráfico de controle voltado para defeitos. Após a montagem da tabela anterior, pode-se plotar o gráfico de controle para os defeitos das cinquenta geladeiras. A linha central do gráfico é a média de defeitos por geladeira. Como Gráficos para defeitos8.5 sempre e igual aos outros gráficos, os limites de controle superior e inferior distanciam-se em três desvios padrão da média. Neste caso, o desvio padrão é calculado com uma fórmula simples: é a raiz quadrada da média dos defeitos das geladeiras. No exemplo abordado, temos: √1,12 = 1,058. Em outras palavras, a variância e a média são idênticas. Portanto, para esse caso, os limites de controle são: LCS: 1,12 + 3 √1,12 = 4,29 e LCI: 1,12 − 3 √1,12 = −2,05 → 0,00 Como no gráfico anterior sobre proporções defeituosas (p), o limite inferior possui valor negativo. Entretanto, esse é o tipo de situação em que um valor negativo é uma impossibilidade, pois não existe número negativo de defeitos. Por isso, no gráfico da Figura 9 substituiu-se o valor negativo por zero. A geladeira de número 28 possui cinco defeitos e está acima do limite de controle. O gerente, portanto, deve entrar em ação e investigar o processo para possíveis causas especiais. * * Figura 9 - Gráfico de controle para o número de defeitos por geladeira Fonte: adaptado de Samohyl (2009). https://objetos.institutophorte.com.br/PDF_generator/img/09.png https://objetos.institutophorte.com.br/PDF_generator/img/09.png Videoaula - Gráficos dos deméritos Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629157556". O gerente da linha de produção de geladeiras não ficou muito satisfeito com o gráfico contendo o número de defeitos por unidade de geladeira, porque no final há uma grande diferença entre a severidade dos próprios defeitos. Alguns são apenas superficiais, que não afetam a utilização do produto, enquanto outros são fatais e devem ser evitados. Depois de levantar essa dúvida para o professor de CEPda universidade, ele toma a decisão de implantar na linha de produção o gráfico de deméritos em substituição ao de defeitos. Nesse tipo de gráfico, os defeitos mais sérios possuirão um peso maior do que os defeitos mais leves. Verifique a Tabela 15, derivada da Tabela 14 e compare. A diferença principal entre as duas tabelas é que agora os mesmos defeitos da tabela anterior foram classificados como leves (contendo peso igual a 1), médios (com peso igual a 3) e severos (com peso igual a 6). A segunda geladeira contém três defeitos, mas agora os três defeitos valem dez deméritos (multiplicação do número de defeitos pelo peso que representa): um primeiro defeito com peso 1, um segundo com peso 3 e um terceiro com peso 6, somando um total de 10 deméritos. O cálculo foi utilizado para todas as geladeiras com os valores da tabela anterior. A média dos deméritos é igual a 2,62 e é a linha central do gráfico de controle. Os limites seguem a norma de três desvios padrão de distância da média, e o cálculo do desvio padrão segue a fórmula da variância incorporando os diferentes pesos: Gráficos dos deméritos8.6 1 (média de defeitos leves) + 3 (média de defeitos médios) + 6 (média de defeitos severos) = 1 (0,64) + 9 (0,30) + 36 (0,18) = 9,82 Como o desvio padrão é a raiz quadrada da variância, temos: √9,82 = 3,13. Sendo a média igual a 2,62 e o desvio padrão igual a 3,13, então os limites de controle são: LCS: 2,62 + 3 3,13 = 12,01 e LCI: 2,62% − 3 3,13= −6,67 → 0,00 Tabela 15 - Defeitos de cada geladeira com diferentes pesos e seus respectivos deméritos Identificação da geladeira Defeitos (peso 1) Defeitos (peso 3) Defeitos (peso 6) Deméritos 1 0 0 0 0 2 1 1 1 10 3 1 0 0 1 4 0 0 0 0 5 0 0 0 0 6 0 0 0 0 7 0 0 0 0 8 0 0 0 0 9 0 0 0 0 10 1 0 0 1 11 1 1 1 10 12 0 0 0 0 13 1 1 1 10 14 0 0 0 0 15 0 0 0 0 16 0 0 0 0 17 1 0 0 1 18 1 0 0 1 19 0 0 0 0 20 0 0 0 0 21 1 1 1 10 2 * 2 * 2 * * * * * * Identificação da geladeira Defeitos (peso 1) Defeitos (peso 3) Defeitos (peso 6) Deméritos 22 0 0 0 0 23 1 0 0 1 24 1 1 0 4 25 1 1 0 4 26 1 0 0 1 27 1 0 0 1 28 3 1 1 12 29 1 0 0 1 30 0 0 0 0 31 1 1 0 4 32 1 0 0 1 33 0 0 0 0 34 0 0 0 0 35 1 1 0 4 36 0 0 0 0 37 1 0 0 1 38 0 0 0 0 39 2 1 1 11 40 1 0 0 1 41 1 1 0 4 42 1 0 0 1 43 1 0 0 1 44 0 0 0 0 45 0 0 0 0 46 1 1 0 4 47 1 1 1 10 48 1 0 0 1 Identificação da geladeira Defeitos (peso 1) Defeitos (peso 3) Defeitos (peso 6) Deméritos 49 1 1 1 10 50 1 1 1 10 Média = 0,64 0,30 0,18 2,62 Fonte: adaptado de Samohyl (2009). A partir da análise da Tabela 15 e do gráfico da Figura 10, conclui-se que a geladeira de número 28 acusa a presença de causas especiais, precisando de investigação para não comprometer a qualidade da linha de produção (SAMOHYL, 2009). Analisando o gráfico da Figura 10, confirma-se que a geladeira número 28 continua dando um alarme da presença de causas especiais que precisam ser investigadas. Figura 10 - Controle para deméritos Fonte: adaptado de Samohyl (2009). Como foi abordado neste capítulo, o uso correto dos gráficos de controle depende da situação em que o controle e o monitoramento serão aplicados e também da seleção do gráfico mais correto para esse caso específico. Quando a variável a ser mensurada é contínua, como peso ou volume, a situação exige o uso de gráficos para médias (com o objetivo de monitorar as médias de pequenos subgrupos) e gráficos de controle para variabilidade. Caso os dados numéricos estejam em subgrupos de tamanho unitário, então é indicada a utilização de gráficos de dados individuais e da amplitude móvel. Se o dado for uma porcentagem, representando, por exemplo, a proporção de peças defeituosas de O gráfico de controle certo para cada situação 8.7 https://objetos.institutophorte.com.br/PDF_generator/img/10.png https://objetos.institutophorte.com.br/PDF_generator/img/10.png uma amostra, o gráfico correto seria o gráfico de controle de defeitos em porcentagens, ou seja, o gráfico do tipo p. Um erro muito comum e problemático é aplicar porcentagens nos gráficos de médias. Se o desvio padrão não for o mesmo nos dois gráficos, os cálculos dos limites de controle são diferentes e não podem ser comparados. O resultado pode gerar muitos alarmes falsos, e os alarmes verdadeiros podem não ser identificados. Por fim, quando o dado numérico significa o número de defeitos em um determinado produto e as possibilidades de encontrar defeitos são amplas, o gráfico correto é o de controle de defeitos, onde a fórmula possui o desvio-padrão igual à raiz quadrada da média. Práticas profissionais - O gráfico de controle padrão Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629158866". Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://www.youtube.com/watch?v=jcEpmmDvD_A". Aproveitando ao máximo os gráficos de controle 9 Os gráficos de controle, mesmo quando utilizados de forma não eficaz, podem resultar em benefícios para a empresa. No entanto, com alguns ajustes e algumas sugestões importantes, os alarmes falsos que resultam diretamente do mau uso dos gráficos podem ser reduzidos ao mínimo e, consequentemente, economizar tempo, esforço e gerenciar melhor os recursos para as tarefas e áreas da empresa mais importantes. Nada na empresa é mais real do que um alarme falso, e naturalmente esses alarmes incorrem em custos altos e desnecessários, devendo ser mantidos em um número mínimo. Por outro lado, alarmes verdadeiros devem despertar o operador ou engenheiro imediatamente depois de uma degradação do processo e também devem ser abundantes nos processos instáveis. No final, nada é mais lucrativo do que uma fábrica ou escritório com processos estáveis, e isso significa que poucos itens não conformes estão sendo produzidos, que o tempo improdutivo é quase zero e, quando os processos se deterioram, são rapidamente observados, identificados e corrigidos com a finalidade de manter a qualidade. Quando algum processo parece estar fora de controle, questione a precisão dos aparelhos de medição, mesmo que eles sejam dos mais modernos ou conhecidos. Em geral, uma hora ou duas a cada semana é suficiente para testar todos os seus equipamentos e ficar mais confiante com as mensurações obtidas. Todos os alarmes têm que ser investigados, e o engenheiro não deve se sentir frustrado depois de uma meticulosa investigação de um alarme falso onde nenhuma causa especial foi identificada. Mesmo quando os gráficos de controle são construídos seguindo as regras básicas da utilização científica da estatística, os alarmes falsos são inevitáveis, mas podem ser reduzidos ao mínimo e, consequentemente, resultar em sequências longas de amostras sem nenhum alarme falso. Por outro lado, um alarme verdadeiro que não soa é tão ruim – senão pior – para a empresa do que um alarme falso, e possivelmente pode incorrer em custos altos. Desse modo, todos os alarmes devem ser respeitados e investigados. Algumas observações nas amostras não devem ser eliminadas dos dados dos gráficos de controle simplesmente porque parecem diferentes das outras observações. Antes de tudo, uma causa especial tem que ser encontrada e o processo corrigido – somente a partir daí as observações dessa amostra podem ser eliminadas. Normalmente as observações são eliminadas dos dados do gráfico porque foram caracterizadas como vindas de uma outra população em consequência da causa especial. Quando o engenheiro está trabalhando com dados discretos, como número de peças defeituosas ou defeitos, não é correto aplicar um gráfico de controle das médias nas porcentagens calculadas das peças consideradas não conformes, como já foi comentado anteriormente. Ao cometer este erro, resultará em limites de controle absolutamente errados. Os gráficos de controle das médias são construídos para o monitoramento de características medidas em uma escalacontínua como pesos, diâmetros, comprimentos e semelhantes. Quase sempre os gráficos dependem da suposição de dados na distribuição normal, o que exige dos valores medidos uma variação entre menos infinito e mais infinito. Na prática, isso significa que não existem limites ou restrições nos valores medidos. A medida pode assumir valores relativamente grandes ou pequenos. Por outro lado, é claro que porcentagens possuem limites: um mínimo de 0% e um máximo de 100%. A estratificação de uma amostra é muito mais importante do que um cálculo detalhado do tamanho da amostra, pois define na ficha de verificação quais máquinas foram utilizadas, a hora do dia, a fonte da matéria-prima, o operador e outras características importantes do processo, sendo a única maneira de identificar problemas específicos. É verdade que a amostragem estratificada envolve mais tempo e mais cuidados, mas aumenta a capacidade de investigação. Para o gráfico das médias, o tamanho da amostra deve ser entre quatro e nove elementos, e quando a estratificação é bem-feita, apenas quatro elementos por amostra são mais do que suficientes. Os gráficos para porcentagens não conformes precisam de amostras muito maiores, mas a peça em amostra é, em geral, quase insignificante em termos de custo por item, como lápis, fósforos, porcas e parafusos. Finalmente, jamais utilize amostras de tamanhos diferentes. Na literatura acadêmica, discute-se muito sobre amostras de tamanho variável, mas, na prática, se o tamanho da amostra varia, isso não acrescenta vantagem alguma e provoca confusão no momento da avaliação do processo pela análise do gráfico. Muitas vezes, em gráficos que monitoram defeitos ou peças defeituosas, muitos zeros podem ser observados. A abundância de zeros pode tendenciar os resultados, levando o engenheiro a imaginar que existem menos peças defeituosas do que realmente há. Para esse tipo de situação, as amostras devem ser grandes para evitar o aparecimento de zeros. Uma alternativa seria utilizar um gráfico de médias, onde X será definido como o tempo decorrido entre o aparecimento de peças defeituosas. Mesmo que isso possa ser muito parecido com o conhecido gráfico de controle para dados individuais, os dados jamais serão como em uma distribuição normal. Como os engenheiros da área de confiabilidade sabem, o tempo é uma i variável com a qual se deve tomar cuidado, pois deve ser transformado para normalidade por alguma manipulação algébrica, ou uma distribuição mais adequada terá que ser implementada. No entanto, a filosofia deste capítulo é a de que, nos estágios iniciais da implantação pela empresa de gráficos de controle, determinadas regras – como a da normalidade dos dados – são ignoradas, mas serão corrigidas no decorrer do tempo, enquanto a empresa aprende as lições da estatística. A não normalidade dos dados é um problema raramente atacado no “chão da fábrica”. Aprendendo a tratar esse problema de maneira correta, melhorará em muito a eficiência da prática dos gráficos. Com isso, a empresa conseguirá um resultado financeiro interessante, enquanto a taxa de rejeição e o retrabalho diminuem e causas especiais são encontradas. Um último problema com os dados do gráfico de controle que contradiz as suposições básicas da estatística é a dependência dos dados por meio do tempo. Gráficos de controle utilizados de uma maneira correta exigem que dados não possuam tendências, subindo ou descendo ou exibindo padrões de qualquer tipo. Dados como esses geralmente produzem limites de controle muito mais largos do que os valores certos, significando que alguns alarmes verdadeiros não serão identificados. A implementação do controle estatístico de processo na empresa não é uma tarefa fácil e existe somente uma única maneira para fazê-lo: passo a passo. Procedimentos devem ser desenvolvidos no nível de “caso a caso” para encaixar novos procedimentos nos já existentes, e isso em geral exige um gasto grande em esforço e dinheiro, mas, em quase todos os casos, o retorno é considerável. Pensemos nisso como se fosse a busca de melhorias dentro do próprio processo de busca de melhorias. A empresa séria não deve nunca ficar com medo de avançar para procedimentos mais complexos, contanto que apontem para níveis maiores de eficiência e lucratividade. No mínimo, há uma coisa certa: alguns de seus concorrentes no mercado já estão lá na sua frente. Como discutido anteriormente, os gráficos de controle “mal” utilizados possuem seu valor. O ato de coletar dados regularmente, desenhando gráficos e analisando a variabilidade e o comportamento dos processos empresariais, só pode trazer benefícios para a empresa. A aplicação de controle estatístico do processo leva a empresa a “fazer o certo uma primeira vez”, como Juran sempre falava, afirmando que os benefícios são grandes. Nessa linha de raciocínio, é importante utilizar a construção de gráficos de controle no início do processo, e não no final. No final, o valor adicionado pelo processo de fabricação já é grande, e qualquer rejeição, nessa altura do jogo, tem implicações desastrosas em termos de custos. No início do processo, a elaboração do produto quase não começou e, portanto, a rejeição e o retrabalho têm custos considerados triviais. Videoaula - A ISO 9001-2000 e o controle estatístico do processo Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629157788". A ISO 9001-2000 e o controle estatístico do processo 10 A certificação de ISO 9001-2000 proporciona a garantia de que a organização está sempre e constantemente correndo atrás de melhorias nos insumos, nos processos produtivos e administrativos da organização e na satisfação do cliente e funcionários. No entanto, não é o intuito da ISO 9001-2000 propor ou exigir a utilização de procedimentos específicos para alcançar as tão desejadas melhorias. Para compreender melhor a essência da aplicação da ISO 9001-2000, pense em reunir uma documentação dos deveres da organização, que deve ser continuamente levantada e organizada de modo a servir como uma base de dados primária e essencial para a evolução e aperfeiçoamento da organização. A ISO possui como prioridade o fluxo de informações padronizadas e, o que não é menos importante, necessita do que foi armazenado nos chamados bancos de dados de fácil utilização. Entretanto, não existe obrigação em utilizar as informações armazenadas. Para armazenar as informações, pode-se utilizar fichas em papel depositadas em arquivos metálicos, se for o caso, mas é claro que uma rede de computadores possui um potencial de organização e de facilidade de acesso muito superior. Além do mais, a ISO direciona a quantificação do conhecimento, refletindo a filosofia de que os fatos numéricos, além de exigirem detalhamento e definição mais apurados, abre o caminho para análises e estudos mais objetivos e científicos. O modelo de gerenciamento favorecido pelas normas e descrito logo no início da ISO 9001-2000 é o famoso ciclo PDCA, baseado na metodologia científica, onde P (planning = planejamento) significa levantar e definir o problema e as metas, D (do = fazer) significa testar as situações reais da empresa e implantar procedimentos de correção da situação, C (check = analisar) significa estudar se os procedimentos realmente funcionam e, por fim, A (act = implementar) significa colocar em prática ações específicas e contínuas para prevenir falhas e melhorar a qualidade. Os autores mencionados acima fizeram grandes contribuições na área da estatística com aplicações em procedimentos concretos e certamente aplicavam as metodologias para o ciclo PDCA. Explicitamente, entre outras coisas, a ISO 2001-9000 envolve mensuração, análise e melhoria e objetiva a satisfação do cliente, atentando às formas em que este pode influenciar na tomada de decisões – até mesmo na linha de produção. O objetivo principal deste capítulo é informar quais requisitos da ISO 9001-2000abordam assuntos quantitativos e como eles são tratados com metodologias estatísticas. É importante mencionar que a diretoria da empresa é responsável pelas revisões periódicas do sistema de qualidade gerencial. As revisões são documentadas e devem utilizar, ao máximo, medidas quantitativas de desempenho. Quando necessário, o sistema de qualidade deve sofrer alterações para melhor fornecer o que o cliente deseja. É justamente nessa aplicação que os gráficos de controle e histogramas podem ser reavaliados e atualizados, além de abordar os requisitos do cliente visando à linha de produção. Mas como saber quais são os requisitos dos clientes? Essa questão não apresenta nenhum problema quando o número de clientes é pequeno, como a relação entre fornecedor e cliente/montadora no setor automobilístico. Neste caso, os requisitos fazem parte de um minucioso contrato com obrigações legais. No entanto, existem mercados onde o número de clientes está na quantidade dos milhares ou até milhões. A situação exige a utilização de questionários, amostragem e metodologias mais complicadas de estatística para categorizar e analisar correlações esclarecedoras sobre as exigências que determinam a qualidade de um produto ou serviço. Para quem não possui ainda conhecimento nas metodologias quantitativas ou que envolvam ferramentas matemáticas, é bom se recordar que um questionário bem elaborado pode revelar o comportamento do consumidor, e existem maneiras de identificar isso em gráficos de construções bem simples. A regra geral é nunca tentar uma metodologia complicada antes de entender a abordagem e a análise gráfica. Para a ISO 9001-2000, a melhoria da satisfação do cliente é alcançada somente conhecendo os requisitos. Isso será feito, na maioria das vezes, por meio de questionários e análises estatísticas. Procedimentos matemáticos também podem ser úteis para avaliar se um programa de treinamento é válido, testando o empregado imediatamente depois do treinamento pelo conhecimento adquirido, e, no longo prazo, pela pertinência do treinamento em melhorar relações entre a empresa e seus clientes. Nesse contexto, a eficiência do setor logístico é extremamente importante, e seu desempenho é crítico para entregar o produto ou serviço na hora certa. O desempenho pode ser medido pelo tempo de atraso, por exemplo, além de monitorado. Como nos questionários aos clientes, os quais precisam de alta definição e clareza, a mesma característica aplica-se aos índices de desempenho de um determinado processo ou serviço. Quando a questão é clara, a resposta também é e pode-se dispensar, até uma próxima etapa de maior maturidade da empresa, a necessidade de análises mais complicadas. A necessidade de utilizar metodologias quantitativas da estatística se baseia na eficiência destas para conhecer grandes populações de produtos ou insumos onde, então, a amostragem se apresenta como ferramenta imprescindível para economizar tempo e recursos. Os dados são coletados na linha de produção para assegurar que eles reflitam os requisitos dos clientes. Estudos que envolvem índices de capacidade são apropriados aqui. A empresa deve exigir do setor de projeto e desenvolvimento um nível de qualidade no processo que garante a satisfação do cliente. Os requisitos dos clientes são mencionados, primeiro obrigando a empresa a medir as características essenciais do produto do ponto de vista do cliente e, segundo, ao responsabilizar a empresa para avaliar periodicamente todo o processo da relação entre características essenciais e os requisitos do cliente. Nada é melhor do que a estimação de médias e desvios padrão para monitorar a qualidade. As etapas de mensuração, análise e aplicação de melhoria estão diretamente relacionadas com o controle estatístico de processo. Entender os conceitos de produto conforme e não conforme, auditorias internas (onde a amostragem será essencial) e monitoramento, que abre espaço para o uso de gráficos de controle e índices de capacidade, direcionando para a área da estatística. Ações corretivas sinalizam a busca por causas especiais, e ações preventivas dependem de metodologias de previsão e análises de séries denominadas temporais. Para a organização, na fase de certificação ou renovação da ISO 9001-2000, não necessariamente é preciso implantar definitivamente um sistema de estatística altamente avançado em cima das práticas tradicionais. A transformação da empresa do dia para a noite, muitas vezes, senão sempre, não funciona direito. O investimento é grande, e a diminuição de deficiências na organização será pequena nos primeiros meses. Portanto, uma organização frustrada e descontente possui seu resultado financeiro ameaçado. A implantação de qualquer procedimento novo na empresa, especialmente procedimentos com base matemática, deve começar em um espaço pequeno na fábrica, oferecendo resultados aparentes e contundentes. Iniciando-se a implantação de métodos estatísticos com apenas gráficos e explicações intuitivas, sem entrar nos detalhes dos cálculos, já se oferece, em muitos casos, as condições suficientes para uma análise melhor de um fenômeno considerado problemático. Mais tarde, em algumas semanas ou talvez meses, com os empregadores acostumados em pensar quantitativamente sobre os procedimentos da organização, técnicas mais abstratas e complexas como amostragem, gráficos de controle avançados e experimentação podem ser inseridas de modo mais generalizado. Os famosos gráficos de controle se encontram atualmente na análise de todos os aspectos de uma empresa, com aplicações das mais variadas. A importância do Seis Sigma11 A cada dia mais empresas procuram oferecer produtos de alta qualidade. A excelência em qualidade é o motivo do sucesso de inúmeras empresas, como: 1. Uma empresa operando livre de erros e dentro do cronograma. 2. Uma mensagem que chega muito rápido de um ponto a outro. 3. Uma companhia de seguros que paga o sinistro em alguns dias. 4. Um aeroporto que raramente perde uma bagagem. Para atingir a excelência exigida pelo mercado atual, é necessário que as empresas definam os padrões de qualidade a serem alcançados e sustentados. Essa é uma necessidade imediata, pois reduz: 1. Defeitos 2. Retrabalho 3. Reclamações 4. Tempo de operação 5. Custos A competitividade faz com que as empresas reduzam custos e mantenham ou ampliem os níveis de qualidade. Uma empresa altamente competitiva garante sua permanência no mercado, mantém seus clientes satisfeitos, conquista novos clientes e aumenta os lucros empresariais. O avanço tecnológico e a variedade dos produtos aumentou nas últimas décadas. Com matérias- primas e componentes complexos, aumenta-se também a chance de falhas. Para redução da chance de falhas, nos anos 1980, a Motorola desenvolveu o programa Seis Sigma para solução de problemas de qualidade. Inicialmente, o objetivo principal era a redução da variabilidade nas características críticas do produto, levando a chance de falha a praticamente zero. Contudo, o programa Seis Sigma transcendeu a redução da variabilidade, tornando-se uma filosofia de solução de problemas calcada no ciclo PDCA e no emprego de ferramentas de qualidade e técnicas estatísticas. Algumas razões podem ser apontadas para o sucesso, como: I) Mensuração (monetária) dos benefícios; II) Método DMAIC; III) Comprometimento da alta direção; IV) Treinamento seguido de aplicação; V) Emprego de técnicas e ferramentas; VI) Foco no cliente e foco financeiro. Um programa Seis Sigma é formado por vários projetos Seis Sigmas. As técnicas e ferramentas utilizadas no Seis Sigma permitem entender o problema, estudar suas causas, analisar alternativas, implantar soluções que irão reduzir os defeitos ao padrão de poucas ocorrências por milhão e manter as melhorias implantadas. Os resultados do Seis Sigma estão fundamentados em alguns conceitos básicos, incorporados na metodologia, como: 1. Envolvimento de todos os níveis gerenciais 2. Consistênciado método de trabalho 3. Uso do raciocínio estatístico 4. Ênfase na aprendizagem e capacitação 5. Foco no cliente 6. Foco no impacto financeiro dos projetos propostos Videoaula - Auditoria da Qualidade Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629158436". Auditorias da qualidade12 Neste último capítulo, será abordado um pouco dos conceitos referentes às auditorias da qualidade. Entretanto, para entender realmente o que significa a auditoria voltada para a área da qualidade, será necessário mudar o conceito de fiscalização normalmente atribuído à palavra auditoria. Segundo Falconi Campos, a auditoria, no âmbito da qualidade, deve ser praticada e vista como uma oportunidade de dar orientação para a melhoria. Pode-se, no entanto, definir que as auditorias da qualidade existem para verificar se padrões determinados estão sendo seguidos. Neste caso, é importante que sejam realizadas por auditores independentes, ou seja, que não estejam diretamente relacionados ao objeto da auditoria, mas que o dominem de modo a garantir um diagnóstico de forma precisa e principalmente com imparcialidade. Com o objetivo de uma melhoria contínua e até mesmo pela sobrevivência, as organizações implantam sistemas de gestão da qualidade, procurando não somente promover a qualidade do produto ou serviço, mas também garantir a satisfação de seus clientes em todas as fases de seus processos, desde o projeto até os serviços pós-venda. Entretanto, a simples implantação de um sistema de gestão da qualidade não é suficiente, pois é necessário que o mesmo leve a empresa a atingir seus objetivos principais, além de contribuir para a execução de sua missão, sendo que, para isso, deverá ser analisado e aperfeiçoado. As auditorias de qualidade podem ser classificadas em três categorias: 1. Auditorias de sistema 2. Auditorias de processos 3. Auditorias de produtos As auditorias podem ser conduzidas por profissionais internos ou externos. Embora nada impeça que uma empresa contrate consultores externos para auditar sistemas, processos e produtos a fim de verificar como anda sua qualidade, a auditoria geralmente é realizada com fins de certificação ou premiação. Nesses casos, ela se baseia em requisitos normativos ou nos regulamentos dos prêmios pretendidos. As informações geradas pelas auditorias devem servir como base para as decisões sobre os pontos que necessitam de melhorias e os que estão funcionando de maneira eficaz. A confiança da administração em seu sistema de gestão só se configura por meio da verificação periódica do mesmo. Além disso, a auditoria aumenta a confiança do cliente na capacidade de seu fornecedor em entregar produtos conformes, pois o retorno sobre a situação do sistema de qualidade deste fornece as informações necessárias para gerar essa confiança ou para alertar ao cliente da necessidade de novos fornecedores. Uma auditoria só será eficiente se for objetiva. Por isso, deve-se seguir padrões de qualidade da organização ou da norma a que se refere. Deve, da mesma forma, ser rigorosamente planejada, de maneira que as seguintes etapas estejam definidas desde o início: 1. Cronograma 2. Áreas ou setores que devem ser auditados 3. Documentação 4. Objetividade 5. Descoberta das causas 6. Competência dos auditores Neste contexto, é preciso ter total atenção para o aspecto da interação humana em uma auditoria. Os relacionamentos interpessoais e problemáticos se estabelecem normalmente entre auditores e auditados. Alguns problemas de processo podem passar a ser vistos como problemas pessoais, gerando conflitos que, seguramente, poderiam ser evitados. O compartilhamento das análises como os auditados pode ser uma boa forma de quebrar barreiras e criar um clima de confiança entre as partes envolvidas, evitando desgastes e melhorando a qualidade dos relatórios. Com base no que foi abordado acima, a auditoria pode ser definida como um processo sistemático, independente e documentado para se obter evidência e avaliá-la objetivamente, visando determinar a extensão na qual os critérios de auditoria são entendidos. De acordo com a norma ISO 10011, as auditorias são realizadas objetivando: 1. Determinar a conformidade ou não do sistema da qualidade. 2. Determinar a eficácia de um sistema quanto ao atendimento dos objetivos. 3. Identificar os pontos a serem melhorados nos sistemas da qualidade. 4. Atender aos requisitos regulamentares. 5. Permitir o registro do sistema da qualidade, chamado de certificação. Essa norma relata as principais razões para realização da auditoria, como: 1. Avaliar um fornecedor quando se pretende estabelecer uma nova relação. 2. Verificar se o sistema da qualidade da organização continua em conformidade com os requisitos especificados. 3. Verificar se o sistema da qualidade do fornecedor, sob acordo contratual, continua a atender aos requisitos especificados. 4. Avaliar o próprio sistema da qualidade da organização frente aos requisitos de uma norma de sistema da qualidade. Recapitulando a Unidade 2 Nesta unidade, o foco é relacionar os conceitos com interpretações dos gráficos para posterior tomada de decisão, além de noções sobre a norma ISSO 9001 e uma introdução à auditoria da qualidade. Considerações finais A aplicação de controle estatístico do processo leva a empresa a “fazer o certo uma primeira vez”. Nesta linha de raciocínio, é importante utilizar a construção de gráficos de controle no início do processo, e não no final. No final, o valor adicionado pelo processo de fabricação já é grande, e qualquer rejeição, nessa altura do jogo, tem implicações desastrosas em termos de custos. No início do processo, a elaboração do produto quase não começou e, portanto, a rejeição e o retrabalho têm custos considerados triviais. A implantação de qualquer procedimento novo na empresa, especialmente procedimentos com base matemática, deve começar em um espaço pequeno na fábrica, oferecendo resultados aparentes e contundentes. Iniciando-se a implantação de métodos estatísticos com apenas gráficos e explicações intuitivas, sem entrar nos detalhes dos cálculos, já se oferece, em muitos casos, as condições suficientes para uma análise melhor de um fenômeno considerado problemático. Mais tarde, em algumas semanas ou talvez meses, com os empregadores acostumados em pensar quantitativamente sobre os procedimentos da organização, técnicas mais abstratas e complexas como amostragem, gráficos de controle avançados e experimentação podem ser inseridas de modo mais generalizado. Os famosos gráficos de controle se encontram atualmente na análise de todos os aspectos de uma empresa, com aplicações das mais variadas. Por fim, é importante relacionar o controle estatístico com os procedimentos das normas ISSO correspondentes e a questão de uma auditoria da qualidade mais sólida de informações, concisa e coerente. Autoria Autor O professor Reinaldo Azevedo Vargas é engenheiro de materiais de formação na graduação, Mestre e Doutor de formação na pós-graduação em Ciências e Tecnologia de Materiais, com especialidade em processos produtivos e ferramentas estatísticas. Leciona disciplinas das áreas de materiais e correlacionadas com estatística desde 2009 e atua em cursos de pós-graduação de MBA, graduação, ensino presencial, remoto, híbrido e EAD. Reinaldo Azevedo Vargas Glossário Conjunto de práticas originalmente desenvolvidas pela Motorola para melhorar sistematicamente os processos ao eliminar defeitos. Fonte: pt.wikipedia.org [https://pt.wikipedia.org/wiki/Seis_Sigma] . Sigla de controle estatístico do processo. Fonte: blog.bomcontrole.com.br [https://blog.bomcontrole.com.br/controle-estatistico- processo-cep] . Medida que expressa o grau de dispersão de um conjunto de dados. Ou seja, o desvio padrão indica o quanto um conjunto de dados é uniforme. Quanto mais próximo de 0 for o desvio padrão, mais homogêneo são os dados. Fonte: www.todamateria.com.br[https://www.todamateria.com.br/desvio-padrao] . Organização Internacional de Padronização. Em outras palavras, é um meio de promover a normalização de produtos e serviços, utilizando determinadas normas para que a qualidade seja melhorada. Valor médio de uma distribuição, utilizado para representar todos os valores da distribuição; média aritmética dos valores após um certo número ou uma certa proporção maior ou menor ter sido descartada. Fonte: pt.wikipedia.org [https://pt.wikipedia.org/wiki/M%C3%A9dia] . 6 Sigma CEP Desvio padrão ISO Média https://pt.wikipedia.org/wiki/Seis_Sigma https://pt.wikipedia.org/wiki/Seis_Sigma https://blog.bomcontrole.com.br/controle-estatistico-processo-cep https://blog.bomcontrole.com.br/controle-estatistico-processo-cep https://blog.bomcontrole.com.br/controle-estatistico-processo-cep https://www.todamateria.com.br/desvio-padrao https://www.todamateria.com.br/desvio-padrao https://pt.wikipedia.org/wiki/M%C3%A9dia https://pt.wikipedia.org/wiki/M%C3%A9dia Bibliografia BRAVO, I. Gestão da qualidade em tempos de mudança. 3. ed. Campinas, SP: Alínea e Átomo, 2010. Crosby, P. Quality is still free. New York: McGraw-Hill, 1996. FALCONI, C. V. Padronização de empresas. Nova Lima, MG: INDG Tecnologia e Serviços Ltda, 2004a. FALCONI, C. V. TQC: controle da qualidade total ao estilo japonês. Nova Lima, MG: INDG Tecnologia e Serviços Ltda, 2004b. JURAN, J. M. Juran planejando para a qualidade. 2. ed. São Paulo: Pioneira, 1992. KACHIGAN, S. K. Multivariate statistical analysis: a conceptual introduction. 2nd ed. New York: Radius, 1991. MURTERA, B. J. F. Estatística descritiva. New York: McGraw-Hill, 1993. SAMOHYL, R. W. Controle estatístico de qualidade. São Paulo: Campus Elsevier, 2009. Shewhart, W. Economic control of quality of manufactured product. Toronto: D. Van Nostrand Company, 1931. BRUNI, A. L. Estatística aplicada à gestão empresarial. São Paulo: Atlas, 2010. CARPINETTI, L. C. R. Gestão da qualidade: conceitos e técnicas. 2. ed. São Paulo: Atlas, 2012. CRESPO, A. Estatística fácil. 19. ed. São Paulo: Saraiva, 2009. HARRY, M. J. Six Sigma: a breakthrough strategy for profitability. Quality Progress, v. 31, n. 5, p. 60-64, maio 1998. PANDE, Peter S.; NEUMAN, Robert P.; CAVANAGH, Roland R. Estratégia Seis Sigma: como a GE, a Motorola e outras grandes empresas estão aguçando seu desempenho. Rio de Janeiro: Bibliografia Clássica Bibliografia Geral Qualitymark, 2001. PEREZ-WILSON, Mario. Seis Sigma: compreendendo o conceito, as implicações e os desafios. Tradução de Bazán Tecnologia e Linguística. Rio de Janeiro: Qualitymark, 1999. SILVA, E. M. Estatística para cursos de economia, administração e ciências contábeis. 4. ed. São Paulo: Atlas, 2010. TIBONI, C. G. R. Estatística básica: para os cursos de administração, ciências contábeis, tecnológicos e de gestão. São Paulo: Atlas, 2010.a guerra, foi a vez do Japão adotar o controle estatístico da qualidade, seguindo parte dos padrões ocidentais. A partir de 1954, com os seminários do engenheiro americano J. M. Duran, os japoneses começaram a perceber que o controle da qualidade dependia muito de fatores humanos e culturais. A partir dessa percepção, foi desenvolvido um método japonês para o controle da qualidade, que deu origem ao controle da qualidade total no estilo japonês, envolvendo a participação de todos os setores e funcionários da empresa e que muito contribuiu para que o Japão passasse a fabricar produtos da mais alta qualidade. Recentemente, vários países perceberam as vantagens do controle da qualidade e um grande número de empresas em todo o mundo vêm utilizando os métodos do controle da qualidade, com as adaptações necessárias às suas situações específicas. As ferramentas do CEP apresentadas neste texto estão inseridas também nas quatro fases. É importante enfatizar que a busca por qualidade não termina nunca e, consequentemente, as quatro fases nunca terminam, na realidade, mas sim continuam como um ciclo permanente. Conceitos iniciais A ideia principal do CEP é a de que melhores processos de produção com menos variabilidade propiciam níveis melhores de qualidade nos resultados da produção. Quando se fala em melhores processos, isso significa não somente qualidade melhor, mas também custos menores. Os custos diminuem principalmente em função de duas razões: a inspeção por amostragem e a redução dos rejeitos. As informações sobre o desempenho de um processo são obtidas a partir do estudo cruzado dos itens a seguir: a. qualidade das características do produto final b. qualidade das características intermediárias c. ajuste dos parâmetros do processo. As informações sobre o processo são úteis na medida em que alavancam ações de melhoria. Se não se pretende agir sobre o processo, coletar informações é inútil e dispendioso. A coleta de dados e as ações ao longo do processo são orientadas para o futuro, pois permitem detectar o defeito assim que ele é gerado, possibilitando a atuação sobre o processo no momento e local adequados. Essas ações podem envolver controle sobre as matérias-primas, ajustes nos parâmetros do processo, manutenção periódica, treinamento de operadores, entre outras. Corrigindo-se o processo, evita-se que novas peças defeituosas sejam produzidas. As inspeções sobre o produto final são orientadas para o passado, pois elas permitem apenas separar o produto conforme do produto não-conforme (refugo) que pode eventualmente ser retrabalhado. As inspeções têm algumas vantagens, pois impedem que produtos defeituosos cheguem ao cliente, mas não são uma forma eficiente de ação. Agir sobre o processo é mais eficaz, pois impede que novas peças defeituosas sejam produzidas. Por esses motivos, a ferramenta base para o CEP é a estatística, com ênfase na descritiva. Um dos pilares dos estudos que envolvem os conceitos da estatística é a amostragem. Populações (na fábrica, o engenheiro utiliza a palavra “lotes”) são em geral grandes demais para análises muito detalhadas ou por cada item. Em muitos casos, a inspeção a 100% é uma regra da fábrica, mas na realidade esse procedimento não funciona adequadamente. Imagine o operador que possui a responsabilidade de verificar o nível de preenchimento de um lote de garrafas de cerveja. O lote contém 50.000 unidades. Depois de inspecionar apenas cem garrafas, é muito provável que o operador já não esteja mais pensando em níveis de preenchimento, mas sim no próximo jogo do seu time de futebol, na próxima oportunidade de tomar uma cerveja ou na próxima namorada. No final, inspeção a 100% tem custos elevados e resultados péssimos. A seleção de amostras de tamanho muito menor que a população enxuga os custos e paradoxalmente acaba representando melhor as características daquela população. A amostragem também é necessária quando a inspeção necessita da destruição do item amostrado (ensaio destrutivo). Nesse caso, poucos itens vão para o laboratório para sofrer a verificação dos técnicos. No próximo capítulo serão discutidos esses conceitos para o entendimento das ferramentas que serão utilizadas. Uma segunda razão pela qual a aplicação de CEP impulsiona os custos para baixo é que o número e percentagem de peças defeituosas produzidas na fábrica diminuirão com as melhorias na linha de produção. Portanto, com menos refugo e menos retrabalho, o custo por peça produzida vai diminuir. Enfatiza-se que existe somente uma razão para utilizar CEP na fábrica: aumentar o resultado financeiro da empresa, se possível no curto prazo, mas também – e talvez mais importante – ao longo prazo. No entanto, CEP não é nenhum milagre e consequentemente deve ser abordado na empresa como qualquer projeto de investimento nos quais os custos são contabilizados e os benefícios previstos e medidos. A otimização nos processos industriais para que eles sejam caracterizados por altos níveis de eficiência não é muito comum nas fábricas. No entanto, dentro do CEP existem ferramentas para monitorar o processo e, portanto, melhorá-lo. O monitoramento tem como requisitos a amostragem feita periodicamente e o tamanho da amostra adequado. Esse assunto será abordado no capítulo que contém os denominados gráficos de controle. A ideia de controlar um processo é totalmente diferente da ideia de inspecionar peças para identificar as que são consideradas “não conformes”, embora os dois procedimentos em parte utilizem as mesmas ferramentas estatísticas. A inspeção de peças individuais tem como objetivo a eliminação de peças de baixa qualidade que não alcançam as expectativas do consumidor e não devem ser colocadas no mercado. Com uma constante inspeção do produto ao longo da linha de produção, a empresa pode identificar o produto que precisa ser melhorado ou até mesmo ter rejeição total. Nesse caso, a fábrica gastará desnecessariamente para corrigir erros que não aconteceriam com tanta frequência em uma fábrica melhor organizada. No caso de uma fábrica considerada melhor, é feita a coisa certa desde a primeira vez e, se a fábrica for realmente eficiente, não se exigirá inspeção a todo instante porque há confiança de que o produto já está saindo dentro das especificações. Na indústria, é muito comum que a fabricação de peças não conformes ocorra porque os processos da empresa são instáveis (irregulares) a ponto de gerar um produto fora das especificações. Em outras palavras, a fábrica não está controlando o processo para melhorar constantemente a qualidade do produto. As causas são divididas em três grupos básicos: Para estabilizar os processos da empresa, utilizam-se as ferramentas do CEP, exigindo apenas pequenas amostras, sempre muito menores do que os lotes. As investigações do gerente se voltarão a grandes causas das irregularidades na linha de produção. Cada vez que uma nova causa é identificada e documentada para análise, portanto eliminada, o processo de produção é estabilizado e a qualidade garantida e/ou melhorada. Causas especiais São causas que não são pequenas e não seguem um padrão aleatório (erros de set up, problemas nos equipamentos ou nas ferramentas, um lote de matéria prima com características muito diferentes etc.), por isso também são chamadas de causas assinaláveis. São consideradas falhas de operação. Elas fazem com que o processo saia fora de seu padrão natural de operação, ou seja, provocam alterações na forma, tendência central ou variabilidade das características de qualidade. Elas reduzem significativamente o desempenho do processo e devem ser identificadas e neutralizadas, pois sua correção se justifica economicamente. As causas especiais geralmente são corrigidas por ação local e, por isso, são de responsabilidade dos operadores, apesar de algumas vezes a gerência estar em melhor posição para resolver o problema. Uma causa especial é assinalável e, em geral, única. No entanto, é suficientementegrande para produzir perturbações fortes no processo. É um evento que ocorre uma vez ou ocasionalmente e é imprevisível. Essas causas têm que ser eliminadas ou, se por alguma razão não são elimináveis, então sua influência pode ser reduzida por ações consideradas compensatórias. Exemplos de causas especiais são trovoada e relâmpago, o vento de uma janela deixada aberta, um funcionário intoxicado, um treinamento onde faltou um ensinamento importante, uma substância estranha na matéria-prima, um atraso na chegada dos funcionários porque o ônibus quebrou, entre outros. Causas estruturais Como a causa especial, a estrutural é também eliminável ou compensável, mas a diferença é que esta ocorre periodicamente. Quando o período entre ocorrências é relativamente grande, a causa estrutural se confunde com uma causa especial, mas, se o gerente for atento, ele vai acabar percebendo sua natureza repetitiva. Para entender melhor o conceito, um exemplo simples é apresentado em seguida. Um gerente já entendeu que a produtividade da fábrica é sofrível em algumas segundas-feiras. Então ele mandou avisar que a ocorrência de preguiça na fábrica não seria mais tolerada. Infelizmente, o tal evento preguiça continuou até mesmo após várias advertências. O gerente notou que a sua própria produtividade nesses dias também foi muito baixa. Às vezes, é necessário procurar causas estruturais: o problema, nesse caso, é que se tratavam das segundas-feiras que caem depois do grande clássico de domingo na capital. Em termos de produtividade, esse tipo de segunda-feira é intrinsecamente um dia diferente de todos os outros, independentemente de quem ganha ou quem perde o jogo. Resultado: hoje em dia há um consenso na fábrica de que, embora o atraso não seja tolerado, segunda-feira de manhã depois do clássico é um período na fábrica que exige uma gerência diferenciada, com mais café, sucos de vários tipos e dois ou três períodos curtos de exercícios e alongamento. A causa estrutural assim não é eliminada porque a tradição do futebol no Brasil dificilmente desaparecerá, mas é compensada por normas de gerenciamento mais sensatas. Causas comuns As causas comuns são as diversas fontes de variação que atuam de forma aleatória no processo, gerando uma variabilidade inerente do processo. Essa variabilidade representa o padrão natural do processo, pois é resultante do efeito cumulativo de pequenas fontes de variabilidade que acontecem diariamente, mesmo quando o processo está trabalhando sob condições normais de operação. Essas causas são relativamente pequenas, mas ocorrem quase sempre e em grande número. É o acúmulo dessas causas em um certo período de tempo que gera a existência da variável aleatória. Por que, em uma simples jogada de uma moeda homogênea (considerada justa em ambas as faces), pode por vezes cair cara e em outras vezes coroa? Muitos fatores podem afetar a jogada de uma moeda, e cada um deles é tão pequeno, que uma análise científica desse resultado é praticamente impossível. As ferramentas de CEP em geral não são apropriadas na análise e eliminação de causas comuns. Embora as causas comuns possam ser reduzidas, elas sempre vão existir, enquanto que a natureza, na sua totalidade, possui uma diversidade muito grande e em boa parte incompreensível pelo ser humano. A redução dessas causas vem apenas com muito sacrifício em tempo e recursos. Para diminuir irregularidades das causas comuns, é necessário investir em novas e melhores máquinas, melhor matéria-prima, treinamento intensivo, um ambiente de trabalho mais confortável, entre outros. Neste caso, qualidade e custo andam juntos. Assim, é fácil entender por que o carro popular custa barato e o carro de famosos jogadores de futebol custa cem vezes mais. Exemplos de causas comuns são: uma fábrica no sertão do Ceará sem ar-condicionado, matéria-prima de baixa qualidade mas de baixo preço, gerente de produção sem nenhum estudo na área de produção, maquinaria velha, combinação errada de ingredientes em um processo químico etc. Com esses conceitos básicos do CEP, serão introduzidas algumas ferramentas simples para melhorar a qualidade, encontradas em utilização generalizada na manufatura e em algumas instâncias da administração. Videoaula - Conceitos Iniciais Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629151595". A estatística descritiva2 Quando o gerente de produção mede e analisa uma característica da linha de produção, uma característica física do produto ou uma medida do desempenho do processo, possui em mente a melhoria do processo. Ele vê uma combinação dos insumos do processo, a atuação dos operadores com a combinação dos insumos e as atividades das máquinas e, finalmente, o produto final. A visão do gerente é de aspectos concretos da sua linha de produção e em termos sistêmicos. O estatístico, por outro lado, verá esse mesmo processo como algo mais abstrato, como um gerador de números. Esse profissional notará se os números gerados são centrados e simétricos ao redor de uma tendência central, se existem ou não alguns dados muito discrepantes dos outros ou se há algum tipo de relação entre variáveis diferentes. É fácil observarmos que o gerente, sem a ajuda do estatístico, não captará todas as informações disponíveis nos dados, e o estatístico sozinho não saberá onde deve concentrar seus esforços para melhorar o processo. Portanto, o gerente de produção e o estatístico têm muito a ganhar trabalhando em conjunto. No início do estudo de uma ciência ou na estruturação de um curso costuma-se definir ou tentar definir o que é essencial para o completo entendimento das disciplinas mais específicas e direcionadas, como é o caso da estatística e sua disciplina “controle estatístico do processo de qualidade”. Assim, para Kachigan, a estatística é a ciência que consiste na “recolha, organização e interpretação de dados de acordo com procedimentos bem definidos”. Outro importante autor da área, Murtera, também discutiu algumas ideias no mesmo sentido: “A estatística é um repositório de instrumentos adequados para recolher, explorar, descrever e interpretar conjuntos de dados. A análise de qualquer uma destas duas definições revela que, na base da estatística, está um conjunto de dados numéricos. A estatística é então constituída pelos métodos que são utilizados para recolhê-los, organizá-los, descrevê-los e interpretá-los, além de auxiliar para uma tomada de decisão. Para uma melhor compreensão da natureza dessa disciplina, mas também o que se entende por dados, os próximos capítulos se referirão às principais fases para a compreensão do processo da análise estatística. O que é estatística?2.1 A estatística descritiva reúne um conjunto de técnicas para sumarizar os dados (tabelas e gráficos) e medidas descritivas que permitem tirar inúmeras informações contidas nos dados numéricos que foram coletados. Já a estatística indutiva (ou estatística inferencial) produz informações sobre uma dada característica da população de interesse a partir de dados colhidos de uma parte dessa população. Em ambos os casos, a finalidade da pesquisa é coletar dados para obter informações que podem ser de extrema valia para a tomada de uma decisão. É importante saber que os dados numéricos utilizados na estatística são decorrentes de uma pesquisa ou observações de uma ou mais variáveis. Por sua vez, variável é tudo aquilo que se deseja pesquisar ou observar para se tirar algum tipo de conclusão (idade, sexo, peso, salário, quantidade de defeitos, entre outras). Os dados usualmente provêm de uma amostra, a qual representa uma população de interesse. O conceito de população pode ser definido como o conjunto de indivíduos (ou objetos) que apresentam pelo menos uma característica em comum, cujo comportamento deseja-se analisar ou inferir. Para entender o que significa amostra, basta saber que é uma parte da população, ou seja, umsubconjunto. Mas qual é o papel da estatística na ciência ou para a empresa? O principal propósito da investigação é responder a uma questão científica ou de interesse da empresa. Na ciência, são realizados estudos experimentais ou observacionais, levando à coleta de dados numéricos. O padrão de variação entre os dados faz com que a resposta não seja óbvia, tornando o conhecimento da estatística essencial para a validação do resultado. Existem basicamente dois tipos diferentes de pesquisa e seus conceitos podem ser estendidos para diversas aplicações. A primeira é conhecida como pesquisa de levantamento, correspondente à observação ou medição da característica de interesse de uma população, mas sem a manipulação dos dados coletados. A segunda é conhecida como pesquisa experimental, que corresponde ao tipo de pesquisa em que as características de grupos de indivíduos (por exemplo, animais ou objetos são levantadas e depois manipuladas para se avaliar o efeito de diferentes tratamentos dos dados coletados. De qualquer forma, uma pesquisa deve conter as fases: 1. definição do problema 2. planejamento 3. coleta dos dados 4. apuração 5. apresentação Estatística descritiva e indutiva2.2 6. análise e interpretação Os processos estatísticos de abordagem avaliam de uma forma direta ou indireta um parâmetro em análise de uma determinada população. Em estatística, o parâmetro pode ser entendido como uma grandeza mensurável que permite apresentar, de forma mais simples, as características principais de um conjunto de dados. O censo é um processo estatístico de abordagem que avalia diretamente um parâmetro, utilizando todos os componentes da população, e a estimação é um processo estatístico de abordagem que avalia indiretamente um parâmetro com base em um estimador, envolvendo probabilidades. O Quadro 1 compara sucintamente as principais vantagens e desvantagens entre a aplicação do censo e da estimação. Quadro 1 - Comparação entre censo e estimação Censo Estimação Admite erro processual zero e possui confiabilidade de 100%. Admite erro processual positivo e possui confiabilidade menor que 100%. É mais caro. É mais barato. É demorado (mais lento para obter). É rápido. É quase sempre desatualizado. É atualizado. Nem sempre é viável economicamente. É viável economicamente. Fonte: adaptado de Silva (2010). Uma pesquisa de coleta de dados normalmente retorna números desorganizados conhecidos como dados brutos. A primeira atitude de qualquer profissional que trabalhe com estatística será a de organizar esses dados na forma crescente ou decrescente, o que é conhecido como rol, para facilitar a aplicação das ferramentas estatísticas. Videoaula - Organização de Dados Numéricos e Distribuição de Frequências Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629153344". Organização dos dados numéricos3 Após os conceitos iniciais e essenciais para um melhor entendimento das partes seguintes, vamos organizar os dados numéricos na forma de tabelas, com o objetivo de facilitar os cálculos posteriores e interpretar os valores de uma maneira simples e objetiva. Na estatística descritiva, existem formas diversas de construir uma tabela de acordo com cada situação de pesquisa e também com a experiência adquirida pelo especialista no decorrer do estudo e da prática. Entretanto, para não estendermos muito o assunto, trataremos de duas das mais importantes tabelas: a variável discreta e a variável contínua. Caso necessite de informações mais específicas sobre a organização de dados numéricos na forma de tabelas, consulte as referências que tratam de estatística no final da apostila. A variável discreta é uma série estatística que contém dados ou conjunto de dados na forma de uma simples tabela prática e organizada. Conceitualmente, é uma representação tabular de um conjunto de valores em que colocamos na primeira coluna, em ordem crescente, apenas os valoresdistintos (diferentes) da série e, na segunda coluna, os valores das frequências simples correspondentes (Tabela 1). É importante entender que a frequência simples é o número de vezes em que um dado aparece no conjunto de dados, ou seja, o número de vezes que se repetiu após a realização da pesquisa. Exemplo 1 - Uma pesquisa retornou os seguintes dados numéricos: Após a organização dos valores acima na forma da variável discreta, temos: Tabela 1 - Representação tabular contendo os valores distintos com as frequências simples Valores distintos (x ) Frequência simples (f ) 2 1 3 4 3,5 6 4 5 Variável discreta3.1 i i Valores distintos (x ) Frequência simples (f ) 4,5 5 5 3 Fonte: elaborada pelo autor (2021). É importante informar que o exemplo acima não possui uma aplicação (exemplo meramente conceitual) e foi apresentado com o intuito de compreender a simples montagem da tabela – os significados das colunas “valores distintos” (representado por xi) e “frequência simples” (representada por �i). Dependendo da pesquisa, se torna dispendioso e inviável construir a variável discreta, em decorrência da mesma começar a possuir uma quantidade de linhas que dificulta cálculos posteriores e que é cansativa na interpretação dos valores contidos na tabela. Não existe uma regra rígida para a construção deste tipo de tabela, mas cabe ao especialista ou estudioso no assunto definir com a experiência se será ou não de extrema valia e praticidade. De maneira geral, a variável discreta é utilizada quando o número de elementos distintos da série (denominação dos especialistas para uma sequência de números após a realização da pesquisa) for relativamente pequeno, se comparado com o número de repetições (frequência simples) de cada. Se, após a realização da pesquisa, o número de elementos distintos da série for relativamente maior do que o número de repetições de cada um deles, entende-se que a construção da variável discreta resultará em uma tabela longa e de difícil interpretação. Principalmente por esse motivo, existe uma tabela alternativa conhecida como variável contínua. Essa tabela simplifica a anterior na maioria das aplicações, facilitando a interpretação de determinadas medidas e a tomada de alguma decisão. i i A variável contínua também é uma série estatística que contém dados ou conjunto de dados na forma de uma tabela organizada. Entretanto, é uma representação tabular de um conjunto de valores em que colocamos na primeira coluna, em ordem crescente, os intervalos de classes da série e, na segunda coluna, os valores das frequências simples correspondentes aos números presentes nos respectivos intervalos de classes (Tabela 2). Exemplo 2 - Uma pesquisa retornou os seguintes dados numéricos: Variável contínua3.2 Após a organização dos valores acima na forma da variável contínua, temos: Tabela 2 - Representação tabular contendo intervalos de valores com as frequências simples Classe Intervalo de classe Frequência simples (f ) 1 2 ├ 5 10 2 5 ├ 8 5 3 8 ├ 11 6 4 11 ├ 14 6 5 14 ├ 17 5 6 17 ├ 20 4 Fonte: elaborada pelo autor (2021). A diferença desse tipo de tabela, quando comparada com a variável discreta, está na coluna denominada intervalo de classe, que significa faixa de valores numéricos. Como o exemplo anterior, este também não possui uma aplicação e foi apresentado com o intuito de compreender o significado da tabela. Para esse caso, existe uma teoria para a sua construção, de forma a adequar os dados numéricos e distribuí-los homogeneamente (distribuir os números em partes iguais por toda a tabela) em cada linha (na variável contínua, cada linha é chamada de classe) da tabela. Uma teoria para a construção da variável contínua é apresentada a seguir, mas, para informações mais específicas, consulte as obras de Bruni. A elaboração de tabelas para dados que apresentam grande quantidade de números distintos e, consequentemente, grande dispersão entre eles pouco pode ajudar nos cálculos envolvendo osdados, principalmente na interpretação dos mesmos. Por isso, para entender a construção da tabela apresentada acima, vamos trabalhar com um exemplo envolvendo uma pesquisa realizada para levantar a variável renda de 25 funcionários (Tabela 3). Tabela 3 - Pesquisa da renda na forma tabular da variável discreta Renda (em $) Número de funcionários 910,00 2 920,00 1 i Renda (em $) Número de funcionários 930,00 1 940,00 2 950,00 2 960,00 1 1.010,00 1 1.040,00 1 1.090,00 1 1.120,00 1 1.615,00 1 1.640,00 1 1.690,00 1 1.890,00 1 1.940,00 1 1.955,00 1 1.980,00 1 2.030,00 1 2.045,00 1 2.155,00 1 2.175,00 1 2.235.00 1 Soma (Σ) = 25 Fonte: adaptado de Bruni (2010). Analisando a tabela acima, percebe-se que os 25 casos originais foram agrupados em 22 categorias (linhas) de renda. A análise resultante da tabela prova que não adiantou muita coisa construir a tabela na forma de uma variável contínua para organizar os dados numéricos, com o objetivo de construir uma tabela mais curta para facilitar os cálculos e tornar a interpretação mais simples. A redução de um total de 25 casos para 22 categorias é, de fato, muito pequena. Quando variáveis quantitativas com alta dispersão e marcadas pela presença de muitos valores diferentes são analisadas, um resultado mais adequado pode ser obtido por meio do agrupamento dos dados numéricos em classes, isto é, agrupando os números em faixas de valores, ao invés de apenas um valor diferente em cada linha da tabela. Alguns textos e autores mais conservadores da estatística ainda sugerem procedimentos formais para a construção de classes ou também chamadas de classes de frequências. Nesse sentido, a determinação do número de classes, representado pela letra K, depende fundamentalmente do número de elementos pesquisados e/ou estudados (ou número total de elementos da série), representado pela letra n. No geral, os procedimentos formais envolvem os seguintes conceitos: 1. Se n ≤ 25, devem ser criadas cinco classes na tabela; 2. Se n > 25, o número mais adequado de classes pode ser obtido mediante dois procedimentos distintos: K = √n ou K = 1 + 3,32log (n). 3. A primeira fórmula é conhecida como método da raiz quadrada e a última é chamada de fórmula de Sturges. Normalmente, as fórmulas anteriores resultam em números não inteiros (decimais), mas grande parte dos especialistas indica o seguinte procedimento: a. Se K for um número inteiro, será o número de classes (linhas) que a tabela conterá. b. Se K for a metade de dois números inteiros (por exemplo: a metade entre 3 e 4 é 3,5), o número de classes será um desses números inteiros. c. Se K for um número decimal diferente da metade de dois números inteiros, o número de classes será definido entre três aproximações resultando em números inteiros. A primeira aproximação será o número inteiro mais próximo do decimal obtido. A segunda será o número inteiro anterior ao inteiro mais próximo do decimal obtido. A terceira será o número inteiro posterior ao inteiro mais próximo do decimal obtido. Exemplo 3 - Se n = 40, K = √n = √40 = 6,32 (com duas casas decimais). De acordo com o item (c) da página anterior, as três aproximações resultando em números inteiros são 5, 6 ou 7. Se aplicarmos a fórmula de Sturges, temos K = 1 + 3,32log(40) = 6,1586 = 6,16 com as mesmas aproximações: 5, 6 ou 7. Com um número de classe definido ou entre duas ou três aproximações obtidas, pode-se calcular a amplitude total da série (At). Essa amplitude é a diferença existente entre o maior (X ) e o menor (X ) número da série, ou seja, At = X − X . Para o nosso exemplo, o cálculo resulta: A = 2235 − 910 = 1325. O processo de construção de classes demanda o estabelecimento de convenções que representam os limites de cada uma das classes construídas. Assim, por exemplo, se no agrupamento em classes das idades o especialista resolve construir uma classe que compreenda as idades entre 10 e 14 anos, ele precisará estabelecer se os limites inferiores máximo mínimo máximo mínimo t (número antes do intervalo) e superiores (número depois do intervalo) serão do tipo inclusive ou exclusive. Os limites do tipo inclusive, como o próprio nome revela, incluem o valor representado. Os limites exclusive não incluem o valor representado. Uma das convenções mais empregadas na representação dos limites de intervalos de classes envolve a colocação de barras verticais (simbolizadas por “│”) juntamente a barras horizontais (simbolizadas por “―”). A barra horizontal representa o intervalo entre os limites inferior e posterior, enquanto a barra vertical ao lado do número indica se tratar de um limite do tipo inclusive. A ausência da barra caracteriza limites do tipo exclusive. A Tabela 4 contém as principais representações. Tabela 4 - As quatro principais formas de representação dos intervalos de classes Representação Interpretação intuitiva 2 ├ 5 A barra vertical está presente apenas no limite inferior. Desse modo, o elemento 2 faz parte do intervalo de valores (classe), e o elemento 5 não será incluído nesta classe, pois é do tipo exclusive. 2 ┤ 5 A barra vertical está presente apenas no limite superior. Desse modo, o elemento 5 faz parte da classe, e o elemento 2 não será incluído nesta classe. 2 ― 5 A ausência da barra em ambos os limites os caracteriza como do tipo exclusive. Os dois elementos não serão incluídos nesta classe. 2 ├┤ 5 A presença de barras verticais em ambos os limites indica que são do tipo inclusive. Os dois elementos serão incluídos nesta classe. Fonte: adaptado de Bruni (2010). Para direcionarmos o estudo e não nos estendermos nos conceitos mais específicos sobre a construção da variável contínua, será adotada a representação da classe com o limite inferior do tipo inclusive e o limite superior do tipo exclusive, ou seja, 2├ 5. Podemos interpretar que esse intervalo de classe contempla todos os elementos iguais e maiores que dois e menores que cinco. É importante considerar que, na última classe da tabela, quando se adota o limite superior como do tipo exclusive, não se pode excluir o maior elemento da série na contagem das frequências e na interpretação dos resultados, pois o mesmo faz parte da pesquisa. Neste caso, realizaremos um ajuste na fórmula da amplitude total. Para o nosso exemplo, o cálculo resultou em: A = 2235 − 910 = 1325. Uma maneira prática e simples de não desconsiderar o maior elemento da série na estatística é acrescentar uma t unidade no maior elemento, ou seja, ajustar a fórmula da amplitude total para . Dessa forma, se o 2.236 fechar o último intervalo de classe, não será descartado o 2.235. Após a definição do número de classes e da amplitude total da série, podemos definir a amplitude de cada intervalo de classe (h) dividindo simplesmente a amplitude total por cada um dos números de classes definidos anteriormente, através da seguinte fórmula: Como temos três possíveis números de classes (K = 5, 6 ou 7), precisaremos dividir a amplitude total por cada um dos três valores de K. A divisão que resultar em um valor inteiro é adotada por padrão, pois amplitudes com valores inteiros são mais fáceis de serem construídas e interpretadas, além de facilitar cálculos posteriores. Se duas das três divisões resultarem em números inteiros, pode-se adotar o caminho que se considerar mais adequado. Entretanto, se nenhuma divisão resultar em um número inteiro, considere os seguintes ajustes: 1. Na fórmula da amplitude total, como o valor do maior elemento da série foi ajustado uma unidade para cima, ajuste o menor elemento da série uma unidade para baixo. Esse procedimento é usado, pois o menor elemento da série começa na primeira classe e do lado do símbolo com a barra vertical, ou seja, é do tipo inclusive. Não se pode ajustar o menor elemento uma unidade acima, pois o mesmo seria desconsiderado da estatística. 2. Se não for suficiente para obter um h igual a um número inteiro, ajuste novamente o maior elemento da série uma unidade paracima. 3. Se novamente não for suficiente, diminua outra unidade do menor elemento da série. 4. Repita o ciclo até que se consiga dividir a nova amplitude total pelos valores de K e resultar em um número inteiro. No exemplo, aplicando a fórmula da amplitude de cada intervalo de classe, temos: 1. Para 2. Para 3. Para A divisão de 1.326 por 6 resultou em um número inteiro igual a 221. Com isso, temos todas as informações necessárias para a construção da variável contínua do exemplo discutido. Após os conceitos apresentados e cálculos realizados, temos a Tabela 5: Tabela 5 - Pesquisa da renda na forma tabular da variável contínua Classe Renda (em $) Número de funcionários K = 6 1 910 ├ 1.131 13 X = 2 1.131 ├ 1.352 0 X = 3 1.352 ├ 1.573 0 h = 221 4 1.573 ├ 1.794 3 A = 1326 5 1.794 ├ 2.015 4 6 2.015 ├ 2.236 5 Fonte: adaptado de Bruni (2010). mínimo máximo t Distribuição de frequências4 Uma vez que o interessado tenha colocado os dados na forma de uma variável discreta ou contínua (na forma de tabelas), ele poderá rapidamente obter algumas informações adicionais e úteis para a compreensão da série se considerar os seguintes conceitos: A frequência relativa (f ) de um elemento da série é a divisão da frequência simples (f ) deste elemento pelo número total de elementos da série (n) (SILVA, 2010; CRESPO, 2009). Para converter o valor em percentual, basta multiplicar o resultado da divisão anterior por 100: Exemplo 4 - Considere a seguinte variável discreta: x f 2 3 3 7 4 8 6 6 7 1 O total de elementos desta série é 25. Portanto, a frequência relativa do primeiro elemento distinto da série, que é 2, vale: No caso anterior, a numeração que acompanha as siglas de frequência relativa e frequência simples representa o cálculo para o elemento que ocupa a primeira linha da tabela. Da mesma forma, determinamos a frequência relativa dos demais elementos da tabela: Frequência relativa4.1 ri i i i Note que esses valores representam a participação percentual de cada elemento distinto na série. Assim, podemos escrever e compreender as seguintes interpretações: 1º linha: 12% dos valores da série são iguais a 2. 2º linha: 28% dos valores da série são iguais a 3. 3º linha: 32% dos valores da série são iguais a 4. 4º linha: 24% dos valores da série são iguais a 6. 5º linha: 4% dos valores da série são iguais a 7. O conceito apresentado se torna mais fácil quando construímos uma coluna adicional na tabela para calcular e interpretar a frequência relativa de cada elemento da série: X f f (%) 2 3 12 3 7 28 4 8 32 6 6 24 7 1 4 Como a frequência relativa representa a participação percentual de cada elemento distinto da série, a soma de todas as frequências relativas representa a participação percentual da série toda, ou seja, é igual a 100%. Portanto, ∑f = 100% . A frequência simples e a frequência relativa representam, respectivamente, a quantidade de vezes e o percentual de cada elemento distinto. Entretanto, em determinadas situações, precisaremos saber a quantidade de vezes e o percentual não somente para um único elemento, mas também para dois ou mais ao mesmo tempo. i i ri ri A frequência acumulada (F ou F ) de cada elemento da série é a soma da frequência simples desse elemento com as frequências simples dos elementos anteriores (SILVA, 2010; CRESPO, 2009): F = f + f + f + ... + f Desta forma, a frequência acumulada para cada um dos elementos 3, 4, 6 e 7 é: F = f + f = 3 + 7 = 10 F = f + f + f = 3 + 7 + 8 = 18 F = f + f + f + f = 3 + 7 + 8 + 6 = 24 F = f + f + f + f + f = 3 + 7 + 8 + 6 + 1 = 25 Esses valores podem ser interpretados da seguinte forma: 1º linha: 3 elementos componentes da série são valores menores ou iguais a 2. 2º linha: 10 elementos componentes da série são valores menores ou iguais a 3. 3º linha: 18 elementos componentes da série são valores menores ou iguais a 4. 4º linha: 24 elementos componentes da série são valores menores ou iguais a 6. 5º linha: 25 elementos componentes da série são valores menores ou iguais a 7. O procedimento, assim como o anterior, torna-se mais simples quando construímos uma coluna adicional na tabela para calcular e interpretar a frequência acumulada. x f f (%) F 2 3 12 3 3 7 28 10 4 8 32 18 6 6 24 24 7 1 4 25 A principal finalidade de utilizar a frequência acumulada nas tabelas que contêm a frequência simples não é somente saber a quantidade de vezes que um elemento se repete, mas também conhecer a quantidade de elementos iguais ou menores que o elemento de referência. Frequência acumulada4.2 i A i 1 2 3 i 2 1 2 3 1 2 3 4 1 2 3 4 5 1 2 3 4 5 i i ri i A frequência acumulada relativa (F ) de cada elemento da série, também conhecida como frequência relativa acumulada, é a divisão da frequência acumulada deste elemento pelo número total de elementos da série (SILVA, 2010; CRESPO, 2009): Assim, as frequências acumuladas relativas dos elementos 3, 4, 6 e 7 são: Esses valores podem ser interpretados da seguinte forma: 1º linha: 12% dos valores da série são menores ou iguais a 2. 2º linha: 40% dos valores da série são menores ou iguais a 3. 3º linha: 72% dos valores da série são menores ou iguais a 4. 4º linha: 96% dos valores da série são menores ou iguais a 6. 5º linha: 100% dos valores da série são menores ou iguais a 7. O conceito se torna mais fácil quando construímos uma coluna adicional na tabela para calcular e interpretar a frequência acumulada de cada elemento da série. x f f (%) F F (%) 2 3 12 3 12 3 7 28 10 40 Frequência acumulada relativa4.3 Ri i i ri i Ri x f f (%) F F (%) 4 8 32 18 72 6 6 24 24 96 7 1 4 25 100 Quando acrescentamos todos os valores de frequências à tabela original, a mesma passa a se chamar distribuição de frequências. O procedimento acima foi aplicado na variável discreta, mas é aplicado da mesma forma na variável contínua. No caso da variável contínua, pelo fato de se utilizar intervalos de classe, as interpretações são diferentes. Exemplo 5 - Considere a seguinte variável contínua: Classe Intervalo de classe f 1 2 ├ 4 6 2 4 ├ 6 18 3 6 ├ 8 10 4 8 ├ 10 6 n = Σf = 4 Em primeiro lugar, calcule o número total de elementos da série (n). Para calcular, some a coluna que contém as frequências simples. Aplicando os conceitos da distribuição de frequências da mesma forma apresentada para a variável discreta, temos: Classe Intervalo de classe f f (%) F F (%) 1 2 ├ 4 6 15 6 15 2 4 ├ 6 18 45 24 60 3 6 ├ 8 10 25 34 85 4 8 ├ 10 6 15 40 100 n = 40 100 Observe na tabela acima que os valores das frequências relativas (f ) representam o percentual dos elementos por classe. Desse modo, podemos fazer a seguinte interpretação: 1º classe: 15% dos valores da série são maiores ou iguais a 2 e menores que 4. 2º classe: 45% dos valores da série são maiores ou iguais a 4 e menores que 6. 3º classe: 25% dos valores da série são maiores ou iguais a 6 e menores que 8. 4º classe: 15% dos valores da série são maiores ou iguais a 8 e menores que 10. i i ri i Ri i i i ri i Ri ri Com relação à frequência acumulada (F ), podemos interpretar da seguinte forma: 1º classe: 6 elementos da série são valores menores que 4. 2º classe: 24 elementos da série são valores menores que 6. 3º classe: 34 elementos da série são valores menores que 8. 4º classe: 40 elementos da série são valores menores que 10. E finalmente, com relação à frequência acumulada relativa (F ), sendo todos os elementos maiores ou iguais a 2, podemos interpretar da seguinte forma: 1º classe: 15% dos valores da série são menores que 4. 2º classe: 60% dos valores da série são menores que 6. 3º classe: 85% dos valores da série são menores que 8. 4º classe: 100% dos valores da série são menores que 10. i Ri Videoaula - Medidas de Tendência Central Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629154149". Medidas de tendência central5 Em qualquer área de investigaçãoonde os números aparecem com frequência, os profissionais estudam conceitos e metodologias gráficas de estatística para expressar estes números de uma forma mais clara e resumida. Isso é um dos objetivos principais do trabalho dos gerentes e estatísticos. Por exemplo, existem várias maneiras de medir a tendência central dos dados, e nenhuma delas é necessariamente a melhor, pois depende de cada situação e principalmente da característica dos dados numéricos. O cálculo de uma medida de tendência central é importante porque consegue representar uma série de dados em apenas um único número ou elemento. Certamente a mais popular é a média, que os conhecedores do assunto usualmente denominam de média aritmética (simples ou ponderada) e que representa a soma de uma série de dados dividida pelo número total de dados que foram somados entre si. Na Tabela 6 são informadas sessenta medidas do comprimento (em milímetros) de uma peça, a princípio uma das características essenciais da peça. Uma tabela contendo números nem sempre é interessante para um engenheiro ou gerente. Por outro lado, a média das medidas da tabela pode ser calculada facilmente aplicando as fórmulas: Após o cálculo, o especialista agora pode saber se o produto está sendo fabricado dentro da especificação desejada, mantendo a qualidade da produção. Tabela 6 - Medidas do comprimento (em milímetros) de uma peça 103,2345 99,0003 102,8121 101,4367 101,9899 102,9011 102,8764 99,7684 102,3494 102,4356 101,0009 101,2341 102,2340 102,2030 101,2556 102,1976 102,0012 100,8765 103,4566 102,2068 101,9989 102,4355 101 101,1212 99,8650 103,0894 99,1009 101,8768 99,6783 102,2332 100,7865 101,8990 99,9886 101,7864 98,8990 102,1498 98,1239 102,2457 100,2358 101,5555 101,5983 102,2526 101,6784 102,3476 100,1114 102 102,5445 102,3468 101,2344 103,0200 101,2113 102,4671 102,3356 100,7682 100,0046 99,9897 102,2223 102,3322 102,1215 101,5689 Fonte: adaptado de Bruni (2010). Para essa tabela, temos uma média de 101,4993 milímetros (mm) ou 101,50 mm (com a precisão de apenas duas casas decimais). Para o especialista, se diversas peças apresentarem comprimentos muito diferentes do valor da média, elas não estão sendo fabricadas rigorosamente e, consequentemente, cai a qualidade da linha de produção. Um problema que pode ocorrer em determinadas situações é que a média perde a sua representatividade se existirem valores muito diferentes entre os dados numéricos, pois valores discrepantes levam a média a se afastar da tendência central dos dados. Uma maneira de resolver o problema da distorção seria simplesmente descartando esses números. No entanto, o estatístico não recomenda tal procedimento por causa de um certo grau de arbitrariedade. Por exemplo, o gerente ou especialista pode sentir uma necessidade de eliminar o valor 98,1239 em decorrência de ser o menor dos números, mas por qual razão faria isso? Para resolver a distorção de números discrepantes, utiliza-se a mediana, número que está no meio dos números quando a quantidade de elementos da série é ímpar ou a média dos dois números do meio quando a quantidade de elementos da série é par. Para calcular de forma correta a mediana, os números precisam estar organizados na forma crescente ou decrescente, ou seja, posicionados seguindo um ordenamento numérico. Em uma relação de números ordenados do menor para o maior (ou vice-versa), existe um número que separa todos os números em dois grupos iguais (quando n é ímpar), os números maiores que a mediana e os números menores. No exemplo apresentado, temos dois números, e não apenas um, que separam a série em duas partes iguais (quando n é par). Neste caso, deve-se calcular uma média simples entre os dois números centrais para encontrar um valor que melhor representa o centro da sequência. Na lista dos sessenta números, como n = 60 (número par), temos os seguintes números no centro da sequência quando a mesma está ordenada: 101,8990 e 101,9989. Para encontrar a mediana, neste caso, basta calcular a média: (101,8990 + 101,9989)/2 = 101,9489. E como se interpreta este valor? A mediana é o número que divide uma sequência ordenada em duas partes iguais, ou seja: 50% dos valores da série são menores que a mediana e 50% são maiores. Podemos concluir no exemplo utilizado que 50% dos comprimentos da peça são inferiores a 101,9489 mm e 50% são superiores. É importante reforçar que, quando o número de dados numéricos ou elementos da série (n) é ímpar, a mediana é exatamente o número no meio dos números ordenados, sem a necessidade de calcular a média dos dois números posicionados no meio da sequência. Os especialistas argumentam que a mediana é melhor do que a média para representar a tendência central dos números na presença de dados muito diferentes nos dois extremos da sequência. Isso ocorre porque a mediana é insensível aos valores muito grandes ou muito pequenos. Por exemplo: se for alterado o maior valor da sequência para de 1.695.850,0 (um número bem maior que ele), o valor da mediana não muda, porque a mediana ainda continua tendo metade dos dados acima e metade abaixo de seu valor. A diferença numérica entre a mediana e a média em nosso exemplo (101,9489 – 101,4993) = 0,4496 pode ser considerada razoavelmente grande por algum engenheiro, considerando uma variabilidade pequena dos números, e significaria que a média é realmente distorcida como medida de tendência central, levando o engenheiro a utilizar a mediana. Partindo da mediana, os quartis são calculados. Com a mediana, os dados foram divididos em dois grupos, acima e abaixo da mediana. Para cada grupo encontra-se sua própria mediana, e essa mediana secundária é denominada quartil. Obviamente, há um quartil inferior, o primeiro quartil, e um quartil superior, o terceiro quartil. Para completar o raciocínio, chama-se a mediana do grupo de segundo quartil. Os quartis dividem os dados em quatro grupos distintos, cada um possuindo exatamente um quarto dos dados. No exemplo apresentado, cada um dos dois grupos tem aproximadamente 60/4 elementos e os quartis são fáceis de se encontrar. Os quartis podem ser utilizados também para definir a variabilidade dos dados. Caso a série contenha um número que se repete muito mais do que os demais, pode-se calcular a moda. A moda é conceituada como o valor de maior frequência em um conjunto de dados estatísticos (SILVA, 2010; CRESPO, 2009). Entretanto, em decorrência de ser uma medida aplicada somente em casos muito específicos, esse assunto não será abordado nesta apostila. Para consultar essas informações, verifique os livros de estatística localizados na seção de referências. Videoaula - Medidas de Dispersão ou Variabilidade Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629155457". Medidas de dispersão ou variabilidade6 As medidas de dispersão, também conhecidas como medidas de variabilidade, são tão importantes como as medidas de tendência central, e representam como os dados numéricos se dispersam (ou se afastam) da média. Quando os números são sempre próximos à média, isso significa que a tendência central representa bem os dados. No entanto, se alguns números ficarem longe da média, então a média não irá representar muito bem todos os dados numéricos da sequência. A ideia de variabilidade é importante na área da engenharia de qualidade porque oferece uma definição operacional para qualidade, uma definição que poderíamos medir e analisar e discutir com os demais colegas do curso. Por exemplo, peças fabricadas e que exibem mensurações muito espalhadas não têm qualidade, pois muitas peças acabarão rejeitadas ou retrabalhadas, o que implica em custos maiores de fabricação e uma posição fraca em termos da competição empresarial do mercado. O desvio ao redor da média é definido como a diferença entre um número individual e a média de todos os dados numéricos. Vale informar que, para o conceito de um desvio(uma distância), não existe sentido se o valor for um número negativo. A Tabela 7, por exemplo, contém dados numéricos referentes ao tempo gasto (expresso em minutos) por uma empresa para solucionar problemas dos clientes desde o momento do recebimento da queixa até a solução apresentada. A média de tempo gasto é 182,89 minutos (ou min), um pouco mais do que três horas. Tabela 7 - Minutos decorrentes até a solução referente à reclamação do cliente Código da reclamação Tempo gasto (em minutos) Desvio da média Módulo do desvio (valor absoluto) Desvio ao quadrado 123 100,00 -82,89 82,89 6.871,36 872 216,01 33,11 33,11 1.096,46 478 113,42 -69,47 69,47 4.826,37 123 287,33 104,43 104,43 10.906,22 301 221,47 38,58 38,58 1.488,33 261 194,95 12,06 12,06 145,42 222 161,55 -21,35 21,35 455,70 Código da reclamação Tempo gasto (em minutos) Desvio da média Módulo do desvio (valor absoluto) Desvio ao quadrado 182 325,89 142,99 142,99 20.447,30 143 292,62 109,73 109,73 12.040,82 104 266,38 83,49 83,49 6.970,70 164 106,19 -76,70 76,70 5.882,76 158 307,56 124,66 124,66 15.541,31 169 255,49 72,59 72,59 5.269,52 179 203,39 20,50 20,50 420,24 190 148,71 -34,19 34,19 1.168,83 200 17,00 -165,89 165,89 27.520,70 211 66,78 -116,11 116,11 13.481,55 222 165,34 -17,55 17,55 308,07 232 95,20 -87,70 87,70 7.690,68 243 102,95 -79,94 79,94 6.390,97 253 427,43 244,53 244,53 59.796,28 264 186,34 3,45 3,45 11,91 275 82,04 -100,85 100,85 10.171,11 285 59,00 -123,89 123,89 15.349,64 296 36,00 -146,89 146,89 21.577,74 306 168,89 -14,00 14,00 195,97 317 207,95 25,05 25,05 627,58 328 217,94 35,05 35,05 1.228,18 338 225,79 42,90 42,90 1.840,23 349 227,19 44,30 44,30 1.962,51 Média = 182,29 0,00 75,83 8.722,82 Amplitude = 410,43 Desvio padrão = 94,99 Fonte: adaptado de Samohyl (2009). O primeiro desvio calculado (na terceira coluna) é 100 – 182,89 = -82,89, ou seja, (X − X), que representa o desvio de um elemento (um dado) com relação à média. Normalmente, é comum os estatísticos colocarem na expressão do desvio a média depois do dado numérico individual. Assim, quando a média é menor do que o dado, o desvio é positivo e vice-versa. É muito interessante calcular a média dos desvios que representariam a variabilidade dos dados. Como demonstrado na tabela anterior, a soma dos desvios é igual a zero, e, portanto, a média dos desvios também é igual a zero. A questão, então, é saber como calcular a média dos desvios de uma maneira consistente e esclarecedora. A quarta coluna da tabela contém os mesmos desvios da terceira coluna, mas sem os sinais, representando o chamado módulo ou valor absoluto de cada desvio. A média dos desvios nesta coluna é de 75,83 min. i Por razões históricas e em decorrência de algumas características matemáticas serem difíceis de compreender, embora sejam importantes para o entendimento teórico, a média dos desvios sem sinal não é tipicamente utilizada em estudos estatísticos (SAMOHYL, 2009). Para resolver o problema do sinal, é preferível utilizar o quadrado dos desvios, o que acabou sendo o motivo da elaboração da fórmula da variância, que nada mais é do que a média dos quadrados de todos os desvios: Onde: (δ ) é a variância, (X ) representa um elemento da série ou dado numérico, (X) é a média, (f ) é a frequência simples ou número de vezes que o respectivo dado numérico se repete e (n) é o número total de elementos da série ou dados numéricos. A fórmula acima é aplicada quando se trabalha com toda a população. Para os casos que já foram mencionados no capítulo inicial da apostila e que necessitam trabalhar com uma amostra (parte da população), a fórmula acima recebe uma adaptação: 2 i i A variância é um valor elevado ao quadrado e, dependendo da aplicação, não possui interpretação. Para chegar a uma medida do desvio médio, é necessário aplicar a raiz quadrada da variância. Esse desvio médio é conhecido como desvio padrão (δ): δ = √δ Para os dados da tabela anterior, o desvio padrão é de 94,99 min. Em determinadas situações, a soma dos quadrados não é dividida pelo número de dados, mas sim por um número denominado grau de liberdade, um conceito que será brevemente discutido adiante. O desvio padrão é extremamente importante para o entendimento dos gráficos de controle de uma coleção ou agrupamento de médias e leva o nome de erro padrão. É calculado dividindo o desvio padrão pela raiz quadrada do tamanho da amostra. Por fim, considerando o tamanho da média (182,89), a diferença entre o desvio absoluto médio (75,83) e o desvio padrão (94,99) não é considerada muito grande (para esta aplicação de tempo em minutos). Com isso, podemos afirmar que ambas as medidas são apropriadas para medir a variabilidade dos dados, mas, como já foi mencionado anteriormente, o desvio padrão é preferível. Para o controle estatístico de processo, há mais uma maneira de calcular o desvio padrão, por meio de uma fórmula desenvolvida pelo próprio Shewhart para facilitar os cálculos no chamado “chão da fábrica”. Como será visto nos próximos capítulos, a utilização de amostras muito pequenas é a principal regra para um grande conjunto de gráficos de controle. Por exemplo, o operador pode mensurar (medindo) apenas cinco peças por hora (tamanho da amostra n = 5 elementos) de lotes muito maiores. Será então calculada a amplitude de cada amostra e depois a média das amplitudes (R). Shewhart desenvolveu uma tabela que contém coeficientes denominados d para converter qualquer valor de R em um desvio padrão equivalente: 2 2 É importante notar, analisando a Tabela 8, que o valor de d aumenta com o tamanho da amostra. Os outros coeficientes nas demais colunas da tabela são também muito importantes e serão utilizados mais adiante. A tabela contém os coeficientes que serão utilizados para a construção de um determinado tipo de gráfico de controle. Tabela 8 - Coeficientes calculados para os gráficos de controle n = d D1 (DP) D2 (DP) D3 (R) D4 (R) A1 (X) 2 1,128 0 3,686 0 3,267 1,880 3 1,693 0 4,358 0 2,575 1,023 4 2,059 0 4,698 0 2,282 0,729 5 2,326 0 4,918 0 2,115 0,577 6 2,534 0 5,078 0 2,004 0,483 7 2,704 0,205 5,203 0,076 1,924 0,419 8 2,847 0,387 5,307 0,136 1,864 0,373 9 2,970 0,546 5,394 0,184 1,816 0,337 10 3,078 0,687 5,469 0,223 1,777 0,308 11 3,173 0,812 5,534 0,256 1,744 0,285 12 3,258 0,924 5,592 0,284 1,716 0,266 13 3,336 1,026 5,646 0,308 1,692 0,249 14 3,407 1,121 5,693 0,329 1,671 0,235 15 3,472 1,207 5,737 0,348 1,652 0,223 20 3,735 1,548 5,922 0,414 1,586 0,180 25 3,931 1,804 6,058 0,459 1,541 0,153 Fonte: adaptado de Samohyl (2009). 2 2 Por fim, outra medida de variabilidade é o desvio quartílico, que é a diferença entre o quartil inferior e o quartil superior, já expostos no item sobre as medidas de tendência central. Na tabela referente ao comprimento das peças (em mm), pode ser calculado o desvio quartílico da seguinte forma: 101,8100 – 98,5717 = 3,2383. Como a mediana, o desvio quartílico possui a vantagem de não ser afetado por valores muito discrepantes. No entanto, a sua utilização não é muito comum, constando em alguns pacotes de softwares especializados, mas na prática é desprezado a favor do desvio-padrão. No entanto, no famoso gráfico da caixa das medianas (box-plot, em inglês), a sua presença é implícita. Com relação ao exemplo sobre as reclamações dos clientes, o gerente da empresa possui pelo menos duas medidas para analisar o desempenho frente aos clientes com queixas: a média do tempo gasto para solucionar a reclamação e o desvio-padrão. Um procedimento prático pode ser colocado nos manuais da empresa, onde, semanalmente, médias e desvios padrão são calculados, as tendências analisadas e as providências tomadas, caso sejam necessárias. Por exemplo, a média com tendência de crescimento ou o aumento do desvio padrão por meio do tempo são sinais claros de deterioração do desempenho da empresa e devem causar preocupação na parte da gerência Os dados individuais também devem sofreranálises cuidadosas, especialmente os dados que se destacam longe dos demais ou aqueles muito diferentes da maioria dos dados. Práticas profissionais - Média e desvio padrão Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629158749". Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://www.youtube.com/watch?v=_MhT8eZDNME". Recapitulando a Unidade 1 Nesta unidade você compreendeu sobre: A população e amostra Organização dos dados Distribuição de frequências Medidas de tendência central Medidas de dispersão A importância da média e do desvio padrão Interpretação de tabelas Videoaula - Gráficos diagrama das medianas e histograma Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629155755". Gráficos: diagrama das medianas e histograma 7 A melhor maneira de analisar uma série de dados não é por sua organização na forma de tabelas, mas de gráficos. A tentativa de ver padrões e tendências em uma relação de dados escritos em uma tabela certamente resultará em fracasso, especialmente quando o número de dados numéricos for grande. A Figura 1 mostra o gráfico com os dados numéricos da tabela, referente ao tempo gasto em resolver problemas dos clientes. Entre vários outros pontos, pelo menos dois são destacados: o ponto máximo no dia 21 e o ponto mínimo no dia 16. O que aconteceu nesses dois dias? Será que os eventos que ocorreram no dia 16 são controláveis e podem ser repetidos nos outros dias para beneficiar toda a situação? E os eventos do dia 21, que causaram um péssimo desempenho – será que podem ser evitados no futuro? Um gráfico que reúne as informações da mediana e também dos quartis de uma maneira didática e simples de entender é o diagrama (caixa) das medianas (Figura 2), que foi construído com os valores da Tabela 7. Figura 1 - Tempo gasto para resolver problemas dos clientes Fonte: adaptado de Samohyl (2009). https://objetos.institutophorte.com.br/PDF_generator/img/01.jpg https://objetos.institutophorte.com.br/PDF_generator/img/01.jpg As duas linhas horizontais do gráfico da Figura 2 representam os valores mínimos e máximos, respectivamente, de toda a série. Em outras palavras, a distância entre elas é a amplitude total dos dados numéricos (A ). O retângulo (ou caixa) no meio da figura representa os quartis inferior e o superior, onde está agrupada a metade central dos dados. A distância entre esses valores é o desvio quartílico. Finalmente, a linha dentro do retângulo é a mediana. Analisando a figura, pode-se verificar que os dados numéricos estão distribuídos com assimetria, tendo mais valores baixos do que altos. Os valores altos são menos frequentes mas merecem uma investigação cuidadosa, pois representam um péssimo desempenho da empresa em solucionar problemas dos clientes. Esses valores mais altos são críticos para o relacionamento da empresa com o seu público-alvo, e a gerência deve garantir que não ocorram no futuro. Diversas empresas constroem esse tipo de gráfico para entender importantes características operacionais em uma base mensal ou semanal, auxiliando o monitoramento dessa característica ao longo do tempo. É fácil ver se a característica está inserida no alvo ou evoluindo de uma maneira satisfatória e se a variabilidade dos dados está aumentando (piorando) ou diminuindo (melhorando). Um gráfico que possui todas as características do diagrama das medianas, mas exibe muito mais informações sobre a distribuição dos dados numéricos é o histograma. Para entender a construção e interpretação desse tipo de gráfico, consideremos o seguinte exemplo: retirou-se de um laticínio uma amostra de 150 sacos plásticos contendo leite que, por norma, deveriam ter exatamente um litro cada. Figura 2 - Diagrama das medianas do tempo gasto nas reclamações Fonte: adaptado de Samohyl (2009). t https://objetos.institutophorte.com.br/PDF_generator/img/02.png https://objetos.institutophorte.com.br/PDF_generator/img/02.png A Tabela 9 contém os dados numéricos da amostra escolhida, e o histograma é um retrato dos dados presentes nessa tabela. Tabela 9 - Frequências de medidas em mililitros (ml) de sacos de leite Volume de leite: contendo até (ml) Frequência simples Frequência acumulada relativa (%) 856,44 1 0,67 878,61 1 1,33 900,77 1 2,00 922,94 3 4,00 945,10 19 16,67 967,27 19 29,33 989,43 25 46,00 1.011,60 21 60,00 1.033,77 23 75,33 1.055,93 19 88,00 1.078,10 10 94,67 1.100,26 4 97,33 mais de 1.100,26 4 100 Fonte: adaptado de Samohyl (2009). De acordo com a tabela, na primeira linha, dos 150 sacos investigados, um saco entra na classe de volume de zero até 856,44 ml. Na próxima linha, temos a classe de sacos entre 856,45 ml até 878,61 ml, que possui novamente somente um saco plástico. A maior frequência, de 25 sacos de leite, refere-se à classe entre 967,28 até 989,43 ml. A última coluna da tabela contém os valores das frequências acumuladas relativas (em %) até a última classe. Por exemplo, de todos os sacos amostrados, 16,67% possuem um volume de até 945,10 ml. É evidente que isso significa que aproximadamente 83% dos sacos plásticos contendo leite possuem um volume maior. As informações da Tabela 9 estão presentes no gráfico da Figura 3, mas de uma maneira mais clara e mais fácil de interpretar: A forma do histograma, com frequências altas no meio dos números e mais baixas para números distantes da tendência central, é muito comum. Esse formato do gráfico é considerado à base da distribuição normal. O histograma apresenta de uma maneira didática a tendência central dos dados e a variabilidade. Para esse caso, é mais interessante e útil que o diagrama das medianas. Esse tipo de gráfico é uma ótima ferramenta, sendo muito utilizado para a análise de dados numéricos através do tempo. Por exemplo, um engenheiro trabalhando na linha de produção utilizaria o histograma periodicamente para verificar se a medida está de acordo com o esperado e se a dispersão dos dados não está se desviando de um controle considerado adequado. Se ocorrer discrepâncias, as mesmas devem ser investigadas e o processo corrigido. Muitas vezes o analista não utiliza a frequência simples (ou absoluta) no eixo vertical como foi representada na Figura 3, mas sim a frequência percentual (relativa). Desse modo, cada coluna do histograma representa uma percentagem da amostra ou população, se for o caso a se analisar. A soma de todas as percentagens da frequência relativa é naturalmente 100%. Neste conteúdo não serão discutidas as distinções entre as várias distribuições de probabilidade, pois esse assunto é tratado em trabalhos mais avançados e para cursos mais específicos, mas são tratados nos livros comentados na introdução e disponíveis na seção de referências. É suficiente dizer que a análise das distribuições de probabilidade é extremamente importante em uma segunda fase de implantação das ferramentas, na medida em que os processos de monitoramento são aperfeiçoados ao longo do tempo. Figura 3 - Histograma das medidas dos sacos plásticos para leite Fonte: adaptado de Samohyl (2009). https://objetos.institutophorte.com.br/PDF_generator/img/03.png https://objetos.institutophorte.com.br/PDF_generator/img/03.png Videoaula - O gráfico tipo Xi individual e amplitude móvel Escaneie a imagem ao lado com um app QR code para assistir o vídeo ou acesse o link: "https://player.vimeo.com/video/629156838". Gráficos de controle8 Os gráficos de controle possuem extrema importância para o CEP, pois são utilizados na detecção de alterações inusitadas de uma ou mais características de um processo ou produto. Em outras palavras, é uma ferramenta estatística que alerta para a presença de causas especiais na linha de produção. O paradigma tradicional é o processo industrial analisado através do tempo (também chamado de séries temporais), mas atualmente a ferramenta