Prévia do material em texto
ENGENHARIA DA CONFIABILIDADE ANDRÉ LUNARDI STEINER 2ENGENHARIA DA CONFIABILIDADE SUMÁRIO Esta é uma obra coletiva organizada por iniciativa e direção do CENTRO SUPERIOR DE TECNOLOGIA TECBRASIL LTDA – Faculdades Ftec que, na forma do art. 5º, VIII, h, da Lei nº 9.610/98, a publica sob sua marca e detém os direitos de exploração comercial e todos os demais previstos em contrato. É proibida a reprodução parcial ou integral sem autorização expressa e escrita. CENTRO UNIVERSITÁRIO UNIFTEC Rua Gustavo Ramos Sehbe n.º 107. Caxias do Sul/ RS REITOR Claudino José Meneguzzi Júnior PRÓ-REITORA ACADÊMICA Débora Frizzo PRÓ-REITOR ADMINISTRATIVO Altair Ruzzarin DIRETORA DE EDUCAÇÃO A DISTÂNCIA (EAD) Rafael Giovanella Desenvolvido pela equipe de Criações para o ensino a distância (CREAD) Coordenadora e Designer Instrucional Sabrina Maciel Diagramação, Ilustração e Alteração de Imagem Julia Oliveira Revisora Luana dos Reis O QUE É CONFIABILIDADE? 3 História 5 Conceitos 13 ELEMENTOS DE ESTATÍSTICA ASSOCIADOS 20 Variáveis discretas X Variáveis contínuas 21 Densidade 23 População e amostra 24 Regras e funções específicas 27 Distribuições de probabilidade 31 Cálculo da confiabilidade 40 Medidas de confiabilidade 42 Itens reparáveis e não reparáveis 47 ANÁLISE DA CAPACIDADE DE PROCESSOS 53 Cálculo da capabilidade 58 Probabilidade de falhas 62 Confiabilidade de verificação por atributos 62 CONFIABILIDADE DE SISTEMAS DE MEDIÇÃO 67 Análise de discriminação 70 Repetibilidade e reprodutibilidade 70 Repetibilidade e reprodutibilidade por atributo 81 CONFIABILIDADE DE COMPONENTES E SISTEMAS 86 Sistemas em Série 88 Sistemas em Paralelo 91 Sistemas série-paralelo e mistos 93 Confiabilidade geral de sistemas 95 Curva da banheira 97 PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR (ANOVA) E COM VÁRIOS FATORES 101 Execução de experimentos pelo método ANOVA 103 ACELERAÇÃO DE VIDA ÚTIL DE COMPONENTES 112 ENGENHARIA DA CONFIABILIDADE 124 FMEA 127 FTA 129 Lista de siglas 133 TABELAS 134 3ENGENHARIA DA CONFIABILIDADE O QUE É CONFIABILIDADE? Você entende o conceito de confiabilidade? Você sabe para o que serve? 4ENGENHARIA DA CONFIABILIDADE A ideia de confiabilidade é extremamente presente no nosso cotidiano, a mesma está associada, praticamente a qualquer produto, objeto, dispositivo, máquina e bem que possuímos ou com o qual interagimos, a questão é que, ou este conceito não é compreendido na sua totalidade ou está sendo interpretado de forma equivocada, fato é que, para o usuário de algum des- tes itens que foram mencionados, a confiabilidade é algo tão intrínseco na ideia de possuir um item que o próprio conceito passa desapercebido, o que fica notório são as aplicações e efeitos deste conceito. Por outro lado, para o Engenheiro compreender na ínte- gra, o conceito de confiabilidade está ligado a, praticamente, o real entendimento de boa parte da sua atuação profissional na íntegra. Posto isso, podemos entender que o engenheiro deve, efetivamente, conhecer a aplicabilidade do conceito de confiabilidade, suas nuances e suas aplicações no contexto da execução da sua profissão. As aplicações do conceito são imensas, no entanto, nota-se que passam desapercebidas em muitos âmbitos profissionais, ou ainda, não são efetivamente compreendidas por boa parte dos profissionais que, talvez de maneira omissa, por não compreender efetivamente este con- ceito, não compreende que o mesmo pode inf luenciar no fato de um produto atender um determinado mercado ou não, de um processo ser competitivo ou não, de um resultado de um processo poder ser entregue ou não, de se ter certeza de uma informação ou não, e assim por diante. Ficou curioso? Já imaginou alguma situação e quer compreender o que isso tudo quer dizer pra ver se o conceito é aplicável ou não na mesma? Vamos desmistificar o conceito e compreender suas aplicabilidades neste ebook. 5ENGENHARIA DA CONFIABILIDADE História Exatamente, como boa parte dos conceitos ligados à Engenha- ria, o conceito de confiabilidade acabou surgindo, e por consequ- ência, ganhou destaque, em vir- tude da necessidade de criar algo. Neste caso, a história nos conta que a efetiva “criação” deste algo já havia acontecido, no entanto, em virtude da sua aplicação, ou ainda, das consequências desta aplicação, foi necessário o estudo de certos fenômenos e a compreensão do comportamento dos mesmos para que a criação tomasse as propor- ções ao qual representa para nossa vida “moderna”. A história da confiabilidade, assim como a conhecemos, não é tão longeva quanto outros tantos conceitos matemáticos e físicos com os quais nos deparamos no âmbito da profissão da Engenha- ria e, por assim dizer, também não saiu do nada ou foi descoberta de uma hora para outra, mas foi sendo desenvolvida em tono da necessidade, portanto, a literatura acaba divergindo de certo modo em questões de datas, mas o que temos são fatos e momentos que levaram ao que conhecemos pelo conceito de Confiabilidade nos dias de hoje, o que nos leva a crer que este mesmo conceito ainda está evoluindo, visto as diferentes 6ENGENHARIA DA CONFIABILIDADE aplicações de equipamentos, ou o uso pretendido dos mesmos, ou a severidade do ambiente à que são impostos, enfim, come- ça-se a perceber que Confiabilidade não é algo estanque, ou seja, temos ou não confiabilidade em um produto, por assim dizer. Confiabilidade é algo que pode ser afirmado por um produto, sob determinadas condições em relação a um deter- minado tempo de uso. Sendo assim, independentemente deste conceito ter sido criado em uma data ou outra, de ser mais moderno ou mais antigo, de ter sido utilizado primeiramente por uma pessoa ou outra, o que nos interessa neste momento é compreender sua aplicação no ambiente que nós nos encontramos e que desen- volvemos nossa atividade profissional. Vamos verificar alguns fatos históricos para compreender a importância da aplicação dos conceitos, no que foram utilizados, para que consigamos vislumbrar como e em que momento o mesmo será importante no nosso dia a dia. Mas enfim, segundo Azarkhail e Modarres (2012), o mun- do passou por duas grandes Guerras Mundiais, a primeira entre os anos de 1914 e 1918 e a segunda entre os anos de 1939 e 1945. Apesar de toda a destruição e de todos os males que estas guerras trouxeram para a humanidade como um todo, é de consenso que, principalmente em termos de Engenharia, ambas foram berços do advento de inúmeros produtos e siste- máticas que até hoje utilizamos no nosso cotidiano nas empresas e também na nossa vida pessoal. Dos estudos e resultados dos produtos desenvolvidos na época das guerras, temos inúmeros medicamentos, carros, equipamentos de comunicação, técnicas de conservação de alimentos, sistemáticas produtivas, técnicas das áreas de saúde, aviões, e assim por diante. Isto aconteceu porque muitos projetos e ideias que surgem com o passar do tempo e que não tem aplicação imediata e direta no dia a dia acabam sendo “desengavetadas” em épocas de guerra por, neste ambiente, se mostrarem possivelmente aplicáveis e en- tão receberem o impulso, e muitas vezes, a verba para serem desenvolvidas. Após a guerra, muitos equipamentos, fábricas, 7ENGENHARIA DA CONFIABILIDADE ideias e projetos perdem sua aplicação militar e acabam sendo verificadas aplicações no âmbito das empresas e da vida dos cidadãos, sendo nesse aspecto que o estudo da Engenharia ganha imenso desenvolvimento. Posto isso, vamos nos concentrar em uma invenção que encontrou seu uso inicial ao final da Primeira Guerra Mundial, que foi extremamente desenvolvida e utilizada na Segunda Guerra, o avião. Os engenheiros ligados à área aeronáutica, após a guerra, contabilizaram que os (na época) poucos sistemas eletroeletrônicos instalados nos aviões ficavam, efetivamente, operantes, por somente 30 por cento do tempo de uso do avião, no entanto, eram cruciais para que o mesmo fosse operacional, ou seja, nãoexistiria aviação viável sem tais produtos. O fato é que estes produtos sofriam altas taxas de desgaste ou falhas, e que sua substituição custava cerca de 10 vezes o custo de sua aplicação original ao produto. Tal fato desencadeou diversos estudos, uns ligados à manutenabilidade dos aviões e, em espe- cífico, em dezembro de 1950, um Grupo sobre Confiabilidade de Equipamentos Eletrônicos, que estabeleceu sua preocupação com a qualidade da aplicação de tais equipamentos. O ponto que é considerado o marco zero na Engenharia de Confiabilidade é quando, entre 1956 e 1958 foi criado o Grupo Consultivo sobre Confiabilidade de Equipamentos Eletrônicos, em inglês, Advisory Group on the Reliability of Electronic Equipment (cuja sigla era AGREE, traduzindo para o português, CON- CORDO) pelo Departamento de Defesa dos EUA. O fato de sistemas eletrônicos conseguirem realizar testes de grandes números de operações repetitivas em pouco tempo, acabou por utilizar nestes produtos a abordagem científica dos conceitos estatísticos e probabilísticos desenvolvidos em 1953, que eram aplicáveis a avaliação de, por exemplo, durabilidade, tempo de vida esperado, taxa de falhas, etc. De maneira simples, grande parte dos componentes elétricos e eletrônicos, quando testados, acabam, após um certo número de repetições de teste, falhando, o que é natural e bastante compreensível, sendo que neste momento, são simplesmente 8ENGENHARIA DA CONFIABILIDADE trocados e o equipamento que fazia uso do mesmo é conside- rado renovado, para tanto, é utilizado o método estatístico da distribuição exponencial, mas isso é um tanto quanto irreal, pois este modelo não pressupõe envelhecimento e degradação do equipamento, visto que não tem “memória” para guardar o histórico de falhas. Então, na década de 1960, começou-se a utilizar o modelo de distribuição de Weibull por este repre- sentar uma taxa de risco que aumenta ou diminui em virtude do tempo, o que torna o modelo mais realista, principalmente para uso na avaliação de sistemas mecânicos, que são repara- dos. Foi criado o modelo Physics of Failure (Física da Falha, PoF na sigla em inglês), que só foi efetivamente adotado pela indústria dos eletrônicos em meados da década de 1980. Entrando na década de 1970, temos o desenvolvimento da sistemática de Árvore de Falhas, pois até este momento, os estudos eram focados em componentes ou dispositivos, mas a associação de diversos destes componentes e dispositivos não era efetivamente avaliada, e tal aplicabilidade era extremamente interessante na avaliação de instalações de gás, petróleo, in- dústria química e, principalmente, geração de energia nuclear, o que acabou com a avaliação, através desta Árvore de Falhas, da utilização de componentes associados em série ou em pa- ralelo, dependendo do caso, o que é uma abordagem bastante comum nas aplicações eletroeletrônicas, que têm características de certa independência entre componentes como elementos 9ENGENHARIA DA CONFIABILIDADE que trabalham juntos com comportamentos isolados. Tal fato já não é tão comum em sistemas mecânicos, que trabalham de maneira bastante dinâmica, em condições altamente variadas (mudanças de temperatura, pressão, lubrificação) e, em especial, a atuação de um componente está intimamente ligada com a atuação dos demais, por isso precisam que sua avaliação seja executada em sistemas paramétricos onde consigam ser obser- vadas a interdependência destas tantas variáveis. A década de 1980 viu um novo desafio com o advento do aumento de uso de sistemas de Circuito Integrado onde, independentemente do comportamento verificado dos seus componentes isolados ou associados, ainda há de se considerar que ao nível de complexidade do circuito tem forte inf luência na taxa de falhas do sistema, sendo que os modelos estatísticos de avaliação começaram a levar em conta a densidade, área e rendimento de defeitos. Além disso, a necessidade de diminui- ção de custos de projetos, a produção em massa, o surgimento cada vez maior de pequenas empresas com menores estruturas acabaram por criar abordagens que levam em conta a concepção do produto, causas-raiz de problemas, bases de dados de fatos conhecidos, opinião de diferentes especialistas (equipes mul- tidisciplinares), utilização de comportamento de componentes similares e modelos de aceleração de vida de componentes e sistemas. Estes fatores associados, podem requerer a criação de modelos matemáticos extremamente complexos e, muitas vezes, de difíceis resolução. Também foram desenvolvidas sistemáticas de avaliação de Common-Cause Failure (CCF na sigla em inglês para Causa Comum de Falha). Esta abordagem aponta que existem causas-raiz comuns para a falha, entre diversos componentes associados a um sistema dinâmico. Na década de 1990, houve a retomada do conceito de PoF, que teve seus primeiros ensaios na época da Primeira Guerra Mundial e amplamente desenvolvida na década de 1950, com a verificação das mecânicas de falhas. O fato de surgirem cada vez mais novas e poderosas ferramentas computacionais, visto que o aumento da capacidade de processamento dos 10ENGENHARIA DA CONFIABILIDADE computadores pessoais proporcionou o estudo e análise, via softwares, de projetos de componentes mecânicos que pude- ram ser extremamente refinados, traduzindo em termos de produto físico visto a certa facilidade desenvolvida no con- trole de processos e melhores práticas de produção. Isso tudo proporcionou uma diminuição no custo de desenvolvimento do produto. No campo dos eletrônicos, em 1992 o Exército americano autorizou o uso de sistemáticas de PoF para seus desenvolvimentos, sendo assim, independentemente de dados de estudos de vida de componentes, eram levados em conta sua estrutura, conhecimento nos processos de degradação de estruturas e também perfis de aplicação de cargas, ambiente de uso e propriedades de materiais da sua composição, assim, com modelos validados, era possível estimar tempos de vida útil de produtos sob determinadas condições, utilizando poucas variáveis já conhecidas. Nos anos 2000, trata-se o assunto com base em alguns questionamentos realizados ao final da década de 1990, pois em termos de técnicas de avaliação de confiabilidade, existiam defensores dos métodos de uso de testes e bases estatísticas de um lado, e de outro lado os defensores de modelos, mais ba- ratos e mais rápidos, baseados em PoF (apesar deste também se utilizar, de certa forma, de dados estatísticos e de testes, de 11ENGENHARIA DA CONFIABILIDADE maneira intrínseca). O resultado é que, atualmente, utilizam-se abordagens híbridas, onde as técnicas de PoF são utilizadas para validar componentes e sistemas básicos que são avaliados na sua íntegra, quando associados em sistemas que se utilizam de técnicas de testes repetitivos e aceleração de vida. Para tanto, são necessários dados confiáveis a respeito do comportamento de elementos físicos, químicos e suas estruturas (lembrando que estes estão em constante desenvolvimento, aprimoramento e avaliação) e também uma estrutura computacional robusta e que tenha acesso a estas informações, tudo isso para poder criar um resultado verossímil entre métodos, ou seja, um método que comprova o resultado do outro quando os dois apontam para um mesmo resultado (ferramenta computacional define um limite de durabilidade que é verificado de maneira seme- lhante em um teste de vida). Obviamente, sistemas cada vez mais complexos exigem ferramentas computacionais (softwa- res) cada vez mais robustas, com bases de dados maiores, mais completas, mais complexas que se utilizam de redes de proces- samento (hardware) cada vez mais poderosas, sendo assim, o que se faz hoje em dia é projetar e validar computacionalmente componentes com altos níveis de confiabilidade que, depois de associados em sistemas complexos (um automóvel, um avião, uma máquina) são submetidos a testes, lembrando que têm altos custos - quantomaior o nível de certeza associado aos dados de confiabilidade apontados pelo projeto, menor serão as neces- sidades de validações dos mesmos por testes físicos. Imagine, por exemplo, o projeto do motor à reação de um avião (popu- larmente conhecido como turbina) que é formado por alguns milhares de componentes, estes projetos costumam se utilizar de muitos meses de trabalho de pesquisa e desenvolvimento de componentes que, quando juntos, formarão um produto de altíssima complexidade e que precisa de níveis altíssimos de confiabilidade, visto que muitas vidas dependem, entre outras coisas, do correto funcionamento do mesmo. O projeto é tão 12ENGENHARIA DA CONFIABILIDADE demorado, tão caro e tão complexo, que normalmente se utiliza de verbas altíssimas avalizadas por governos para serem viabilizadas, imagine se o mesmo for mal projetado, ou ainda, que cada componente tenha que ser individualmente e depois em cada associação ser testado à sua exaustão e repetidamente até o produto ficar pronto. Ou seja, são projetos extremamente con- fiáveis, reconhecidos e aprovados mundialmente e que se utilizam de todos os conceitos aqui já mencionados para poderem ser executados, caso contrário, bem pro- vável o tempo e o custo destes projetos seriam maiores. Na figura, podemos ver um resumo da evolução histórica das abordagens para verificação da confia- bilidade de componentes e sistemas. Abordagens de modelagem de PoF emergentes em avaliações de confiabilidade 13ENGENHARIA DA CONFIABILIDADE Conceitos A norma brasileira NBR5462, Confiabilidade e Mante- nabilidade, de Novembro de 1994, descrita pela ABNT, de- fine, oficialmente, as terminologias e conceitos relacionados à confiabilidade no Brasil, sendo assim, quando utilizados de tais conceitos neste ebook, estamos associando diretamente o mesmo ao descrito na norma citada. Portanto, por norma, o conceito formal de confiabilidade é: Capacidade de um item desempenhar uma função requerida sob condições especificadas, durante um dado intervalo de tempo. Lendo o conceito, podemos compreender que confiabili- dade não está somente relacionada a um elemento ou sistema cumprir seu papel esperado (desempenhar a função ou fun- cionar corretamente), o conceito vai além, este elemento tem que desempenhar seu papel sob determinada condição de uso (condições específicas) durante um período específico. Temos que imaginar que um produto pode ser confiável para ser usado em um determinado ambiente (por exemplo, uma ferramenta elétrica residencial), mas quando exposto a um ambiente de uso mais severo (esta mesma ferramenta residencial aplica- da para fins industriais), o equipamento pode não funcionar adequadamente ou falhar em um tempo menor. Do mesmo modo, deve ficar claro que o nível de confiabilidade de um elemento ou sistema é, geralmente, relacionado a um tempo de uso, na grande maioria das situações, com o passar do tempo, a confiabilidade de um produto diminuirá, por conta do seu uso, desgaste, degradação, etc. O que podemos entender é que a confiabilidade de um item é a probabilidade deste em desempenhar seu papel em um determinado ambiente ou um determinado tempo, e esta característica se modificará conforme o uso do produto, severidade e tempo. 14ENGENHARIA DA CONFIABILIDADE Outros pontos importantes a serem compreendidos são a diferença entre confiança e confiabilidade e a diferença entre falha e defeito. Confiança, segundo o dicionário Aurélio, é um sentimento relacionado ao ato de confiar, acreditar em algo. Confiabilidade é a capacidade de um item executar esta fun- ção, ou seja, é uma definição técnica, a subjetividade não entra em questão, está associada a uma probabilidade e não a um sentimento. Esta confusão é bastante comum na nossa Língua Portuguesa porque as palavras Confiança e Confiabilidade são semelhantes, mas seus reais significados são extremamente diferentes. Países de Língua Inglesa, por exemplo, têm estas palavras bem distintas, Trust (para Confiança) e Reliabily (para Confiabilidade) e acabam não carecendo desta explicação. Ob- viamente, você pode estar raciocinando que, por exemplo, um produto no qual se tem extrema Confiança deve ter um grau de Confiabilidade muito grande em relação ao seu propósito, e isso não deixa de ser verdade, mas ainda fica a observação de que isso é uma questão de associação de conceitos, assim como dizer que um produto de alto nível de qualidade tende a ser um produto com um bom grau de confiabilidade, sendo assim, uma coisa leva a crer em outra, mas é importante salientar que, para o bom entendimento, o engenheiro deve compreender de maneira clara estes conceitos e suas diferenças. Já a diferença entre falha e defeito é justamente o que diferencia qualidade de confiabilidade, visto que qualidade é a ausência de defeitos, 15ENGENHARIA DA CONFIABILIDADE uma medida subjetiva que tem a ver com o uso do produto e é avaliada de maneira instantânea e diferente de pessoa para pessoa (ou seja, defeito é uma percepção pessoal). Um exemplo interessante é um automóvel, se o mesmo tiver um risco na pin- tura, uma mancha em um banco, isso será considerado defeito, falta de qualidade, enquanto que, se o mesmo deixar de andar, não acionar os freios, isso é considerado falha, ou seja, falta de confiabilidade. Entende-se, portanto, que confiabilidade é um conceito mais técnico e objetivo e qualidade um conceito mais subjetivo e sujeito a interpretações. Ainda sobre a norma NBR5462, a mesma estabelece que “Confiabilidade” é um termo usado como uma medida de desempenho de confiabilidade, ou seja, além de um conceito também é o nome dado ao valor de desempenho em termos de confiabilidade atribuído ao componente ou sistema. Em outras palavras, a Confiabilidade pode ser medida, não existe um item com ou sem confiabilidade e sim cada item tem um determi- nado grau de confiabilidade, ou seja, de certeza que executará sua função sob determinadas condições por um determinado tempo. O mesmo fato acontece quando comparamos qualidade e confiabilidade, pois o primeiro é um conceito subjetivo que designa a percepção de um determinado indivíduo em relação a um produto sob uma característica específica, já o segundo não tem subjetividade, é estimada através de um padrão e não depende da avalição de um indivíduo. Uma outra abordagem a respeito de confiabilidade, desta vez mais estratégica, é trazida por Slack, Chambers e Johnston (2009), que citam que a Confiabilidade é considerada um dos Cinco objetivos de desempenho relacionado à produção e seus produtos, sendo os mesmos qualidade, rapidez, f lexibilidade, confiabilidade e custo. Os autores citam que, para satisfazer as necessidades das partes interessadas de uma organização, todo sistema produtivo está sujeito a estes cinco objetivos de desempenho básico. Obviamente, cada organização decide qual seu foco e em que grau atenderá estes objetivos, buscando sua diferenciação no mercado de trabalho que se propôs a atender. 16ENGENHARIA DA CONFIABILIDADE Especificamente sobre confiabili- dade, os autores comentam que, usual- mente, o cliente somente pode julgar a confiabilidade de um sistema produtivo após o recebimento do produto ou ser- viço, portanto, em primeira instância, talvez não afete a decisão de compra do cliente, mas com o passar do tempo este objetivo possa vir a ser mais importante que qualquer outro critério, pois acaba trazendo ao cliente a certeza de um deter- minado resultado (em relação ao produto ou serviço fornecido), ou seja, mesmo em detrimento da rapidez de entrega ou de um produto ou serviço mais barato, fatalmente a certeza do que está sendo recebido acaba por gerar outros fatores associados: • Economia de tempo. • Economia de dinheiro. • Estabilidade. Sendo assim, independentemente de outros fatores ou objetivos, o produto ou serviço com foco em confiabilidade acaba por gerar efeitos positivos em ou- tros âmbitos, ou seja, ocliente começa a perceber que, por exemplo, o prazo de entrega prometido pode não ser o melhor, mas o nível de certeza que será cumpri- do é grande, o produto pode não ser o mais barato, mas a certeza que o mesmo efetivamente cumprirá seu papel quando necessário, pode retornar em menores estoques, menos manutenções, garan- tias, etc. De maneira similar, a confia- bilidade atrelada a sistemas produtivos acaba criando um viés de estabilidade nos mesmos, onde a certeza de que o produto será produzido com a quanti- dade de matéria-prima correta (sem a necessidade de sobras como precaução de peças defeituosas, por exemplo), den- tro do custo previsto (sistema não sofre com problemas de máquinas paradas, custos não planejados de manutenção, quantidade de horas extras decorrentes de não produção em tempo hábil e assim por diante. 17ENGENHARIA DA CONFIABILIDADE Diversas áreas de estudo se apropriam dos conceitos e, inclusive, dos métodos de avaliação e cálculo de níveis de con- fiabilidade para demonstrar um ou outro efeito e, por vezes, acabam chamando estas avaliações por outros nomes que não diretamente Confiabilidade, mas tais aplicações, se bem com- preendidas são casos especiais do uso dos mesmos conceitos. Vamos considerar estas “diferentes” sistemáticas de modelos de aplicação dos conceitos de confiabilidade, sob os quais co- mentaremos ao longo deste ebook. Facilmente você notará que já deve ter ouvido sobre algumas destas sistemáticas e, talvez, não as tenha associado ao conceito de confiabilidade, mas a partir deste momento, pretenderemos demonstrar algumas nu- ances de cada uma destas sistemáticas e é bastante interessante compreender que alguns modelos de negócio (por exemplo, as empresas da indústria automotiva) se utilizam de boa parte destas sistemáticas em conjunto e se utilizam das mesmas, em grande parte das situações, como forma de avaliar sua cadeia de fornecimento. Algumas metodologias e sistemáticas que aplicam conceitos de confiabilidade: • Tempo de garantia de componentes e produtos. • Controle estatístico de processos. • Sistemáticas de manutenção. • Sistemas de medição. O uso extenso de metodologias de forma intensa nos seus processos associados, principalmente quando em conjunto, tendem a gerar os benefícios anteriormente citados, sendo assim, em uma explicação simples, um sistema de medição confiável demonstrará a certeza sobre os resultados verificados em relação aos componentes (peças) gerados por processos confiáveis que produzem estes produtos corretamente, no pra- zo estipulado e no custo definido, aplicando-os em sistemas complexos (automóvel) onde a associação dos mesmos gerará um produto final que cumprirá seu propósito no menor custo possível, com melhor resultado possível, com a durabilidade e segurança requerida pelos clientes finais (Tempo de Garantia). 18ENGENHARIA DA CONFIABILIDADE SÍNTESE Neste capítulo, vimos que o conceito de Confiabilidade está associado à certeza do fun- cionamento de um produto sob determinadas condições em um determinado intervalo de tempo e a forma de avaliar esta confiabilidade evoluiu desde suas primeiras aplicações até os dias atuais, vista a complexidade dos sistemas e a necessidade de uso dos produtos, como também verificamos que existem diversas aplicabilidades para os conceitos de confiabilidade em diferentes âmbitos. Para compreender isso, revisamos alguns conceitos de probabilidade e estatística, bem como suas distintas aplicações. 19ENGENHARIA DA CONFIABILIDADE EXERCÍCIOS 1. Qual a diferença de qualidade e confiabilidade? 2. Cite três aplicações conhecidas, ou do seu convívio, dos conceitos de confiabilidade: 3. Quais as vantagens do aumento de confiabilidade em um produto qualquer? 4. Qual a aplicabilidade dos conceitos de confiabilidade no seu contexto? 20ENGENHARIA DA CONFIABILIDADE ELEMENTOS DE ESTATÍSTICA ASSOCIADOS Você sabia que, para compreender confiabilidade são necessários alguns conceitos estatísticos? Você lembra de todos? Para conseguirmos compreender as aplicações de Confia- bilidade, será necessária a apresentação ou revisão de alguns conceitos relacionados às análises estatísticas. 21ENGENHARIA DA CONFIABILIDADE Variáveis discretas X Variáveis contínuas O primeiro dos conceitos que vamos revisar é o de vari- áveis Discretas e Contínuas, definindo que as mesmas serão categorizadas em uma ou outra forma, não existindo nenhuma forma de transição entre as mesmas, ou seja, ou a variável é discreta ou é contínua. Utilizamos as variáveis para uma infinidade de demonstra- ções de acontecimentos, quando estes episódios são “contáveis” ou ainda, são “números inteiros”, dizemos que os mesmos são discretos, por exemplo, a quantidade de falhas serão uma, duas, três, e assim por diante, ou seja, não existirão duas falhas e meia (2,5 falhas), até porque, quando chegar o devido tempo, veremos que ou o fato “É FALHA” ou “NÃO É FALHA”, não existe meia falha ou qualquer outra fração neste sentido. O comportamento é semelhante a outros casos, como exemplo, número de amostras, quantidade de repetições, etc., todos estes descritos por números inteiros, não fracionados. Por outro lado, resultados de medições e verificações, tais como tempo e dimensões podem ser expressos em números fracionados devido suas unidades e múltiplos ou submúltiplos, tais como uma medida pode ter 2,5 m (2 metros e 50 centíme- tros) ou 3,2 s (três segundos e dois décimos de segundo). Estes dados são considerados contínuos e precisam ser fracionados para termos precisão ou exatidão nos mesmos, conforme a ne- cessidade do experimento ou fenômenos que queremos enxergar, logo, quando estamos verificando uma peça usinada, ela pode ter sido executada com 20,32 mm, e necessitamos enxergar esta exatidão (ou por muitas vezes muito mais exatidão que isso), pois se medirmos 20 mm ou 21 mm (somente medidas inteiras considerando a unidade milímetros), este dado não será preciso o suficiente para atendermos algum parâmetro de projeto ou necessidade de produto. 22ENGENHARIA DA CONFIABILIDADE Um fenômeno interessante é que podemos associar vari- áveis discretas em relação às contínuas, e isso é bem normal, tal como a falha de número 7 aconteceu após 2,5 h de uso do equipamento, ou seja, um evento identificado ocorreu em um tempo preciso, do mesmo modo os resultados da medição do comprimento da amostra de número 8 foram de 723,67 mm, portanto, é importante ter este tipo de relação de associação muito clara em mente. Não custa lembrar, para fins dos nossos estudos, estaremos utilizando nossos dados dentro das unidades do SI (Sistema Internacional de Medidas), caso não recorde o que significa, melhor revisar para conseguir compreender algumas das even- tuais necessárias conversões de unidades que se farão presentes em algum exemplo. 23ENGENHARIA DA CONFIABILIDADE Densidade A densidade ou função densidade de uma variável alea- tória qualquer remete à probabilidade desta variável, assumir um determinado valor quando a mesma está sendo observada, e isso pode ser expresso através de uma função. De maneira usual, essa função f estará sendo expressa em relação a uma variável t até um limite k (que pode ser finito ou infinito), ou seja, termos t1, t2, t3, t4... tk, de modo que a probabilidade da variável discreta t assume um determinado valor no intervalo k, dada pela função: Quando a variável em questão for contínua, a expressão é diferente, pois estatisticamente é muito improvável que uma variável contínua assuma um valor inteiro, visto que, normal- mente, a mesma ocorrerá com determinado grau de precisão em relação à unidade que está sendo utilizada. Em um inter- valo da mesma, por exemplo, dificilmente uma falha ocorrerá exatamente após 150 horas de uso, mais provável que ocorra em 150 h e 3 min, ou ainda, que uma peça assuma um valor de medida exato, tal como 100 mm, o usual é que o valor seja algo como 100,02 mm (ou talvez até um valormais preciso, tipo 100,00005 mm), mas dificilmente um valor inteiro exato. 24ENGENHARIA DA CONFIABILIDADE Em outras palavras, visto uma variável discreta dentro de um intervalo k (conforme descrito anteriormente), a probabili- dade de que ela ocorra neste intervalo é de 100% (ou seja, igual a 1, conforme definido pela expressão), do mesmo modo que a probabilidade que uma variável contínua assuma um valor exato em um momento k é praticamente zero. Sendo assim, é razoável dizer que ocorrerá uma falha de número 3 (t3) em um equipamento (a mesma ocorrerá em um tempo hipotético de 130h e 42 min de uso), do mesmo modo que é quase impossível prever o inverso, ou seja, que exatamente quando o produto atingir 130h e 42 min ocorrerá a terceira falha do produto, é mais razoável pensar, por exemplo, que a terceira falha terá 80% de chance de ocorrer dentro de um intervalo entre 110 e 180 h de uso. Isso demonstra que a função densidade se com- porta de maneira muito diferente para avaliação de variáveis discretas e contínuas. População e amostra Uma outra questão que tem uma importância muito grande no estudo da confiabilidade é a compreensão dos conceitos de população e amostra, a avaliação do comportamento estatístico de um fato depende da correta interpretação destes fatos. Sendo a confiabilidade uma ciência que procura, por assim dizer, predizer o aspecto de falhas funcionais de um equipa- mento durante seu uso, fica importante entender o que ocor- reu no passado para procurar determinar o que acontecerá no futuro, em outras palavras, uma montadora, por exemplo, projeta componentes, faz diversos ensaios em um grupo de protótipos, testa sistemas e produtos em diversas fases do seu desenvolvimento para poder definir o que acontecerá com estes produtos durante seu uso pelo cliente final. 25ENGENHARIA DA CONFIABILIDADE Para tal, ensaios e testes ocorrem em amostras significati- vas (um certo número estatisticamente definido de produtos) a fim de predizer o comportamento da população (o total de produtos que serão produzidos conforme determinado conjunto de especificações, ou ainda, evoluções da mesma). Tomando o mesmo exemplo comentado anteriormente, ensaios e testes são feitos nos protótipos dos veículos e seus subsistemas para determinar padrões de desgaste, garantias, manutenções neces- sárias nos produtos finais que serão utilizados pelos usuários, o mesmo ocorre, de forma similar, (obviamente respeitando volumes de produção, criticidade dos equipamentos, tipo de uso, severidade, etc.) em máquinas operatrizes, aviões, produtos eletrônicos e assim por diante. O que tem que ficar claro é que, em termos de confiabi- lidade, sempre estaremos tratando de probabilidades de que um evento acontecerá em uma população de produtos baseados em amostras significativas do mesmo, mas certeza mesmo do que acontecerá com todos os componentes, subsistemas e no produto como um todo, é praticamente impossível de se ter, pois todos os produtos deveriam ser testados à exaustão (neste caso a amostragem seria de 100%, ou seja, toda a população). Estes produtos testados estariam totalmente inaptos ao seu uso, pois já estariam bastante deteriorados. Um ótimo e re- corrente exemplo utilizado para isso, são os palitos de fósforo. A empresa especificou o produto e produziu os mesmos sob determinado padrão com base em uma probabilidade tal que os mesmos funcionarão, mas isso não quer dizer que não poderão ocorrer falhas eventuais. Para que isso não ocorra, os produtos 26ENGENHARIA DA CONFIABILIDADE deveriam ser superdimensionados para sua função, o que torna o produto muito mais caro e mesmo assim o único efeito que se consegue é a melhoria na probabilidade de que funcionarão. Para ter certeza absoluta disso, os produtos deveriam ser 100% testados, o que no nosso exemplo do palito de fósforo significa que os mesmos seriam acesos e, por consequência, consumidos, o que impossibilitaria totalmente a entrega ao cliente final, já que perderam a sua função. Para finalizar o conceito de amostra e população, deve ficar claro que os dados obtidos com as amostras são estatisticamente tratados e expandidos conforme uma determinada regra para serem utilizados a fim de predizerem o que acontecerá com a população, sendo assim, não serão exatamente os mesmos. Em um exemplo totalmente hipotético, vamos supor que foram ensaiadas 150 amostras de um componente e que esta amos- tra demonstrou que, após 200.000 ciclos de teste, 98% destes componentes sofreu um desgaste tal em uma característica que não comprometeria seu uso e, quando tratados para a questão da população, estes dados poderão dizer que a probabilidade destes componentes cumprirem sua função primária durante 3 anos de uso sem falhas é de 99,5%. 27ENGENHARIA DA CONFIABILIDADE Regras e funções específicas Tratando-se de probabilidades estatísticas e modelos ma- temáticos que procuram descrever o comportamento e acon- tecimento de alguns eventos, existem muitas teorias diferentes e formas de avaliar produtos, do mesmo modo que existe um número muito maior de possibilidades de combinações, usos e complexidade de produtos, sendo assim, procuraremos, dentro dos casos que trataremos, demonstrar as principais funções nas suas maneiras mais usuais e aplicadas, pois seria impraticável a explicação de todas as possibilidades de uso, além do que, sempre estão surgindo novas teorias e modelos que explicam tais fenômenos de maneira mais clara, mais precisa, mais detalhada. Estes modelos altamente complexos, têm sido alimentados em softwares puramente estatísticos ou ainda em softwares dedicados às aplicações específicas que realizam trabalhos fan- tásticos com um nível de precisão impressionante e em tempos de execução cada vez menores, do mesmo modo que existe uma extensa bibliografia, entre livros, manuais específicos, artigos científicos, etc., explicando novas técnicas e aplicações. Nosso intuito, é demonstrar os caminhos mais básicos e usuais para que, quando ocorrer a necessidade do uso no âmbito profissio- nal, se tenha ideia de como o fenômeno funciona, por onde se começa o entendimento e resolução do mesmo e que caminhos tomar para aprofundarmos tais conhecimentos. Visto a explicação anterior, existem um grande número de regras de probabilidade que são definidas de acordo com cada tipo de combinação de eventos. As principais e mais usuais delas são: a. A probabilidade de ocorrer um evento A é definida por P(A). Exemplo: dentro de um intervalo de 1 ano existe chance de 87% do evento em questão ocorrer. 28ENGENHARIA DA CONFIABILIDADE b. A probabilidade de que dois eventos A e B ocorram é de- finida por P(AB) – observe que é um evento “E”, o outro evento deve ocorrer. Exemplo: em uma caixa contendo 20 unidades de um determinado produto, temos 4 produtos (20% do total) com defeito e 16 produtos (80% do total) sem defeito. Em outra embalagem semelhante, temos 3 produtos (15% do total) com defeitos e 17 produtos (85% do total) produtos sem defeito. Ou seja, se tirarmos um produto da primeira embalagem, existe uma probabilidade de 20% de que o mesmo tenha defeitos (de maneira análoga o mesmo ocorre para o produto sem defeito e, também de maneira análoga, na outra embalagem, respeitando suas quantidades). Deste mesmo modo, podemos extrair, cada qual com suas possibilidades, um produto com defeito de uma embalagem e um produto com defeito da segunda embalagem, um produto com defeito da primeira embalagem e um produto sem defeito da segunda embalagem, um produto sem defeito da primeira embalagem e um produto com defeito da segunda embalagem ou ainda um produto sem defeito da primeira embalagem e um produto sem defeito da segunda embalagem, ou seja, em termos numéricos: EMBALAGEM 1 EMBALAGEM 2 PROBABILIDADE Com defeito – 0,2 (20%) Com defeito – 0,15 (15%) 0,2 x 0,15 = 0,03 (3%) Com defeito – 0,2 (20%) Sem defeito – 0,85 (85%) 0,2 x 0,85 = 0,17 (17%) Sem defeito –0,8 (80%) Com defeito – 0,15 (15%) 0,8 x 0,15 = 0,12 (12%) Sem defeito – 0,8 (90%) Sem defeito – 0,85 (85%) 0,8 x 0,85 = 0,68 (68%) 29ENGENHARIA DA CONFIABILIDADE c. A probabilidade de que um dos dois eventos A ou B ocorram é definida por P(A+B) – observe que neste caso um “OU” outro evento deve ocorrer. Deste modo, usando os dados anteriormente propostos podemos fazer as seguintes conjecturas: Probabilidade de extrairmos produtos diferentes (um com e outro sem defeito) das duas embalagens em duas tentativas (repondo o item anteriormente extraído) é de 17% e 12%, ou seja 0,17 + 0,12 = 0,29 (29%). Probabilidade de extrairmos, pelo menos um produto com defeito entre as duas tentativas (repondo o item anteriormente extraído) é de 3%, 17% ou 12%, ou seja 0,03 + 0,17 + 0,12 = 0,32 (32%). Veja que é muito mais provável que um ou outro evento aconteça do que os dois eventos aconteçam. Do mesmo modo, é importante entendermos que isso não quer dizer que, de modo semelhante, somente tenhamos 68% de chances (100% de produtos totais menos 32% de tentativas com produtos com defeito) de tirarmos pelo menos um produto sem defeito das duas caixas. É neste momento que não nos damos conta que os eventos que foram sugeridos não são excludentes, ou seja, o fato de um evento existir não impede que o outro também aconteça, pois temos que retirar, no primeiro exemplo, PELO MENOS um produto com defeito entre as duas embalagens, mas isso não impede que o outro não seja sem defeito, deste modo, utilizando o mesmo raciocínio anterior, a chance de retirarmos, entre duas tentativas, PELO MENOS um produto sem defeito é de 97%. 30ENGENHARIA DA CONFIABILIDADE d. A probabilidade de um evento A ocorrer depois de um evento B já ter ocorrido é definida por P(A|B). Neste caso, o primeiro evento ocorre de maneira exatamente igual ao anterior, mas o segundo evento é diferente, pois as probabili- dades mudaram, já que as quantidades agora são diferentes, pois há exclusão de elemen- tos. Tomando ainda o exemplo anterior, se quiséssemos retirar um produto com defeito da primeira caixa, as chances se mantêm em 20%. Na hipótese de termos conseguido retirar o primeiro produto com defeito, e se quiséssemos retirar um segundo produto com defeito (agora sem reposição), sobram 19 produtos na caixa, sendo 3 com defeito (0,157 ou seja 15,7% de chances), ou seja, as chances diminuíram. De modo análogo, se quiséssemos fazer a segunda tentativa sendo a primeira falha (em vez de retirarmos um produto com defeito, retiramos um produto sem defeito), são 19 produtos na caixa, mas 4 com defeito (0,21 ou 21% de chances), neste caso, nossas chances aumentam. e. A probabilidade de A e B ocorrerem no caso de serem mutuamente exclusivos (se A ocorrer, B não ocorre ou se B ocorrer, A não ocorre) é igual a zero, ou seja, P (AB)=0. Aqui, a lógica matemática se repete, mas em um caso especial, onde a confirmação de um evento inibe a possibilidade do outro ocorrer. Em um exemplo hipotético, meu plano de amostragem pede que eu verifique em 10 % do meu lote, se existe, pelo menos, uma peça com defeito, caso isso ocorra, todo o lote está reprovado e tem que ser verifi- cado uma a uma, todas as peças. Usando os dados da embalagem número 1 do exemplo anterior, o lote possui 80% de chances de ter uma segunda peça verificada (80% de chances de peças sem defeito), pois se ocor- rer da primeira peça ter defeito, não haverá verificação amostral de uma segunda. Este tipo de caso acontece muito quando testados produtos com associação de componentes em série, ou seja, se um componente falhar, todo o sistema falhou, antes mesmo de falhar um segundo componente. Existem outras possibilidades que, na verdade, são combinações matemáticas e casos especiais das regras anteriormente definidas. 31ENGENHARIA DA CONFIABILIDADE Distribuições de probabilidade Outro conceito de probabilidade muito utilizado nas apli- cações de confiabilidade é o conceito de distribuição de pro- babilidade onde, de maneira matemática, busca-se relacionar os valores da eventual característica que está sendo estudada com sua probabilidade de aparecer na população que está sendo investigada sendo que, conforme já verificamos anteriormente, se o valor que esta característica que está sendo investigada pode assumir é considerado discreto, diz-se que a característica tem uma distribuição discreta de probabilidade, caso contrário, se o valor é considerado contínuo, chamamos de distribuição contínua de probabilidade. Para fins dos nossos estudos de confiabilidade, os modelos de distribuições mais utilizadas são: a. Distribuição binomial (distribuição discreta): na distribuição binomial, os valores apresentados somente podem assumir dois valores, como exemplo, sim ou não, ligado ou desligado, passa ou não passa, com defeito e sem defeito, etc., sendo assim, a probabilidade dos valores que aparecerem em cada amostra é sempre a mesma, pois podem, por exemplo, ser sempre ligados ou desligados e devem obedecer as seguintes condições: • O evento se repete mais de uma vez, ou seja, não é valido para eventos únicos. • A variável é discreta (só pode assumir valores inteiros). • Os eventos são mutuamente excludentes, ou seja, quando um ocorre o outro não pode ocorrer (como exemplo, uma lâmpada está ligada ou desligada, não pode estar nos dois estados ao mesmo tempo). • Os valores têm que ser dicotômicos, ou seja, só podem as- sumir dois valores possíveis (por exemplo, sim ou não). • Em todas as tentativas, a probabilidade de ocorrência p do evento deve ser a mesma, ou seja, independentemente de quantas amostras sejam verificadas, as mesmas sempre podem assumir qualquer um dos dois valores possíveis. 32ENGENHARIA DA CONFIABILIDADE Para estes casos, a função probabilidade y é dada pela seguinte equação: Nesta equação: n = número de tentativas r = número de ocorrências p = probabilidade de ocorrência q = 1 – p Valores usuais dão conta que uma probabilidade constante de ocorrência é considerada aceitável quando o tamanho da população é, pelo menos, 10 vezes maior que o tamanho da amostra, pois mudanças no tamanho da população não deverão modificar a probabilidade de um valor ocorrer. Exemplo: uma empresa fabricante de autopeças tem em sua base dados à média histórica de 2% de produtos com defeitos (não-conforme). Em uma auditoria de processos, 8 amostras são separadas do lote para avaliação. Neste sentido, qual a probabilidade de encontrarmos r peças defeituosas em meio à p amostras? Os valores abaixo foram substituídos na equação (2), sen- do assim, para cada valor de r teremos a seguinte fórmula (no nosso caso, o valor de n=8, pois testaremos em 8 vezes a pos- sibilidade de encontrar peças com defeito, o valor de p=0,02, pois são 2% de produtos com defeito como média histórica e o valor de q=0,98): 33ENGENHARIA DA CONFIABILIDADE b. Distribuição de Poisson (distribuição discreta): no caso da distribuição de Poisson, verificamos eventos que ocorrem a uma taxa média constante (tendo em vista que o valor tem que ser dicotômico). Pode ser entendida como uma distri- buição binomial estendida, onde o número de tentativas n tende ao infinito (população e não amostra) e a probabili- dade p do evento que ocorrerá em cada verificação é baixa (inferior a 10%), desde que a cada verificação do evento, a probabilidade do mesmo ocorrer seja a mesma e que não haja agrupamento, ou seja, uma tentativa por vez. Portanto, o evento avaliado pode ser descrito com a seguinte equação: Nesta equação: n = número de tentativas r = número de ocorrências p = probabilidade de ocorrência Peças defeituosas (r) Probabilidade em 8 peças 0 0,8507630226 1 0,1389000853 2 0,0198428693 3 0,0024297391 4 0,0002479326 5 0,0000202394 6 0,0000012391 7 0,0000000506 8 0,0000000010 34ENGENHARIA DA CONFIABILIDADE Exemplo: pode-se utilizar a distribuição de Poisson para determinar, em um exemplo hipotético,onde têm-se que usu- almente somente 10% dos tiros disparados por uma metralha- dora atingem um determinado alvo preciso, pode-se verificar quantos tiros serão necessários disparar para que, pelo menos 5 deles atinjam o alvo com 96% de precisão. Substituindo os valores na equação (3), teremos: Ou seja, serão necessários XXXXXXX tiros para que, pelo menos, 5 deles atinjam o alvo com 96% de certeza. c. Distribuição normal (distribuição contínua): utiliza-se a distribuição normal (curva de Gauss) quando conseguimos determinar a quantidade de ocorrências em que uma vari- ável assume um determinado valor contínuo em torno de uma média qualquer, ou seja, vamos conseguir verificar qual será a probabilidade dessa variável assumir um determinado valor de maneira distribuída em um dado limite. Neste caso em específico, usualmente, uma quantidade maior de even- tos acontece em torno de uma determinada média, e essa quantidade de eventos diminuirá de probabilidade ao passo que os valores assumidos pela variável vão se distanciando desta média, criando uma espécie de “sino”. Grande parte de resultados de processos pode ser descrita com o uso desta distribuição, como por exemplo, as medidas que o diâmetro de uma peça usinada atinge (esse diâmetro tem infinitas possibilidades de valores que serão verificados de acordo com a precisão do instrumento que utilizamos). 35ENGENHARIA DA CONFIABILIDADE Para tanto, devemos conhecer os valores da média μ (que será tratado então como e do desvio padrão σ (que então será tratado então como s), onde os valores desta curva serão dados pelas equações: Ainda podemos admitir que a média μ = 0 e que o desvio padrão σ = 1, onde a distribuição será simétrica e os dados distribuídos em intervalos de σ = 1, com isso, a equação fica reduzida à: 36ENGENHARIA DA CONFIABILIDADE Esta é a distribuição normal chamada de padrão (Standard), onde são demonstrados valores tabelados de Z (ver tabela ao final do ebook) até um σ = 4,09, logo, o gráfico da densidade dos valores fica: Exemplo: o diâmetro de um determinado eixo usinado é especificado em 12,5 mm e as peças usinadas apresentam um desvio padrão de 2,25 em torno desta medida, entendendo que a especificação permite que as peças assumam valores de 10,8 até 15,1mm, quantas peças podemos esperar que tenham valores fora do especificado? Neste caso, peças fora do especificado ficarão com diâme- tros abaixo de 10,8 mm e maiores que 15,1 mm, utilizando a equação (6), descobrimos que o valor de Z (área abaixo da curva) para cada um dos limites especificados é dado por: A área Z da curva para valores de 0,755 é de 0,2266 ou seja 22,66%, a área Z para valores de 1,15 é 0,1251, ou seja, 12,51%, portanto, com base nos valores apresentados, podemos entender que teremos 22,66% de chances de termos peças abaixo de 10,8 mm e 12,51% de peças acima de 15,1 mm. 00 -4 -2 0 2 2.748 0,3% 4 01 02 03 04 37ENGENHARIA DA CONFIABILIDADE d. Distribuição exponencial (distribuição contínua): a grande maioria das falhas em componentes pode ser descrita pela função exponencial, ou seja, se a taxa de falhas pode ser jus- tificada e, portanto, considerada constante, o comportamento do componente pode ser descrito com base na distribuição exponencial. Para tal, entende-se que as falhas são causadas por motivos aleatórios e não pelo desgaste do componente, onde só poderemos utilizá-las se as falhas são puramente aleatórias e imprevisíveis, ou seja, as falhas não dependem de quanto o produto já tenha sido utilizado, desta maneira, a probabilidade de que o produto falhará se mantém ao longo de toda a sua vida. Neste caso, a confiabilidade do componente pode ser expressa pela equação, considerando λ a taxa de falhas por hora: A distribuição exponencial também nos desfaz da ideia de que a média está posicionada em 50%, ou seja, na metade. Segundo esta distribuição, 36,8% dos produtos fica acima da média, e 63,2% se posiciona abaixo da mesma. Exemplo: uma placa eletrônica em uma dada aplicação hipotética é montada utilizando 5 resistores em série com taxa de falha de 0,000002, e 7 capacitores em série com taxa de falha conhecida de 0,000004, desta maneira, quantas horas de uso podemos esperar para um nível de confiabilidade de 0,95. Visto os valores de taxa de falhas dos componentes em série R(t)=R1 x R2 x R3 ... e admitindo que, se qualquer uma das duas associações falhar P(A+B), o sistema também falha, podemos esperar a seguinte taxa de falha do sistema: λ = (5 x 0,000002) + (7 x 0,000004) → λ = 0,000038 falhas por hora Substituindo os valores na equação (7), temos: ou seja, pode- mos esperar 1349 horas de uso com 95% de certeza de que o sistema funcionará. 38ENGENHARIA DA CONFIABILIDADE e. Distribuição de Weibull (distribuição contínua): nor- malmente verificada com o auxílio de softwares e utilizada para descrever o comportamento de componentes que estão sujeitos às situações de perturbações drásticas no sistema, por exemplo, variações bruscas de corrente em um sistema, ventos incidentes sobre um prédio, cargas em uma suspensão de um veículo ao rodar em uma determinada estrada, modi- ficações temporais quando um avião está voando. Algumas condições devem ser satisfeitas: • Os eventos de distúrbios têm que ser totalmente aleatórios. • A probabilidade de um evento P ocorrer é totalmente pro- porcional e constante ao intervalo Δt de tempo analisado, ou seja P=λ.Δt. • A função p(t) é a probabilidade de ocorrência do evento analisado. Desta maneira, a confiabilidade pode ser expressa por: A taxa de falhas instantânea é expressa por: A probabilidade de falha é dada por: Nestes casos, t ≥t0 e β > 0 onde as variáveis são: t0 é a confiabilidade intrínseca, ou seja, o tempo mínimo onde o sistema começa a apresentar falhas (λ = 0); 39ENGENHARIA DA CONFIABILIDADE η é o parâmetro de escala, ou seja, o momento no tempo onde já ocorreram 63,2% das falhas (média de vida conforme explicado anteriormente); β é o fator de forma, ou seja, em que momento da vida o sis- tema avaliado se encontra, sendo que quando β < 1, o item está na etapa das falhas inicias, quando β = 1 o sistema está sujeito às falhas aleatórias (função exponencial negativa) e quando β > 1, o sistema está apresentando falhas por desgaste (ver gráfico onde β = δ. De modo semelhante, a demonstração de uma distribui- ção de Weibull para diferentes fatores de forma, onde β = k nos mostra a visão que à medida que o fator de forma vai se aproximando de 1, a distribuição de Weibull pode ser descrita como uma distribuição exponencial e, quando este fator de forma aumenta, a distribuição de Weibull pode ser descrita como uma distribuição normal. 40ENGENHARIA DA CONFIABILIDADE Cálculo da confiabilidade Tendo compreendido o conceito de confiabilidade e relem- brando as questões e regras de probabilidade, podemos partir para o cálculo da confiabilidade. Conforme explicamos no histórico, estes cálculos são baseados em uma série de funções e modelos matemáticos e probabilísticos através de substituições algébricas de valores, fórmulas, derivações, integrais e etc. Para fins deste estudo, vamos apresentar de maneira direta estas funções e não entraremos no mérito das deduções das mesmas. Estas funções partem do princípio que, após submetidos a testes (ou uso), um determinado número total de componentes (no) teve, em um determinado tempo t, amostras falhadas (nf) e amostras que sobreviveram (ns), de tal modo que o número total de componentes é o resultado da soma de sobreviventes e falhados no tempo em questão. Deste modo, sendo a confiabilidade R(t), a probabilidade que um item manterá sua função em um determinado momento no tempo, temos: Ou seja, a função Confiabilidade R(t) vem do total de amostras menos a Probabilidade de Falhas F(t) do componente em questão, portanto: 41ENGENHARIA DA CONFIABILIDADE Deste modo, após as mencionadas substituições algébricas pertinentes, teremosos seguintes resultados: a. A densidade de falhas f(t) de um item em relação ao tempo é descrita pela equação: b. A taxa de falhas z(t) de um item em relação ao tempo é descrita pela equação: c. E a confiabilidade R(t) pode também ser descrita por: Analisando um exemplo, as aplicações das equações ante- riores ficam mais evidentes, supondo que um determinado componente teve 300 amostras testadas sob condições de sobrecarga até falharem, e os componentes falhados foram agrupados em intervalos de tempo de 500 horas (Δt): Nota-se, pela verificação dos dados acima que, para o componente em questão, nos intervalos de tempo observados, a Confiabilidade R(t) do item foi diminuindo com o passar do tempo, mesmo que seu número de falhas tenha diminuído, pois o que interessa é o número de falhas em relação à quantidade de produtos e a durabilidade das mesmas. 42ENGENHARIA DA CONFIABILIDADE Medidas de confiabilidade Muito mais do que calcular resultados de confiabilidade, o que se espera é que estes resultados sejam interpretados de acordo com alguns conceitos padronizados, pois caso con- trário, não há níveis de comparação, visto que os valores são adimensionais, o que inviabiliza certas avaliações, em outras palavras, é pouco útil dizer que um componente A tem nível de confiabilidade 0,8 e outro componente B tem nível de confiabi- lidade 0,75. De acordo com o que verificamos até o momento, a confiabilidade leva em conta o tempo e o cumprimento da função esperada, sendo assim, um destes componentes pode ter uma confiabilidade de 0,8 em relação a 1.000 h de trabalho e o outro componente pode ter nível de confiabilidade de 0,75 em relação a 3.000 h de trabalho. Deste modo, a primeira medida de confiabilidade é a função confiabilidade do item, ou seja, conforme visto na equação (13), podemos dizer: Esta equação nos mostra que a confiabilidade R(t) de um item ou sistema é dada pela probabilidade F(t) que o sistema falhará através do tempo t. Nesta equação, T é uma variável aleatória que identificará o tempo onde ocorre a falha. Para compreender isso, é necessário ter em mente que falha é o estado onde o item ou sistema não é capaz de realizar sua função pri- mária ou requerida (lembrando que é bem diferente de defeito, que é uma avaliação subjetiva), sendo que as mesmas podem ser classificadas (do ponto de vista dos requisitos de segurança) em categorias, de acordo com a norma MIL-STD-822A de 1977: • Falha catastrófica (Categoria I): morte ou parada do sistema. • Falha crítica (Categoria II): lesões graves, doença ocupacio- nal, problemas operacionais ao sistema. • Falha marginal (Categoria III): lesão secundária, moléstia ocupacional ou dano secundário ao sistema. 43ENGENHARIA DA CONFIABILIDADE • Falha desprezível (Categoria IV): sem lesão ou moléstia ocupacional ou dano ao sistema. Ainda sobre falhas, as mesmas podem ser divididas em três tipos: • Falha prematura: ocorre no início da operação ou uso do componente e são decorrentes de erros de projeto (dimen- sionamento, materiais), uso de componentes de baixo nível (no caso de sistemas) ou ainda problemas no processo de fabricação (não atendimento às especificações, falhas de montagem, processos equivocados, etc.). Usualmente, por aparecerem logo, em sistemas que são testados após sua fabricação (e muitas vezes utilizando cargas acima dos pa- drões de uso), acabam sendo detectados antes de chegarem ao usuário (testes de final de linha ou pós operação). • Falha casual: normalmente são frutos de causas especiais, complexas e, na sua maioria, desconhecidas pelo projeto ou processo produtivo, portanto, não são controláveis e ocorrem durante o uso normal do componente ou sistema e dentro da vida útil esperada para o mesmo. • Falhas por desgaste: falhas naturais e esperadas após o com- ponente ou sistema ultrapassar a vida útil esperada para o mesmo, sendo que, quando isso ocorre, a taxa de falhas tende a aumentar bruscamente (comportamento mais usual) pois o produto, teoricamente, já extrapolou o projetado. Taxa de falhas A taxa de falhas descreve a proporção de falhas que um item reparável apresenta, ou seja, é o número de falhas para cada unidade de operação (tempo). Usualmente é considerada fixa e descrita, além da equação (6) já apresentada e também pela seguinte equação: 44ENGENHARIA DA CONFIABILIDADE Se for necessária a avaliação da taxa de falha em relação a um tempo específico (que pode ser descrito como [t, t+Δt]), utiliza-se a equação: Exemplo: equipamento apresentou 5 falhas em 1000 horas de operação, ou seja, λ = 0,005 (0,005 falhas por hora). As taxas de falhas possuem comportamento bastante distin- to em relação ao componente ou sistema as quais estão ligadas. Estas taxas de falhas podem ser: a) Constantes: componentes, principalmente eletrônicos, com taxas de falhas constantes costumam ser bastante comuns, estas taxas costumam ser observadas após o período de ocor- rência das falhas iniciais (normalmente 1 ano ou 10.000 horas de uso) ou ainda após os produtos passarem por testes de final de produção ou após serem alocados em um sistema (chama- dos também de burn in no caso de componentes eletrônicos). Nestes casos, teremos as seguintes equações: Exemplo: para verificar a vida operacional de um resistor foram realizados testes e obtida uma taxa de falha constante igual a 4.10-8 falhas por hora, assumindo que, para avaliar a confiabilidade, foram realizados testes de 5000 horas em uma amostra de 2500 resistores, qual a confiabilidade estimada para um padrão de uso de um ano (10.000 horas) e quantos resistores se espera que falhem neste processo? Utilizando as equações (20) e (23), temos: 45ENGENHARIA DA CONFIABILIDADE b. Linearmente crescente: componentes que apresentam este tipo de comportamento usualmente estão sujeitos a desgaste ou deterioração, caso típico de componentes mecânicos su- jeitos ao contato e fricção (cames, válvulas de motor, eixos, etc.). Este também é o caso de componentes eletrônicos tipo relés (possuem uma atuação mecânica no seu funcionamento). Nestes casos, o comportamento destes componentes segue as seguintes equações: c. Linearmente decrescente: a grande maioria dos componen- tes, tanto mecânicos como eletrônicos, apresentam taxas de falhas linearmente decrescentes, estas falhas também são chamadas de falhas iniciais e acabam aparecendo no início do uso do produto (primeiro ano ou 10.000 horas de uso). Usualmente aparecem em virtude de alguma falha de ma- téria-prima ou processo de fabricação e, de maneira normal, fabricantes de equipamentos ou sistemas cujos usuários têm como pré-requisitos a confiabilidade dos produtos, que aca- bam por realizar testes finais nos componentes ou sistemas, justamente para este tipo de falha se apresentar, sem enviar componentes com possibilidade de falhas para seus clientes, 46ENGENHARIA DA CONFIABILIDADE para tanto, costumam utilizar cargas de trabalho momen- tâneas e com valores acima das cargas estipuladas para uso dos produtos (exemplos como: pressões, limites de rotação, corrente elétrica acima do especificado para os produtos). O comportamento destes componentes em termos de taxa de falhas é dado pela equação: Taxa de falhas z(t)=a-b.t (28) Onde a e b são constantes que são verificadas de acordo com os resultados dos testes do produto. As demais funções f(t), F(t) e R(t) são descritas do mesmo modo que as taxas de falha linearmente crescentes, no entanto a constante λ dá lugar à a e b. Outros índices de medidas de confiabilidade: a. Vida esperada: é o tempo no qual se espera que o item ou componente mantenha sua função primária ou ainda que apresente a performance desejada. A vida esperada E(t) de um item é data pala equação: b. MTTF: (Mean Time To Failure), ou seja, tempo médio para falhar, utilizado para descrever o tempo médio que se espera que itens não-reparáveis mantenham-se funcionando. c. MTBF: (Mean Time Between Failures), ou seja,tempo médio entre falhas, utilizado para descrever o tempo médio entre os intervalos em que itens reparáveis mantenham-se funcio- nando, relaciona o número de falhas e o tempo transcorrido, pode ser calculado pela média de ocorrências no tempo ou ainda com base na taxa de falhas, com base na equação (18). Exemplo: com o mesmo exemplo onde um equipamento apresentou 5 falhas em 1000 horas de operação, ou seja, λ = 0,005 (0,005 falhas por hora) dados do exemplo usado para 47ENGENHARIA DA CONFIABILIDADE descrever a taxa de falhas, substituindo os dados na equação, teríamos MTBF = 250 horas. d. MTTR: (Mean Time To Recovery), ou seja, tempo médio para recuperar, utilizado para descrever o tempo médio que itens reparáveis demoram para ter recobrado seu funcionamento. e. Risco: também chamada função de risco, é determinada pela taxa de falhas de um item em um determinado tempo t (ou ainda quando Δt→0), que pode ser determinada pela equação: Itens reparáveis e não reparáveis O caso mais simples de estudo de confiabilidade se refere ao estudo dos itens Não Reparáveis, que são a maioria dos casos que exemplificamos até então e também são os mais básicos a serem entendidos, sendo assim, os itens Não Repa- ráveis são aqueles descritos pela grande parte das regras que vimos até então, onde a confiabilidade de um item é dada pela probabilidade deste item sobreviver ou ainda funcionar em um determinado tempo t, ou seja, a confiabilidade do item é a vida esperada para o mesmo, deste modo, itens mais confiáveis são aqueles que, em comparação a outros nas mesmas condições de uso e função, duram mais tempo funcionando, este é o caso típico de lâmpadas, resistores, transistores (a grande maioria dos componentes eletroeletrônicos) e, inclusive, motores de foguete. Em outras palavras, neste tipo de item só vai haver uma falha, quando ela ocorrer, o item é, de maneira geral, descartado, pois não há “conserto”. O caso mais complexo dos nossos estudos de confiabilidade se dá nos itens considerados Reparáveis (também chamados de sistemas), pois são feitos da união de vários componentes e, quando um destes falhar, muitas vezes o sistema para como um todo, mas isso não quer dizer que o sistema tenha que ser 48ENGENHARIA DA CONFIABILIDADE descartado, do contrário, tipicamente estes sistemas podem ser “consertados”, ou seja, colocados novamente em funcionamento, seja pelo reparo em uma peça ou ainda pela substituição de um componente. Nestes casos, como dissemos, um componente “dentro” do sistema falha, muitas vezes fazendo com que o sistema todo perca a função (ou seja, falhe também), mas isso não significa que todos os componentes internos falharam, é o caso de “renovar ou recuperar” a função do sistema, por exemplo, substituindo o componente falhado. Usualmente, de maneira simplória, sistema Reparáveis são constituídos de uma série de componentes Não Reparáveis, este é o caso típico de computadores, máquinas operatrizes, automóveis, aviões, eletro- domésticos, etc. No caso de itens Reparáveis, a confiabilidade dos mesmos é expressa pela probabilidade deste sistema não falhar e um determinado período de interesse ou uso, como por exemplo, de um avião espera-se mais do que não falhe durante o período que está voando, espera-se que o mesmo se mantenha funcionando por uma determinada quantidade de horas contínuas de uso até que seja necessária uma intervenção (reparo). Portanto, a confiabilidade de um item Reparável é expressa pelo seu MTBF (desde que a taxa de falhas possa ser considerada constante). Para fins de conhecimento, existem casos especiais onde o item pode ser considerado Reparável e Não Reparável, como o caso dos foguetes, que são considerados reparáveis durante seus períodos de avaliação, testes, etc., mas quando lançado torna-se Não Reparável, pois sua operação é tão severa que descarta praticamente todo e qualquer reparo para que a mesma seja realizada novamente de maneira correta e segura. 49ENGENHARIA DA CONFIABILIDADE Confiabilidade em sistemas mecânicos Um caso que merece uma atenção para compreensão dife- renciada são os componentes mecânicos que, em sua maioria podem ser considerados reparáveis, no entanto, usualmente, os mesmos quando falham têm estas ocorrências em virtude de fatores de sobrecargas ou degradação. Na grande maioria das aplicações, os projetos mecânicos através de dimensionamento, coeficientes de segurança, etc., já acabam por prever algum tipo de uso acima dos limites especificados e situações do gênero. Sendo assim, cabe ressaltar algumas questões específicas sobre estes dois casos: a. Sobrecargas: usualmente as sobrecargas em sistemas mecâ- nicos acabam culminando na fratura dos mesmos, que são causadas pelo rompimento dos limites coesivos intermole- culares ou intercristalinos em virtude das tensões aplicadas ao componente em questão, a mesma pode ocorrer após a deformação plástica inicial do material, que resultam em baixas taxas de propagação na estrutura do material, chama- das de fratura dúctil, ou podem ser resultantes de rupturas rápidas e repentinas, chamadas de fraturas frágeis e ambas são resultado de concentrações de tensões entorno de im- perfeições do material (trincas, desalinhamentos de estrutura do material, inclusões, rugosidade alta, etc.). Como, normal- mente, é muito difícil saber como está exatamente a estrutura interna do material, é um tanto complicado de prever com alto nível de precisão quando a fratura ocorrerá, pois estas podem sofrer interferência da temperatura ambiente, visto que sistemas mecânicos são dimensionados observando as características típicas de resistência dos materiais, mas estes valores são obtidos de corpos de prova que são ensaiados em condições controladas. Além disso, em certos momen- tos, os sistemas mecânicos são submetidos a cargas altas e 50ENGENHARIA DA CONFIABILIDADE repentinas, que não permitem aos materiais entrarem em suas fases plásticas (onde tendem a absorver tensões), por isso a ruptura. Neste sentido, tornam-se necessários testes do produto final na condição de uso, mesmo sem a previsão de alguma situação, portanto, é muito usual a utilização de coeficientes de segurança nos projetos de sistemas mecânicos e é neste ponto que o conhecimento e a validação de projetos se mostra importante, pois altos coeficientes de segurança tendem a aumentar a massa do produto, custo, etc. b. Degradação da resistência: de efeito diferente da sobrecarga, a degradação dos componentes mecânicos ocorre em vir- tude de desgaste de materiais (atrito, contato, que acabam por causar remoção de material do componente), corrosão (degradação química do material, usualmente iniciada por oxidação ou processo galvânico e que pode ser acelerada de- vida a fatores ambientais, tais como salinidade ou umidade) e fadiga (tensões cíclicas e críticas, repetidamente aplicadas ao componente, mesmo sendo inferiores ao limite de resistência do material mas, em virtude destas condições de repetição, estrutura interna do material, etc., acabam por se agravar e levar o componente à ruptura). Os casos de degradação da resistência acabam sendo tratados na fase de projeto com a previsão de mecanismos e situações de lubrificação (para os casos de desgaste), proteção superficial (para os casos de corrosão) e observação de formatos e dimensionamento (para os casos de fadiga). 51ENGENHARIA DA CONFIABILIDADE SÍNTESE Neste capítulo fizemos uma revisão sobre alguns conceitos de probabilidade e verificamos algumas das distribuições estatísticas mais utilizadas em Confiabilidade, bem como verifi- camos o cálculo de confiabilidade de maneira geral, as diferenças entre população, amostra, variáveis discretas e contínuas, itens reparáveis e não reparáveis e verificamos alguns detalhes específicos de efeitos em sistemas mecânicos. 52ENGENHARIA DA CONFIABILIDADE EXERCÍCIOS 1. O que difere amostra de população? Qual a relevância estatística desteconceito? 2. Defina situações do seu convívio, que são determinadas por variáveis discretas e por variáveis contínuas. 3. Cite 5 itens reparáveis e 5 itens não reparáveis com os quais você tem contato na sua vida pessoal ou no âmbito do seu exer- cício profissional? 4. O que significa, de maneira geral, quando um produto passa a ter, durante seu uso, taxas de falhas crescentes? 5. Por que a maioria dos sistemas mecânicos estão sujeitos a taxas de falhas diferentes ao longo de sua vida, enquanto sistemas eletrônicos são considerados constantes neste sentido? 53ENGENHARIA DA CONFIABILIDADE ANÁLISE DA CAPACIDADE DE PROCESSOS Como saber se um processo é confiável? Como prever o número de problemas decorrentes dos produtos do meu processo? 54ENGENHARIA DA CONFIABILIDADE Citamos anteriormente que muitas são as aplicações dos estudos de confiabilidade. Uma das aplicações mais utilizadas na indústria é a análise da capacidade dos processos, principal- mente por parte das empresas que são fornecedoras na cadeia automotiva, visto que a cadeia necessita de produtos que aten- dam rigidamente suas especificações, caso contrário, estarão em desacordo com as definições de projeto e podem incorrer, com isso, em perda da confiabilidade dos seus produtos. Des- te modo, começamos a compreender que, em relação a este conceito, a capacidade dos processos não necessariamente leva em conta o volume possível de produzir, mas sim a capacidade que o processo tem de produzir componentes de acordo com o especificado. A preocupação com o tema é tanta que, há alguns anos, um grupo formado pelas montadoras Daimler Chrysler Cor- poration, Ford Motor Company e General Motors Corporation denominado IATF, International Automotive Task Force pro- duziu uma série de manuais, entre eles, um manual que trata única e exclusivamente de Controle Estatístico de Processos (CEP), o qual inclui o tema de avaliação da capacidade dos processos. Estes manuais, atualmente, já existem traduzidos em português e são de uso obrigatório em toda a cadeia de fornecimento destas três montadoras, também são adotados por uma grande parte das demais, portanto, aqui comentaremos sobre o tema e estaremos nos baseando diretamente no manual de referência de Controle Estatístico de Processos, segunda edição, de julho de 2005 (mais atual). A abordagem do controle estatístico de processo se justifica, principalmente nos dias atuais, pela compreensão de que, se os processos produzem produtos com defeito, estes produtos gerarão desperdícios em termos de matéria-prima, mão de obra e insumos relacionados ao fato de produzirem peças e produtos que não poderão ser utilizados (e serão descartados) ou pelo fato de gerarem produtos que necessitarão de mais valor agregado 55ENGENHARIA DA CONFIABILIDADE em termos de operações, a fim de atingirem suas especificações. Compreendendo isso, torna-se um tanto óbvio que a melhor maneira de não termos produtos com defeito é ter certeza que os mesmos não serão produzidos fora das especificações, esta medida se justifica pelos fatos anteriormente citados e também pela redução de custos com inspeções, tempo de processamen- to das mesmas, mão de obra relacionada, equipamentos, etc., sendo assim, o CEP existe como uma estratégia preventiva. O intuito aqui não é tratar do CEP na íntegra, mas revisar uma das abordagens ligadas ao mesmo, que acaba atrelada à certeza de que não serão produzidas peças com defeito, ou seja, que o processo tem um nível de confiabilidade aceitável e que, neste momento, passamos a tratar este nível de confiabilidade de processo com a palavra Capabilidade, que não é uma palavra correta na Língua Portuguesa, na verdade é um termo técnico que tem origem na palavra em inglês Capability, que teria sua melhor tradução como Capacidade (daí o fato de analisarmos a “capacidade” dos processos), mas o termo é facilmente con- fundido na nossa linguagem com as questões de volume de produção, torna-se corriqueiro o uso da palavra Capabilidade para designar a confiabilidade dos processos produtivos. Assim como a falta de confiabilidade em componentes vêm da sua probabilidade de perder a função (falhar), que tem suas causas atreladas a defeitos de fabricação, tais como defeitos de materiais, de mão de obra, defeitos de maquinário, insumos, etc., os processos têm sua falta de confiabilidade atrelada a fatores muito próximos e que são chamados de fontes de variação ou variabilidade dos processos. Aqui, devemos tomar cuidado com um detalhe, as falhas em componentes têm inúmeras causas e, dentre elas, estão os defeitos de processos produtivos, que culminará com a falha de componentes, subsistemas e sistemas. No caso que estamos tratando agora, a busca é justamente pelo controle sobre as causas de variação dos processos produtivos, que não serão denotadas pela falha de componentes, pois muitas vezes não temos como verificar o uso do mesmo, mas sim, as falhas que estão atreladas a atender as necessidades técnicas 56ENGENHARIA DA CONFIABILIDADE destes produtos, ou seja, produzir os produtos de acordo com as especificações. Note, que neste momento, não podemos entrar no mérito se a especificação está correta ou não, ou ainda se o produto final falhará ou não, e sim estamos verificando se atendemos o que foi projetado ou estipulado e nesta visão não utilizamos o produto, e sim, verificamos requisitos tais como medidas, aspectos de uso de materiais, aparência, etc. Para que possamos compreender esta medida de confiabi- lidade, também precisamos entender a diferença entre inspeção e controle estatístico. Na situação de inspeção, os produtos são verificados em relação a algumas características (como já citadas, medidas, aparência, uso correto de material, etc.), produtos são rejeitados se estão em desacordo com as especificações, mesmo que estejam no limiar das mesmas, como por exemplo, uma determinada pela usinada tem uma característica especificada como 50,8 mm, variando dentro de um limite de tolerância de 0,1 mm tanto para mais quanto para menos do que a medida especificada, ou seja, se a peça estiver com 50,7 mm ela está aprovada (medidas menores que isso, a mesma está rejeitada) e se estiver com 50,9 mm a peça também está aprovada (medidas maiores que isso, a mesma está rejeitada), isso é chamado de Desempenho do Processo e, para se ter certeza que o produto está correto, deveríamos inspecionar esta medida em 100% das peças, o que muitas vezes torna-se impraticável, visto que em alguns casos estamos tratando de volumes de produção enormes ou ainda de métodos de inspeção que não incomumente, são mais demorados do que a própria produção da peça. No caso do controle estatístico, mais especificamente em relação ao que mais no interessa neste estudo de confiabilida- de, que é a Capabilidade do processo, a ideia é verificar uma amostra de peças significativas do processo, que possam nos indicar em relação à população total produzida sob determinadas condições, qual a margem de folga em relação à especificação e o processo que está sendo produzido à peça em questão, ou seja, qual o grau de certeza (ou de confiabilidade) que podemos ter de que este processo não produzirá peças fora da especificação, 57ENGENHARIA DA CONFIABILIDADE em outras palavras, qual será a probabilidade do processo não produzir peças com defeito. Note que, quanto mais limiar às minhas especificações o processo produzir, menor o grau de confiabilidade teremos dele, mesmo a peça estando de acordo com as especificações, pois a margem para um eventual erro é muito baixa. Tomando o exemplo anterior, o processo gerando peças que estejam entre 50,75mm e 50,85mm é mais confiável (existe mais folga em relação à especificação) do que se estiver gerando peças entre 50,7 e 50,9, pois estão no limite da espe- cificação, mesmo estando corretas. Segundo AIAG (2005 p.19), a Capabilidade de Processo é determinada pela variação que vem das causascomuns. Ela geralmente representa o melhor desempenho do próprio proces- so. Isso é demonstrado quando o processo está sendo operado sob controle estatístico, independentemente das especificações, portanto, para um processo ser aceitável, o mesmo deve estar sob um estado de controle estatístico de processo, ou seja, as variações do mesmo são somente fruto de causas comuns, e a Capabilidade do processo deve ser menor que a tolerância estabelecida para o mesmo. 58ENGENHARIA DA CONFIABILIDADE Cálculo da capabilidade Conforme mencionamos anteriormente, para cálculos de confiabilidade verificamos amostras significativas para fim de determinarmos a probabilidade em relação ao comportamento da população, então, primeiramente, compreender qual seria uma amostra significativa. Segundo Shewart (1931), uma amostra significativa é determinada pelo resultado da seguinte equação: Nesta equação: S = tamanho da amostragem significativa n = tamanho total da amostra de produtos Conforme já comentamos, só podemos verificar a Capa- bilidade de um processo se o mesmo estiver sob controle, caso contrário, o resultado será inválido. Sendo assim, a primeira medida a ser verificada é o desempenho ou Performance do Processo, denominadas aqui como Pp e Ppk. Para fins de com- preensão, Pp é o desempenho do processo independentemente de sua centralização, ou seja, indicará quanto o processo está dentro dos limites de especificação. O índice Ppk já leva em conta, além da performance geral do processo Pp, o quanto o processo também está centralizado em relação à sua média, ou seja, se um processo tem limites inferiores e superiores de especificação, vão haver dois cálculos de Pp, chamados de Ppu para os limites superiores de especificação e Ppl para os limites inferiores de especificação. Se o processo é unilateral, ou seja, só tem tolerância superior ou inferior, utiliza-se somente um dos mesmos. O índice Ppk será o menor entre Ppu e Ppl. Outro fato importante é que a média do processo esteja centralizada em relação à medida nominal desejada para o mesmo. Deste modo, utilizando os dados já explicados nas equações (4) e (5), teremos o seguinte: 59ENGENHARIA DA CONFIABILIDADE Nesta equação: Pp = performance geral do processo LSE = Limite superior de especificação LIE = Limite inferior de especificação s = desvio padrão do processo - ver equação (5) x = média do processo – ver equação (4) Ppu = performance superior do processo Ppl = performance inferior do processo Ppk = performance do processo centrado A definição, se a performance do processo fosse conside- rada adequada ou não, é bastante particular de cada empresa ou relação cliente/fornecedor, um índice bastante considerado na indústria automotiva é de Pp = 2,00 e Ppk = 1,66. Entendido o desempenho do processo (amostral) e consi- derado aceitável, podemos partir à compreensão da Capacidade do Processo, a qual já denominada Capabilidade, que será definida pelos índices Cp e Cpk. Estatisticamente falando, o que muda entre os cálculos do desempenho e da capacidade é que o primeiro se utiliza do desvio padrão amostral calculado em relação aos resultados obtidos no processo e o segundo será utilizado no cálculo de um desvio padrão populacional que é estabelecido conforme tabelas estatísticas. De maneira análoga ao cálculo de performance, a capacidade geral do processo Cp não leva em conta a centralização do mesmo e a capacidade do processo centrado Cpk leva em conta a centralização, ou seja, o quanto o processo produz em torno da especificação. Sendo assim, teremos as seguintes equações: 60ENGENHARIA DA CONFIABILIDADE Nesta equação: Cp = capacidade geral do processo LSE = Limite Superior de Especificação LIE = Limite Inferior de Especificação R = amplitude média do processo d2 = constante tabelada (ver anexos no final do ebook) x = média do processo – ver equação (4) Cpu = capacidade superior do processo Cpl = capacidade inferior do processo Cpk = capacidade do processo centrado Uma observação sobre a amplitude média R é que esta é a média entre as amplitudes R dos subgrupos, sendo estes, coletas de dados em grupos sugeridos de 20 a 25 amostras, coletadas no processo após satisfazer a condição de performance. Con- forme AIAG (2005 p.185), para um processo de verificação suficiente, devem ser coletadas, no mínimo 125 amostras divi- didas em subgrupos, utilizando o valor de 5 como o tamanho do subgrupo (ou seja, d2 = 2,326). Valores tipicamente aceitáveis de Capabilidade de Processo são definidos como Cp = 1,66 e Cpk 1,33. Como exemplo, baseado no manual do AIAG (2005), temos a verificação de 125 peças de um diâmetro nominal de 22,5 +/-1 mm, para os quais foram coletados os seguintes valores: 61ENGENHARIA DA CONFIABILIDADE Nº peça Diâmetro Nº peça Diâmetro Nº peça Diâmetro Nº peça Diâmetro Nº peça Diâmetro 1 22,30 26 22,37 51 22,28 76 22,65 101 22,48 2 22,54 27 22,34 52 22,55 77 22,50 102 22,38 3 22,01 28 22,75 53 22,38 78 22,41 103 22,28 4 22,62 29 22,71 54 22,65 79 22,39 104 22,72 5 22,65 30 22,51 55 22,56 80 22,48 105 22,96 6 22,86 31 22,23 56 22,54 81 22,50 106 22,53 7 22,68 32 22,36 57 22,25 82 22,86 107 22,52 8 22,43 33 22,90 58 22,40 83 22,60 108 22,61 9 22,58 34 22,45 59 22,72 84 22,60 109 22,62 10 22,73 35 22,48 60 22,90 85 22,66 110 22,60 11 22,88 36 22,60 61 22,31 86 22,79 111 22,54 12 22,68 37 22,72 62 22,57 87 22,61 112 22,56 13 22,46 38 22,35 63 22,38 88 22,81 113 22,36 14 22,30 39 22,51 64 22,58 89 22,66 114 22,46 15 22,61 40 22,69 65 22,30 90 22,37 115 22,71 16 22,44 41 22,61 66 22,42 91 22,65 116 22,84 17 22,66 42 22,52 67 22,21 92 22,75 117 22,52 18 22,48 43 22,52 68 22,45 93 21,92 118 22,88 19 22,37 44 22,49 69 22,24 94 22,00 119 22,68 20 22,56 45 22,31 70 22,55 95 22,45 120 22,54 21 22,59 46 22,42 71 22,25 96 22,51 121 22,76 22 22,65 47 22,64 72 22,36 97 22,58 122 22,65 23 22,78 48 22,52 73 22,25 98 22,46 123 22,51 24 22,58 49 22,40 74 22,34 99 22,76 124 22,77 25 22,33 50 22,63 75 22,67 100 22,56 125 22,73 Tendo os valores, conseguimos estabelecer: Desvio padrão da amostra s (equação (5)) = 0,18927 Média da amostra x = 22,53 Pp (equação (32)) = 1,76 Ppk (equações (33), (34) e (35)) = 1,7 Cp (equação (36)) = 1,68 Cpk (equações (37), (38) e (39)) = 1,63 Visto os valores calculados no nosso exemplo, o índice de performance do processo será de 1,7 e o índice de capacidade do processo será 1,63, ou seja, se os valores fossem uma amostra de um momento de produção, este resultado demonstrou uma per- formance de 1,7. Se utilizássemos estes valores para projetar para a população, o resultado nos mostraria uma capacidade de 1,63. 62ENGENHARIA DA CONFIABILIDADE Probabilidade de falhas Os processos costumeiramente são medidos, principalmente como já mencionamos pela indústria automotiva, através de seus índices de capacidade, ou seja, pela sua Capabilidade. Este índice demonstrará a confiabilidade do processo em questão, mas este índice também pode demonstrar a probabilidade do processo gerar peças com defeito, geralmente expresso em partes por milhão (ppm), que pode ser verificado na tabela: Confiabilidade de verificação por atributos Não invariavelmente os resultados de processos, ao invés de serem “medidos” com algum instrumento cujos valores são entendidos como variáveis contínuas, se utilizam de medições por atributos cujas variáveis são entendidas como discretas. Os exemplos mais comuns são conta da utilização de padrões de medidas que são facilmente utilizados e cujos resultados são rapidamente interpretados pelos operadores ou inspetores nos processos, sendo assim, padrões do tipo Passa-Não Passa (Go-No Go Gages) são adotados largamente em uma série de processos produtivos. Tais resultados não necessitam de nível de precisão ou verificação de tolerâncias, eles simplesmente precisam ser decididos, se a peça está ou não em desacordo com um determinado parâmetro, ou seja, existe a necessidade de rapidamente separarpeças conformes e não-conformes. Sendo esses resultados discretos e, usualmente, formados por apenas dois resultados possíveis do tipo aprovado/repro- Cpk Sigma ppm Cpk Sigma ppm Cpk Sigma ppm 0.47 - 161,51 0.87 - 9,322 1.27 - 145 0.50 1.50 133,61 0.90 - 6,934 1.30 - 98 0.53 - 109,6 0.93 - 5,11 1.33 4.00 64 0.57 - 89,13 0.97 - 3,732 1.37 - 41 0.60 - 71,96 1.00 3.00 2,7 1.40 - 27 0.63 - 57,43 1.03 - 1,935 1.43 - 17 0.67 - 45,5 1.07 - 1,374 1.47 - 11 0.70 - 35,73 1.10 - 967 1.50 4.50 7 0.73 - 27,81 1.13 - 674 1.53 - 4 0.77 - 21,45 1.16 ~3.50 465 1.57 - 3 0.80 - 16,4 1.20 - 318 1.60 ~5.00 0.5 0.83 - 12,42 1.23 - 216 2.00 6.00 0.00198 63ENGENHARIA DA CONFIABILIDADE vado, conforme/não conforme, e assim por diante, não existe a necessidade do uso de uma distribuição do tipo normal, pois tais dados não variarão em torno de uma medida. Posto isso e visto os tipos de distribuições que verificamos nos capítulos anteriores, os resultados de processos deste tipo serão muito me- lhor compreendidos através do uso de distribuições binomiais. Nestes casos, as medidas comuns para uso em processo são determinadas, incialmente, a partir do conhecimento da propor- ção de itens não-conforme, que pode ser expressa pela equação: Nesta equação: pi = proporção de itens não conforme npi = número de peças encontradas como não conforme ni = número total de peças verificadas Entendendo que podemos fazer esta análise um número i de vezes, sendo que, quanto mais grupos de medidas reali- zarmos, mais confiável será o resultado, ou ainda, melhor será o entendimento dos reais resultados demonstrados por um processo. Muito importante lembrar que tal verificação deve ser levada em conta para avaliação de capacidade do processo 64ENGENHARIA DA CONFIABILIDADE (e não somente performance momentânea), somente quando o processo já estiver conhecidamente estável, ou seja, livre de situações de causas pontuais de falhas. A média do resultado das várias verificações de performance do processo será a pro- porção média de falhas p. Sabendo a proporção de peças falhadas, o índice de ca- pacidade de processo pode ser definido conforme a equação: Em um exemplo simples, os resultados de diferentes amos- tras de um determinado processo demonstraram os seguintes resultados: Visto os dados, teríamos as seguintes proporções de itens não-conforme utilizando a equação (40): Deste modo, teríamos um p = 0,0177 o qual, substituindo na equação (41) nos traz o resultado: No exemplo mostrado acima, o processo tem índices de performance que resultam em uma capacidade de 98,23%. Nº da amostra Nº peças verificadas Nº peças não-conforme 1 2300 45 2 3450 58 3 1784 34 4 2866 47 65ENGENHARIA DA CONFIABILIDADE SÍNTESE Neste capítulo verificamos a aplicabilidade e a importância dos conceitos de confiabilidade na análise de sistemas produtivos, o qual chamamos de Capacidade de Processos ou ainda Capabilidade e sua inf luência no resultado dos processos. 66ENGENHARIA DA CONFIABILIDADE EXERCÍCIOS 1. Qual a diferença entre inspeção e controle estatístico de processos? 2. Qual a diferença entre performance e capacidade de processos? 3. O que significa um processo com alto índice de Capabilidade? 4. Qual a inf luência da capacidade de processos no volume de peças rejeitadas pelo mesmo? 5. Em alguma situação do seu cotidiano, estes conceitos seriam aplicáveis? 67ENGENHARIA DA CONFIABILIDADE CONFIABILIDADE DE SISTEMAS DE MEDIÇÃO Você sabe que as medições não são exatas? O quanto você pode confiar no seu sistema de medição? 68ENGENHARIA DA CONFIABILIDADE Anteriormente, comentamos sobre a confiabilidade de sis- temas de produção, ou ainda, sobre a capacidade dos processos, que define o quanto um processo é confiável em termos de resultado, ou ainda, quantos produtos gerados neste processo podemos esperar em situação de não-conformidade. Esta ve- rificação está intimamente ligada aos resultados das inspeções em peças, ou seja, estes resultados estão extremamente ligados ao sistema de medição utilizado no processo. Posto isso, nos vem a seguinte questão, o quanto os resultados das medições realizadas são corretos, ou ainda, qual o nível de confiabilidade do sistema de medição? Se entendêssemos que os instrumentos de medição são produzidos em um processo qualquer, poderíamos compreender que os mesmos também estão sujeitos às eventuais falhas destes processos. Neste sentido, existem processos de calibrações de instrumentos que buscam verificar e, eventualmente, ajustar estes instrumentos para estarem de acordo com um determi- nado padrão que será estabelecido de diferentes formas. De qualquer forma, este padrão também não é exato, pois existe algum nível de imprecisão relacionado ao padrão universal da característica em questão. Juntando tudo isso, a calibração dos instrumentos tem um fator atrelado chamado Incerteza de Medição, que demonstra o erro que o instrumento ou padrão em questão tem em relação ao padrão universal e, quando essa somatória de erros do instrumento com a incerteza atinge um determinado critério definido para o processo, o instrumento está reprovado. Sendo assim, já existe um erro associado a própria calibração que, por melhor que seja, apresentará uma certa distorção entre o instrumento e o padrão universal. 69ENGENHARIA DA CONFIABILIDADE Não bastasse isso, compreendendo que os instrumentos de medição são equipamentos, os mesmos também podem ter distorções associadas à sua operação, seja por repetição de resultados, seja pelo seu posicionamento junto ao produto que está sendo medido, seja pela facilidade/dificuldade de leitura e interpretação dos resultados, seja pela habilidade/conheci- mento da pessoa que está operando o instrumento, aliado a isso, podemos acrescentar variações de temperatura, umidade, vibrações, ruídos, luminosidade, enfim, por mais que não pareça em primeiro momento, existe sim um grande erro associado ao uso de instrumentos de medição e é muito importante para o processo conhecer justamente o quanto é este erro. Neste sentido, dentre os manuais publicados pelo IAFT, conforme explicado anteriormente, existe um exclusivamente dedicado à análise do sistema de medição do processo, deno- minado MAS (Measurement System Analisys), o qual está atualmente na sua 4ª edição desde 2010. O intuito do MAS é, basicamente, definir o nível de confiança do sistema de medição que está sendo estudado, pois conhecendo este nível de confiança, é possível estabelecer o quanto do processo está sendo inf luenciado pelo mesmo. Imagine que, de maneira geral, em um processo considerado estável existem peças que estão de acordo com as especificações (região verde na figura a seguir) e peças que estão não-conformes (em desacordo com as especificações, região vermelha da figura), mas dependendo do nível de certeza conhecido dos resultados do sistema produti- vo, podemos acrescentar ainda, neste meio, peças que parecem estar em acordo com as especificações mas não estão e, ainda, peças que parecem estar em desacordo com as especificações, mas efetivamente não estão (ambas representadas pela região em amarelo na figura). Quanto mais confiável for o sistema de medição, menor será essa “zona de incerteza” (amarela): 70ENGENHARIA DA CONFIABILIDADE Neste ebook, não discutiremos toda a sistemática de análise do sistema de medição por se tratar de assunto abordado em outros momentos, visto que a análise completa é bastante ex- tensa. Nosso intuito é demonstrar a aplicação dos conceitos de confiabilidade e relação ao processo de medição e quanto isso pode afetar o grau de confiança sobre os resultados do processo. Análise de discriminação Primeiramente, cabe a ressalva em relação à questão da análise de Discriminação do Sistema de Medição, pois é bem possível realizar uma série de medições em um produto qual- quer, utilizando uma infinidade de instrumentos de medição diferentes. Neste caso, a Análise de Discriminaçãotrata, ba- sicamente, de verificar se, em utilizando o instrumento em estudo, o mesmo possibilita a verificação correta da característica que está verificando. Em outras palavras, para verificar uma determinada medida e sua tolerância, o instrumento tem que ser capaz de “ler” esta medida, isso é chamado de resolução do instrumento. Um exemplo seria, para verificar um diâmetro usinado de 10,00 mm com tolerância para mais e para menos de 0,02 mm, o instrumento deveria ter uma resolução que permita ao usuário, justamente averiguar variações em torno dos 0,02 mm. Em termos práticos, costuma-se indicar que a resolução do instrumento seja, pelo menos de 1/10 em relação ao intervalo de medida que está sendo verificado. Voltando ao nosso exemplo, o diâmetro em questão tendo uma tolerância para mais ou para menos de 0,02 mm, o intervalo de medida a ser verificado é de, no mínimo, 0,04 mm, sendo assim, o ins- trumento de medição deveria verificar variações de 0,004 mm. Repetibilidade e reprodutibilidade As características de repetibilidade e reprodutibilidade do sistema de medição são as que demonstram justamente a variação do sistema e, sendo confiabilidade uma verificação e o nível de certeza em relação à variabilidade do sistema, estes serão os assuntos que demonstraremos. 71ENGENHARIA DA CONFIABILIDADE Para avaliar os parâmetros de repetibilidade e reproduti- bilidade do sistema de medição, primeiramente, deverão ser coletadas amostras de peças realizadas no processo produtivo. Estas peças serão verificadas utilizando exatamente o instru- mento de medição que se quer avaliar em relação ao processo e, quanto mais fiel à realidade do processo for a operação de medição, maior a certeza dos resultados que serão verifica- dos, ou seja, a verificação não deveria ser feita em condições idealizadas, tais como em um laboratório, com temperatura controlada, peças climatizadas, em uma bancada de iluminação diferente da utilizada no processo, instrumentos em condições diferentes, etc. Importante também, que todas as amostras que serão avaliadas estejam nas mesmas condições, ou seja, deve-se evitar ao máximo comparar o sistema de medição em condições diferenciadas (dia e noite, calor e frio, etc.), evitando inserir mais componentes de variação. Dentre as condições de igual- dade está a escolha de pessoas que costumeiramente realizem tais tipos de medições no processo produtivo. A ideia em torno dos conceitos de repetitividade e repro- dutibilidade conforme AIAG (2010) são: a. Repetitividade: apontará a variação nas medidas obtidas com um instrumento de medição, quando usado várias vezes por um mesmo avaliador, medindo a mesma característica em uma mesma peça. 72ENGENHARIA DA CONFIABILIDADE b. Reprodutibilidade: apontará a variação na média das me- didas feitas por diferentes avaliadores, utilizando o mesmo instrumento de medição medindo mesma característica nas mesmas peças. c. Índice de R&R: é uma estimativa da variação combinada da repetitividade e da reprodutibilidade. Isto é, o R&R é a variância resultante da soma das variâncias dentro do sistema e entre sistemas. Processo de coleta de valores Conforme já comentamos, serão necessárias amostras que representem o processo em sua condição estável, sendo que este número de amostras usualmente é de 10 peças. Também serão necessárias pessoas que realizem, usualmente, medições similares no processo em questão, que normalmente são em número de 3 inspetores, da seguinte forma: • As peças a serem medidas devem ser numeradas de alguma forma (de preferência que esta marcação não seja conhecida pelos inspetores). • A medição deve ser realizada 3 vezes em cada peça, por cada um dos inspetores. • Esta medição não deve ser repetida 3 vezes, na mesma peça, no mesmo momento. • O normal é que sejam medidas as peças de 1 a 10 por cada um dos inspetores, depois medidas as peças de número 10 até 1 (ordem invertida) pelos 3 inspetores e, por fim, medidas em ordem aleatória pelos 3 inspetores, por exemplo, peça de números 1, 3, 5, 7, 9, 2, 4, 6, 8 e 10. Este processo é interessante para evitar que os resultados sejam “memorizados”. Ao final, deverão existir 90 medidas, sendo 3 medidas de cada peça por cada um dos 3 inspetores. 73ENGENHARIA DA CONFIABILIDADE Cálculo de repetitividade Existem diversas formas e métodos para cálculo da repe- titividade, cada qual com seu nível de complexidade e tipo de resultados demonstrados. A escolha do método dependerá do tipo do sistema de medição utilizado e, claro, familiaridade com a sistemática e nível de precisão requerido. A sistemática que demonstraremos é a mais difundida, chamada Método da Média e Amplitude, conforme definido em AIAG (2010), da mesma forma que existe como demonstrar graficamente os resultados do estudo, mas este não será o objeto da nossa demonstração, e sim indicar numericamente o quanto o sistema de medição pode inf luenciar na confiabilidade do processo produtivo. Com os valores das medições colocados em uma tabela, sendo que estes valores podem simplesmente ser as diferenças entre o valor nominal da característica que está sendo analisada e o valor encontrado, como por exemplo, se a característica for um diâmetro de 12,5mm e a medida encontrada for de 12,62mm, o valor apresentado pode ser somente a diferença entre eles, ou seja, 0,12mm (valores abaixo do valor nominal são expressos como números negativos). Estes valores são co- locados alinhados demonstrando os três inspetores e as três medidas de cada inspetor para cada peça. Com base nos valores encontrados, calcula-se o valor médio que cada inspetor encontrou em cada peça (soma-se todos e divide-se por três) e a amplitude entre estes valores (a diferen- ça entre o maior e o menor valor encontrado). São calculadas também as médias entre os valores médios encontrados (média das médias) e a amplitude entre seus valores (Amplitude da Média das Peças - Rp), a média entre as amplitudes (Amplitude Média das Tentativas - Rmed ou R) e seu limite normalizado (Limite Ampl. Tentativas – UCLr, que é o resultado de Rmed multiplicado pelo coeficiente normalizado 2,58 para uso de 3 tentativas de cada inspetor) e, por fim, a média entre as am- plitudes de cada inspetor (Amplitude das Médias – x_dif). 74ENGENHARIA DA CONFIABILIDADE Com estes resultados, é possível calcular a Variação do Equipamento (EV), também chamado de Repetitividade, que é dado pela seguinte equação: Nesta equação: EV = Variação do equipamento R = Amplitude média das tentativas K1 = Coeficiente normalizado 0,5908 para uso de 3 ten- tativas por inspetor Cálculo de reprodutibilidade Dando segmento ao cálculo de repetitividade e utilizando os valores calculados e demonstrados anteriormente, podemos calcular a Variação das Amostras (AV), também chamada de reprodutibilidade, dada pela seguinte equação: Nesta equação: AV = Variação das amostras Xdif = Amplitude das médias K2 = Coeficiente normalizado 0,5231 para uso de 3 ins- petores EV = Variação do equipamento nr = multiplicação do número de peças vezes o número de tentativas (30 no nosso caso). 75ENGENHARIA DA CONFIABILIDADE Cálculo de R&R Tendo os resultados da Variação do Equipamento e da Variação das Amostras, podemos proceder com o cálculo da Repetibilidade & Reprodutibilidade (GRR), que é dado pela seguinte equação: Nesta equação: GRR = Repetibilidade & Reprodutibilidade EV = Variação do equipamento AV = Variação das amostras Outros coeficientes Com base nos resultados apresentados, ainda é possível verificar alguns outros coeficientes para análise do sistema de medição. Os primeiros são a Variação das Peças (PV), que demons- trará a normalização dos valores da Amplitude da Média das Peças (Rp), ou seja, como as peças variaram entre si, busca-se demonstrar o quanto elas variaram (se fossem perfeitas, esse número seria zero e toda a variação seria decorrente do equi- pamento e capacidade dos inspetores) ea Variação Total (TV), que demonstrará a variação total do sistema, considerando equipamento e peças, ou seja, peças variaram entre as dez escolhidas, equipamento variou entre as inspeções realizadas e as medições variaram entre os inspetores que a realizaram, deste modo, estes dois coeficientes podem ser descritos pelas seguintes equações: 76ENGENHARIA DA CONFIABILIDADE Nestas equações: PV = Variação das Peças Rp = Amplitude da média das peças K₃ = Coeficiente normatizado para o uso de 10 amostras TV = Variação total GRR = Repetibilidade & Reprodutibilidade Com base nestes outros dois coeficientes, conseguimos extrair ainda as informações de representatividade (%EV) da Variação do Equipamento sobre a Variação Total, represen- tatividade (%AV) da Variação das Amostras sobre a Variação Total, representatividade (%GRR) da Repetibilidade & Re- produtibilidade sobre a Variação Total, a representatividade (%PV) da Variação das Peças sobre a Variação Total e, por fim, o número de categorias distintas (ndc), que determina em quantas categorias de variação podem ser distinguíveis no sis- tema, visto um resultado de 97% de certeza. Estas informações podem ser calculadas pelas seguintes equações: 77ENGENHARIA DA CONFIABILIDADE Nestas equações: EV = Variação do Equipamento TV = Variação Total AV = Variação das Amostras GRR = Repetibilidade & Reprodutibilidade PV = Variação das Peças Para demonstração destes resultados, seguem valores uti- lizando, como base exemplo, página 118 do Manual de MAS da AIAG (2010): 78ENGENHARIA DA CONFIABILIDADE AMOSTRAS Operador Tentativa 1 2 3 4 5 6 7 8 9 10 Média geral 1 1 0,29 -0,56 1,34 0,47 -0,80 0,02 0,59 -0,31 2,26 -1,36 2 0,41 -0,68 1,17 0,50 -0,92 -0,11 0,75 -0,20 1,99 -1,25 3 0,64 -0,58 1,27 0,64 -0,84 -0,21 0,66 -0,17 2,01 -1,31 Média: 0,447 -0,607 1,260 0,537 -0,853 -0,100 0,667 -0,227 2,087 -1,307 0,190 Amplitude: 0,350 0,120 0,170 0,170 0,120 0,230 0,160 0,140 0,270 0,110 0,184 2 1 0,08 -0,47 1,19 0,01 -0,56 -0,20 0,47 -0,63 1,80 -1,68 2 0,25 -1,22 0,94 1,03 -1,20 0,22 0,55 0,08 2,12 -1,62 3 0,07 -0,68 1,34 0,20 -1,28 0,06 0,83 -0,34 2,19 -1,50 Média: 0,133 -0,790 1,157 0,413 -1,013 0,027 0,617 -0,297 2,037 -1,600 0,068 Amplitude: 0,180 0,750 0,400 1,020 0,720 0,420 0,360 0,710 0,390 0,180 0,513 3 1 0,04 -1,38 0,88 0,14 -1,46 -0,29 0,02 -0,46 1,77 -1,49 2 -0,11 -1,13 1,09 0,20 -1,07 -0,67 0,01 -0,56 1,45 -1,77 3 -0,15 -0,96 0,67 0,11 -1,45 -0,49 0,21 -0,49 1,87 -2,16 Média: -0,073 -1,157 0,880 0,150 -1,327 -0,483 0,080 -0,503 1,697 -1,807 -0,254 Amplitude: 0,190 0,420 0,420 0,090 0,390 0,380 0,200 0,100 0,420 0,670 0,328 Geral Média geral 0,169 -0,851 1,099 0,367 -1,064 -0,186 0,454 -0,342 1,940 -1,571 0,0014 Repetibilidade (Variação do Equipamento - EV): 0,2019 %EV: 17,61% Amplitude da Média das Peças - Rp: 3,5111 Reprodutibilidade (Variação das Amostras - AV): 0,2297 % AV: 20,04% Média Ampl. Tentativa - Rmed: 0,3417 Repetibilidade x Reprodutibilidade (GRR): 0,3058 % GRR: 26,68% Amplitude das Médias - Xdif: 0,4447 Variação da Peça (PV): 1,1046 % PV: 96,38% Limite Ampl. Tentativas - UCLr: 0,8815 Variação Total (TV): 1,1461 ndc: 5,09 79ENGENHARIA DA CONFIABILIDADE OBS1: para fins de uso de menores números de amostras (no nosso caso demonstramos o uso de 10), menor número de tentativas (no nosso caso demonstramos o uso de 3) e menor número de inspe- tores (no nosso caso demonstramos o uso de 3), existem coeficientes normalizados K1, K2 e K3 diferentes, no entanto, perde-se bastante em termos de certeza dos resultados apresentados. OBS2: note que a soma entre os valores, em um dado exemplo, não formará 100%, pois os fatores são interdependentes, ou seja, dependem um do outro e inf luenciarão os resultados um do outro. OBS3: sistemas automatizados que não dependem do inspetor (máquinas de medir por coordenadas automáticas, sistemas de me- dição por passagem, etc.) são avaliados da mesma maneira, mas com somente 1 inspetor, ou seja, somente serão necessários os cálculos de EV, pois não existem os valores para AV, sendo assim, os valores de K1=1 e K2=0. O restante permanece igual. 80ENGENHARIA DA CONFIABILIDADE Avaliação dos resultados De acordo com AIAG (2010 p. 78), os resultados da con- fiabilidade do sistema de medição devem ser interpretados conforme a seguinte tabela: As decisões de aceitável ou não aceitável estão bem claras, abaixo do resultado de 10%, o sistema de medição está aprova- do e acima do resultado de 30%, o sistema é considerado não confiável. A área intermediária, usualmente, é discutível em virtude do nível de severidade do produto, do quanto a tolerân- cia do mesmo pode afetar seu funcionamento, o custo de um sistema de medição mais robusto, etc., mas todas estas defini- ções devem estar acordadas com o cliente final (normalmente a montadora que receberá o produto do processo em questão). Esta verificação é necessária, pois o sistema de medição in- f luencia diretamente os resultados da confiabilidade do sistema produtivo, ou seja, quanto mais alto o nível de R&R, mais o nível de Confiabilidade do sistema (Cpk) será afetado. Em termos numé- ricos, é possível verificar este impacto através da seguinte equação: Nesta equação: Cpact = Nível de Capabilidade real do sistema Cpobs = Nível de Capabilidade observada no sistema (ve- rificada conforme capítulo anterior) GRR = Repetibilidade & Reprodutibilidade GRR Decisão Comentários Até 10% Aceitável Recomendado, especialmente útil ao tentar classificar ou classificar as peças ou quando o controle do processo é requerido. De 10 a 30% Aceitação condicional Verificar a importância de medição na aplica- ção, custo do dispositivo de medição, custo de retrabalho ou reparo. Deve ser aprovado pelo cliente. Acima de 30% Inaceitável Necessário melhorias no sistema de medição. 81ENGENHARIA DA CONFIABILIDADE Exemplo, utilizando os dados calculados de Cpk = 1,63, vindo do exemplo do capítulo anterior, e do nível de GRR do exemplo acima = 0,3058, teríamos o resultado, substituindo estes valores na equação (51) de 1,83, isso quer dizer que um sistema que demonstrar um Cpk = 1,83, se tiver um GRR = 30,58%, na verdade, teria um Cpk de 1,63, distorcendo totalmente a informação calculada. A observação vale para o fato de que, antes de conhecer seu nível de GRR, não deveria ser realizado estudos de Cpk para não haver distorção dos resultados. Repetibilidade e reprodutibilidade por atributo Quando se utiliza um sistema de verificação por atribu- to, ou seja, que não corresponde a uma medição com dados variáveis contínuos e sim com resultados discretos binomiais, tais como aprovado e reprovado, é possível verificar o grau de atendimento e certeza deste sistema, chamado Score em relação à referência. Tal estudo é realizado com um número de 50 amostras verificadas 3 vezes cada uma delas em ordem alternada por 3 inspetores (basicamente o mesmo procedi- mento da verificação do GRR, mas com 50 amostras). Estas amostras terão valores binomiais, então atribuímos valores 1, quando encontrado aprovado e valores 0 quando encontrado reprovado. Além destes, é necessária uma verificação extra de referência, ou seja, precisam ser avaliadas com certeza quais das peças em questão estão aprovadas ou reprovadas. Estes valores são demonstrados em uma tabela mostrando as 3 verificações de cada inspetor e o valor de referência. 82ENGENHARIA DA CONFIABILIDADE Abaixo de cada inspetor é feita a sumarização de quantos acertos o mesmo obteve, ou seja, das 150 verificações feitas (50 peças, 3 vezes cada uma em ordem aleatória), quantas vezes o inspetor errou na decisão, exemplo, se encontrado valor de aprovado (1) e a referência da peça era reprovado (0), conta-se 1 ponto, caso a referência fosse realmente aprovada (1), não se atribui ponto nenhum. Ao final, dentre as 150 verificações haverá um certo nú- mero de pontos referente às verificações equivocadas, sendo que este número é subtraído do totalde peças avaliadas (neste caso, 50 peças menos o total de verificações erradas entre as 150 alternativas). Você pode observar que, se o inspetor errou mais de 1/3 das verificações, o sistema já tem zero acertos. Do número de acertos de cada inspetor é verificado quanto o mesmo representa sobre o total de peças avaliadas, ou seja, 40 acertos em 50 peças perfazem um Score do inspetor de 80%. Esse Score pode ser avaliado conforme os critérios de aceitação. Após isso avalia-se quantas peças tiveram algum resultado equivocado, ou seja, dentre as 9 verificações realizadas na peça (3 verificações de cada um dos 3 inspetores), se houve alguma que foi discrepante (se, por exemplo, o resultado de referência era aprovado e alguma das verificações apontou reprovado). Desta maneira, somente é contado como 1 acerto, se todas as 9 verificações da peça em questão apontarem o resultado correto. Novamente são somados os acertos e verificada a re- presentatividade dos mesmos em relação às 50 peças avaliadas, formando o Score de Referência do Sistema, que também é avaliado conforme os critérios de aceitação. A referência de aprovação ou não da peça pode ser feita por um inspetor especializado em condições ideais, como por exemplo, em um local com temperatura controlada, iluminação e ótimas condições de realização da avaliação. As demais 83ENGENHARIA DA CONFIABILIDADE verificações devem ser feitas no local de verificação da peça durante o processo normal de verificação. Outra maneira e, na verdade a mais cor- reta, é efetivamente medir as peças para definir se estão de acordo ou não com as especificações, logo, o mecanismo será testado para aprovação/ reprovação (tipicamente dispositivo passa/não-passa), assim estará sendo avaliada a real condição do sistema aprontar defeitos. Um exemplo, baseado no Manual de MSA da AIAG (2010), pode ser verificado ao lado: Nota-se que o Inspetor 1 obteve Score de 86%, o Inspetor 2 de 88% e o Inspetor 3 de 70%. O sistema de referência apontou um Score de 78%. Tais valores podem ser verificados individualmente, conforme critérios de aprovação, definidos por AIAG (2010 p.140). Inspetor 1 Inspetor 2 Inspetor 3 Refe- rênciaPeça 1 2 3 1 2 3 1 2 3 1 1 1 1 1 1 1 1 1 1 1 2 1 1 1 1 1 1 1 1 1 1 3 0 0 0 0 0 0 0 0 0 0 4 0 0 0 0 0 0 0 0 0 0 5 0 0 0 0 0 0 0 0 0 0 6 1 1 1 0 1 0 1 0 0 1 7 1 1 1 1 1 1 1 0 1 1 8 1 1 1 1 1 1 1 1 1 1 9 0 0 0 0 0 0 0 0 0 0 10 1 1 1 1 1 1 1 1 1 1 11 1 1 1 1 1 1 1 1 1 1 12 0 0 0 0 0 0 0 1 0 0 13 1 1 1 1 1 1 1 1 1 1 14 1 1 0 1 1 1 1 0 0 1 15 1 1 1 1 1 1 1 1 1 1 16 1 1 1 1 1 1 1 1 1 1 17 1 1 1 1 1 1 1 1 1 1 18 1 1 1 1 1 1 1 1 1 1 19 1 1 1 1 1 1 1 1 1 1 20 1 1 1 1 1 1 1 1 1 1 21 1 1 0 1 0 1 0 1 0 1 22 0 0 1 0 1 0 1 1 0 0 23 1 1 1 1 1 1 1 1 1 1 24 1 1 1 1 1 1 1 1 1 1 25 0 0 0 0 0 0 0 0 0 0 26 0 1 0 0 0 0 0 0 1 0 27 1 1 1 1 1 1 1 1 1 1 28 1 1 1 1 1 1 1 1 1 1 29 1 1 1 1 1 1 1 1 1 1 30 0 0 0 0 0 1 0 0 0 0 31 1 1 1 1 1 1 1 1 1 1 32 1 1 1 1 1 1 1 1 1 1 33 1 1 1 1 1 1 1 1 1 1 34 0 0 1 0 0 1 0 1 1 0 35 1 1 1 1 1 1 1 1 1 1 36 1 1 0 1 1 1 1 0 1 1 37 0 0 0 0 0 0 0 0 0 0 38 1 1 1 1 1 1 1 1 1 1 39 0 0 0 0 0 0 0 0 0 0 40 1 1 1 1 1 1 1 1 1 1 41 1 1 1 1 1 1 1 1 1 1 42 0 0 0 0 0 0 0 0 0 0 43 1 0 1 1 1 1 1 1 0 1 44 1 1 1 1 1 1 1 1 1 1 45 0 0 0 0 0 0 0 0 0 0 46 1 1 1 1 1 1 1 1 1 1 47 1 1 1 1 1 1 1 1 1 1 48 0 0 0 0 0 0 0 0 0 0 49 1 1 1 1 1 1 1 1 1 1 50 0 0 0 0 0 0 0 0 0 0 Acertos 43 44 35 39 Score 86,00% 88,00% 70,00% 78,00% Efetividade Decisão ≥ 90% Sistema aceitável. ≥ 80% Aprovação condicional, requer melho-rias. < 80% Sistema inaceitável. 84ENGENHARIA DA CONFIABILIDADE SÍNTESE Neste capítulo verificamos a aplicabilidade e a importância dos conceitos de confiabi- lidade na análise de sistemas de medição, o qual chamamos de avaliação de Repetibilidade e Reprodutibilidade, bem como sua inf luência no resultado dos processos produtivos em termos de certeza dos seus resultados. 85ENGENHARIA DA CONFIABILIDADE EXERCÍCIOS 1. O que é Repetibilidade, tratando-se de sistemas de medição? 2. O que é Reprodutibilidade, tratando-se de sistemas de medição? 3. O que significa um processo com alto índice de Repetibilidade e Reprodutibilidade? 4. Qual a inf luência da Repetibilidade e Reprodutibilidade nos resultados de um Sistema Produtivo? 5. Em alguma situação do seu cotidiano, estes conceitos seriam aplicáveis? 86ENGENHARIA DA CONFIABILIDADE CONFIABILIDADE DE COMPONENTES E SISTEMAS Você sabe como verificar a confiabilidade de componentes? Como isso influenciará os processos e sistemas? 87ENGENHARIA DA CONFIABILIDADE Com base nos conceitos que verificamos é possível enten- dermos como estes serão aplicados a componentes, sistemas e, por consequência, nos diversos processos. Neste momento, vamos lembrar que um sistema é uma união de componentes que, juntos, são alocados para cumprir um determinado obje- tivo, que tem necessidades, funções e tipos de uso. Na grande maioria dos casos, os sistemas formados não têm como objetivo um uso único e depois o descarte, ao contrário, cada vez mais a durabilidade, certeza de uso e performance são atributos de decisão entre a escolha de um produto (sistema) ou outro no mercado. Visto também o que verificamos até o momento, já deve ficar claro, ou pelo menos se pressupor que, tanto o nível de confiabilidade dos componentes utilizados para formar um sistema, quanto a maneira que estes componentes são alocados no sistema influenciarão diretamente o nível de confiabilidade do sistema como um todo. Claro que não podemos esquecer a função, severidade e frequência de uso como grandes inf luen- ciadores deste parâmetro, mas estas são considerações que devem fazer parte do projeto do produto previamente, pois neste momento, podem ser arranjados uma pequena quanti- dade de componentes muito simples, mas que no seu conjunto resultem em um sistema de altos níveis de confiabilidade, do mesmo modo, escolha de componentes de performance duvi- dosa, arranjados de maneira descuidada aplicados a sistemas complexos, podem resultar em situações bastante indesejáveis. 88ENGENHARIA DA CONFIABILIDADE Compreendido isso, podemos também imaginar, os diver- sos tipos de associações de componentes, que podem ser em série, em paralelo ou uma mistura de diferentes configurações, formando redes, de tal sorte que o processo de projeto dos sis- temas deve ser avaliado de maneira minuciosa para atender os objetivos especificados. Atualmente, com ajuda de softwares, no momento de projetar um componente, é bem possível simular situações de cargas a fim de alcançar o objetivo individual de cada componente com um grau de certeza muito bom, claro que isso sempre será decorrente do conhecimento do indivíduo que está projetando o componente para aplicar as corretas funções de um software, avaliando a situação desejada mas, de maneira análoga, podemos também entender que, independentemente de uso de softwares, se não houver o correto entendimento do que se está fazendo, o resultado também não será satisfatório. Além da simulação do comportamento dos componentes individuais, muitos softwares da atualidade permitem a jun- ção destes diversos componentes (alguns softwares com mais ou menos limitações neste sentido) formando subsistemas e, em alguns casos, sistemas complexos como um todo. De toda forma, os softwares nos ajudarão a verificar de maneira rápida e com bom grau de certeza, qual será o comportamento que o componente/sistema apresentará, isso também poupará uma boa quantidade de recursos financeiros, tempo, uso de maquinário e matéria-prima em uma situação de tentativa e erro até o ajuste final do produto. No entanto, apesar de abreviar o caminho e diminuir custos associados aos projetos, os softwares ainda não chegaram ao ponto onde se consiga, em alguns casos, efe- tivamente compreender o total comportamento do sistema, ou seja, a validação de sistemas e subsistemas complexos ainda é a melhor forma de verificar a performance desejadados mesmos. Sistemas em Série A definição de um sistema em série é a junção de um determinado número de componentes cujas suas funções tra- balham de maneira sequencial um a outro dentro do sistema 89ENGENHARIA DA CONFIABILIDADE (mesmo que funcionem independentemente entre si), de modo que, se qualquer um deles falhar, todos os outros falham, do mesmo modo que, fazendo uma analogia, são montados os elos de uma corrente, onde não importa qual deles falhe, a corrente está rompida. Este é o caso mais típico e comum de sistemas, mas precisamos entender que o fato de estarem em série não significa que estão fisicamente em sequência, mas a sua função é que está. Imagine um televisor, nosso exemplo será formado por um sistema que faz a interpretação do sinal de entrada de vídeo (entradas de antena, VGA, USB, etc., que passam por um processamento para posteriormente exibir seu conteúdo), um segundo sistema que exibe o vídeo (tela, iluminação da tela) e um sistema de alimentação (por onde a energia elétrica entra no sistema e é distribuída entre os diversos subsistemas). Neste exemplo, é bem provável que estes três sistemas não estejam fisicamente montados em sequência um do outro, mas sim de maneira a se acomodar da melhor forma dentro do gabinete que dá forma ao televisor. Se qualquer um destes três subsistemas falhar, e não importa qual, o sistema todo perde sua função. De modo semelhante, funciona um automóvel com seus subsistemas de propulsão, transmissão, alimentação, freio, direção, etc. Os mesmos não estão fisica- mente alocados em sequência na carcaça do automóvel, mas seu eventual mal funcionamento faz o sistema como um todo perder a função primordial. 90ENGENHARIA DA CONFIABILIDADE Uma forma analítica de representar os sistemas em série é a associação dos seus componentes em um diagrama de blocos, tornando a compreensão bastante simples. Para o exemplo anterior, do automóvel, teríamos: Compreendida esta explicação, podemos denotar que, no caso de conhecermos o nível de confiabilidade de cada um dos componentes ou subsistemas que integram o nosso sistema como um todo, podemos determinar o nível de confiabilidade do sistema como a multiplicação dos níveis de confiabilidade dos diversos componentes ou subsistemas: Nesta equação: Rt = confiabilidade total do sistema R1,2,3 = confiabilidade dos componentes (ou subsistema) de número um, dois, três Rn = confiabilidade do enésimo componente (ou subsistema) Vista essa explicação, podemos assumir que a probabilidade de sucesso do sistema depende da confiabilidade de cada um dos componentes ou seja: A confiabilidade do sistema é igual ao produto das confiabilidades dos componentes ou subsistemas (PIAZZA, 2000). De modo análogo, a probabilidade de falha do sistema é dada por: Nesta equação: Rt = confiabilidade total do sistema Pf = probabilidade de falha no sistema Alimentação Transmissão Propulsão Direção Freio 91ENGENHARIA DA CONFIABILIDADE Tomando como exemplo o televisor que citamos anterior- mente, vamos supor que a probabilidade para um uso de 2000 horas sejam, respectivamente, 0,95 (subsistema de alimentação), 0,93 (subsistema de exibição) e 0,98 (subsistema de recepção), substituindo os dados citados nas equações (52) e (53), teremos: Rt = 0,95 x 0,93 x 0,98 → Rt = 0,866 ou 86,6% Pf = 1 - 0,866 → Pf = 0,134 ou 13,4% Visto os valores acima, o sistema terá 86,6% de probabili- dade de operar corretamente no período de 2000 horas e 13,4% de probabilidade de falhar neste mesmo período. Observe que a confiabilidade de um sistema em série é sempre menor do que a confiabilidade de seu componente (ou subsistema) com menor nível de confiabilidade, do mesmo modo que a confiabilidade do sistema decresce à medida que aumentam o número de componentes em série. Sistemas em Paralelo No caso de um sistema em paralelo, as funções dos diver- sos componentes ou subsistemas trabalham de maneira inde- pendente, ou seja, caso um dos mesmos falhar, o outro pode continuar funcionando, pois são funcionalmente independen- tes, ou ainda, falamos que estes componentes ou subsistemas trabalham em regime de redundância. O caso dos sistemas em paralelo é bastante utilizado em operações onde a falha do sistema é considerada catastrófica ou ainda, que se admita que não pode haver falhas, tais como sistemas de segurança de máquinas, aviões, elevadores, etc. Em outras palavras, busca-se mais de um recurso para que se possa atender aos objetivos do sistema pois, para o sistema falhar, todos os componentes devem falhar e, da mesma forma que os sistemas em série, não necessariamente tais componentes ou subsistemas tem que estar fisicamente montados de maneira paralela. Por exemplo, sistemas de iluminação de saídas de emergência são conectados na rede elétrica e paralelamente em sistemas de bateria, caso a 92ENGENHARIA DA CONFIABILIDADE rede elétrica falhe, as baterias mantêm o sistema funcionando. Do mesmo modo, aviões que carregam grandes quantidades de passageiros possuem duas, três ou quatro motores de rea- ção (turbinas), sendo que, para a operação de voo, usualmente somente um destes motores consegue manter o avião no ar, ou seja, as falhas de um componente não inf luenciarão na confia- bilidade e na capacidade dos sistemas sobreviventes. No caso de um avião com quatro motores, citado acima, o diagrama de blocos é representado da seguinte maneira: De maneira usual, quando se utiliza sistemas em para- lelo, acaba-se utilizando redundâncias com mais do que um componente ou subsistema de mesmo nível de confiabilidade, portanto, entendendo que a taxa de falhas dos componentes ou subsistemas que o integram é constante, podemos determinar a confiabilidade do sistema pela equação: Nesta equação: Rt = confiabilidade total do sistema Ri = confiabilidade dos componentes (ou subsistemas) n = número de componentes idênticos em paralelo Tomando novamente o exemplo do avião citado ante- riormente, se cada um dos quatro motores tiver um nível de Motor 1 Motor 2 Motor 3 Motor 4 93ENGENHARIA DA CONFIABILIDADE confiabilidade de 95% para 10.000 horas de voo, então, subs- tituindo os valores na equação (54) a confiabilidade do sistema de propulsão total é: Neste caso, podemos notar que o nível de confiabilidade do sistema aumentou com o acréscimo de componentes. Sistemas série-paralelo e mistos A avaliação de sistemas altamente complexos, tais como a verificação total do nível de confiabilidade de um automóvel, de um avião ou mesmo de uma máquina, de maneira geral, exigirão o uso de diversas associações em série e associações em paralelo do funcionamento de componentes e subsistemas. Uma representação destes sistemas pode ser, por exemplo, a demonstrada pelo diagrama de blocos a seguir: R1 R2 R3 R4 R1 R2 R3 R4 R1 R2 R3 R4 94ENGENHARIA DA CONFIABILIDADE O sistema acima representa um sistema série-paralelo. Em algumas redes de componentes eletrônicos este caso pode ser bastante usual. No caso dos componentes acima terem todos o mesmo nível de confiabilidade, podemos calcular a confia- bilidade total do sistema com a seguinte equação: Nesta equação: Rt = confiabilidade total do sistema Ri = confiabilidade dos componentes (ou subsistemas) n = número de subsistemas idênticos em série n = número de componentes idênticos em paralelo No caso acima, se estivéssemos utilizando componentes com nível de confiabilidade de 96% para 1000 horas de uso, teríamos a seguinte situação substituindo na equação (55): Para sistemas mistos teremos a associação de sistemas paralelos, sistemas em série, sistemas em série-paralelo em diferentes números e ordem, o que torna complexa a definição de um modelo de arranjo específico de unidades, até porque, mesmo com números de componentes iguais, as combinações entre os mesmos podem ser as mais diversas, portanto, o melhor a fazer é realizar a análise de confiabilidade destes sistemas em separado, até conseguirassociar os mesmos a um dos modelos anteriormente apresentados e assim obter a confiabilidade geral do sistema. 95ENGENHARIA DA CONFIABILIDADE Confiabilidade geral de sistemas Verificamos diversas formas de associação e componentes, sejam eles em série, em paralelo, sistemas em série-paralelo e sistemas mistos, de modo que é bem plausível de se pensar que os sistemas serão, efetivamente, formados por algum destes arranjos, do mesmo modo que também é plausível de se ima- ginar que, quanto mais complexo o sistema, mais complexos serão tais arranjos e a avaliação dos mesmos. Outro detalhe importante a se pensar é que as características e requerimentos acerca do sistema também serão fator de suma importância para definir as associações de sistemas, portanto, podemos fazer as seguintes considerações: a. Sistemas em série: visto que o nível de confiabilidade tende a diminuir conforme o número de componentes ou subsistemas utilizados, podemos entender que as formas de aumentar o nível de confiabilidade destes sistemas passam por aumento da confiabilidade dos componentes utilizados, ou ainda, pela verificação e redução de componentes associados em série no sistema. b. Sistemas em paralelo: a associação de componentes ou sub- sistemas em paralelo normalmente é utilizada como meio para incremento de confiabilidade, mas estes arranjos nem sempre são possíveis por conta de espaço, custo ou ainda em virtude das características físicas do sistema. Maneiras de atenuar este problema, usualmente, são a disponibilidade de peças sobressalentes, como o caso do estepe disponível nos automóveis, o que acaba se tornando um subterfúgio, visto que isso não evita a falha do sistema, mas provém uma recu- peração relativamente rápida para o mesmo. Outro detalhe a ser levado em conta é que, mesmo aumentando o nível de confiabilidade com a adição de sistemas em paralelo, con- forme a quantidade de sistemas associados (principalmente 96ENGENHARIA DA CONFIABILIDADE acima de três ou quatro quando do uso de componentes com níveis de confiabilidade altos), os ganhos em adicionar mais um novo sistema não produzem aumentos significativos no nível de confiabilidade, além do custo associado, uma alternativa interessante é justamente diminuir a quantidade de componentes associados em paralelo (diminuir e não eliminar a associação em paralelo) e buscar o uso de, dentro da medida do possível, componentes ou subsistemas com níveis maiores de confiabilidade. c. Sistemas série-paraelo: sendo uma associação dos arranjos anteriores, é de se supor que as alternativas neste caso sejam um misto das demais, ou seja, aumentar o nível de confia- bilidade dos componentes individuais, evitar a repetição de subsistemas em série, aumentar o número de componentes em paralelo (mas desde que se obtenham ganhos significativos). Além das associações de componentes, não podemos es- quecer que o sistema deve seguir todos os parâmetros que descrevemos quando falamos nas distribuições de probabili- dade, ou seja, para corretamente avaliarmos a confiabilidade dos nossos sistemas, devemos conhecer e saber interpretar os tipos e comportamento dos diferentes sistemas utilizados, que tipos de valores podem assumir (discretos ou contínuos), como se comporta o nível de confiabilidade com o tempo (constante ou decrescente), e como situações repetidas se comportam ao longo do tempo (em torno de um valor, de maneira discrepante, demonstrando deterioração, etc.). Ao fim, pode-se perceber que, como quase todos os estudos e ciências, a avaliação de produtos é uma tarefa complexa, que exige dedicação e a associação de diversos e complementares conhecimentos. 97ENGENHARIA DA CONFIABILIDADE Curva da banheira A curva da banheira é uma representação bastante usual do comportamento de diversos sistemas (equipa- mentos, produtos, etc.), sendo assim, é bastante comum que sistemas apresentem, conforme já explanado, taxas de falhas decrescentes no período inicial de uso (de- correntes, usualmente, de falhas no processo produtivo ou específica de um componente agregado ao sistema), após este período, taxa de falhas constantes no período que é considerado como vida útil do componente e taxa de falhas crescentes no período que o produto já está na fase de desgaste do mesmo. 98ENGENHARIA DA CONFIABILIDADE Usualmente, os períodos de garantia dos produtos são estabelecidos dentro da fase de vida útil do produto, onde a empresa define qual o nível de confiabilidade requererá do produto dentro de um período especificado ou ainda, até quanto tempo de uso o produto demonstrará um nível de confiabili- dade em específico. Normalmente, a fase de desgaste está situada depois da vida útil do produto, ou seja, conforme projeto, o produto já está em fase onde deve estar desgastando seus subsistemas e componentes e, provavelmente, requererá a troca de algum destes para manter seu funcionamento, este período é utilizado para determinar, por exemplo, as manutenções preventivas e trocas de peças de um produto. Também de maneira usual, a Mortalidade Infantil, em produtos os quais seu uso exige níveis de confiabilidade altos por questões de segurança ou ainda por altos custos de assis- tência técnica, este período é bastante reduzido pelas empresas quando da utilização de testes finais de produção com uso de sobrecargas, do mesmo modo que, outra forma usual, é a determinação de um momento de revisão em período inferior ao usual durante a vida útil (exemplo, revisão inicial de um automóvel com 5000 km e, posteriormente, revisões periódicas a cada 10.000 km). 99ENGENHARIA DA CONFIABILIDADE SÍNTESE Neste capítulo, verificamos a aplicabilidade e a importância dos conceitos de confiabi- lidade na análise de sistemas de medição, o qual chamamos de avaliação de Repetibilidade e Reprodutibilidade e sua inf luência no resultado dos processos produtivos em termos de certeza dos seus resultados. 100ENGENHARIA DA CONFIABILIDADE EXERCÍCIOS 1. O que é um sistema com componentes em série? 2. O que é um sistema com componentes em paralelo? 3. Quais são as inf luências em termos de confiabilidade para componentes em série? 4. Quais são as inf luências em termos de confiabilidade para componentes em paralelo? 5. Em alguma situação do seu cotidiano estes conceitos seriam aplicáveis? 101ENGENHARIA DA CONFIABILIDADE PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR (ANOVA) E COM VÁRIOS FATORES Você entende o que é um experimento? Você sabe como realizar o mesmo? 102ENGENHARIA DA CONFIABILIDADE Uma maneira básica de descrever o que é um processo pode ser a compreensão de que o mesmo, através de algumas operações, junta as diferentes entradas (Inputs) e transforma em uma ou mais saídas (Outputs). As entradas podem ser as mais variadas, e o entendimento do que são entradas do processo costuma ter certa dispersão em relação às diferentes literatu- ras consultadas, mas, de maneira geral, podemos considerar matérias-primas, insumos, informações, recursos produtivos (máquinas, pessoas, dispositivos), etc. As saídas podem ser as mais diversas, mas no geral podemos entender como sendo o produto gerado pelo processo e seus subprodutos (sobras de material, ef luentes, resíduos, etc.). Outro ponto importante a considerar é que, este processo ou operação de transformação está sujeito às variações das mais distintas, isso acontece porque o mesmo está sujeito para algumas variáveis (ou também chamados fatores), sendo que algumas destas são controláveis (velocidade de uma máquina, temperatura de uma solução, força exercida, etc.) e outras po- dem ser consideradas como incontroláveis (temperatura am- biente, eventos aleatórios, picos de energia, humidade, etc.) e justamente estas variáveis, justamente no processo em questão, é que causarão certas incertezas nos Outputs do processo, e a este fenômeno se dá o nome de variabilidade. Quanto mais controle houver sobre as variáveis do processo,quanto menos variáveis do processo forem incontroláveis, quanto mais cons- ciência houver sobre como as diferentes variáveis do processo afetam as saídas do mesmo, mais certeza teremos do resultado, ou seja, mais confiável será o processo em questão. 103ENGENHARIA DA CONFIABILIDADE A fim de avaliar o efeito das variáveis em relação ao pro- cesso e suas saídas, são realizados experimentos, onde serão modificadas variáveis de alguma forma (usualmente junto às entradas do processo), verificando os seus efeitos sobre as saídas do processo, que neste momento denominaremos Variável de interesse. Sendo assim, ao realizar o experimento busca-se en- tendimento tal do processo para que seja possível, por exemplo, reduzir seu tempo operacional, reduzir custos, melhorar ren- dimento, diminuir variabilidade (aumentar a Confiabilidade). Essa avaliação, além de propiciar os benefícios citados, pode ser realizada com o intuito de comparar parâmetros de projeto e suas configurações, avaliar diferentes matérias-primas, avaliar diferentes formas de executar o processo na busca de opções de maior rentabilidade, avaliar opções de processo na busca por maiores índices de confiabilidade, etc. Execução de experimentos pelo método ANOVA Os experimentos buscarão efeitos sobre diversas variáveis, sendo que as mesmas podem ser qualitativas (por exemplo, uso de uma ferramenta ou outra, resultados de um operador ou outro, etc.) ou quantitativas (velocidade, temperatura, cor- rente, pressão, etc. Para que isso seja possível, são necessárias observações de alguns princípios básicos: a. Replicação: a realização do experimento em diferentes ré- plicas, ou seja, a realização do experimento em diferentes amostras melhorará a verificação do efeito e da manuten- ção do mesmo, ou seja, se alterada uma variável e a mesma produzir efeito em um número considerável de amostras, 104ENGENHARIA DA CONFIABILIDADE maior o grau de certeza da influência desta variável testada na Variável de Interesse. Do mesmo modo que, quanto menor a amostragem realizada, menor o grau de certeza do efeito. Em outras palavras, deve haver repetição considerável de amostras em relação a um mesmo efeito para avaliar seus resultados. b. Aleatoriedade: a aleatoriedade (ou casualização) é um efeito bastante presente na execução dos mais diversos processos, portanto, deve ser considerada na hora da realização do experimento, principalmente quando se está buscando um determinado efeito e o mesmo pode ser gerado por uma va- riável aleatória. Ou seja, saber distinguir os diferentes fatores de influência sobre o processo, de modo que a amostra reali- zada seja representativa em relação às condições normais de operação e que fatores aleatórios não sejam determinantes na condição a ser verificada no experimento, como por exemplo, a busca pela estabilidade de uma determinada característica de processo de usinagem que pode ser influenciada por fatores ambientais, tais como mudanças de temperatura ao longo da realização do experimento. Em outras palavras, amostras nas quais serão aplicadas algum experimento, devem ser aleatórias, escolhidas ao acaso, e deve-se pressupor que em qualquer uma delas o efeito do experimento seja o mesmo. c. Blocagem: é uma técnica que visa o melhor entendimento e precisão sobre os resultados, durante a realização do ex- perimento, formam-se blocos onde a variável em questão é testada, mas os testes são divididos em blocos controlados de modo a evitar outras influências sobre o efeito observado. Esta condição é bastante comum quando amostras de um mesmo experimento são realizadas por pessoas diferentes, ou ainda, em máquinas diferentes. A blocagem justamente é, o fato de criar o controle sobre estas situações, tais como separar as amostras em “blocos” (grupos) diferentes em relação aos executores ou em relação ao recurso utilizado. 105ENGENHARIA DA CONFIABILIDADE Normalmente, os experimentos são realizados de forma sequencial, de modo a criar uma ordem lógica e compreensível a fim de avaliar os reais efeitos das variáveis testadas. Usual- mente é realizado um experimento inicial, também denominado de screening experiment ou experimento de peneiramento, a fim de avaliar quais são as variáveis que inf luenciam em um resultado (ou variáveis críticas). Após o mesmo, cada uma das variáveis identificadas será avaliada quanto ao seu nível de inf luência na Variável de Interesse. Outros pontos importantes a serem observados são os experimentos, factíveis, e que busquem resultados plausíveis, ou seja, a ideia é que seja realizado o menor número de expe- rimentos a fim de demonstrar os resultados efetivos sobre o mesmo e não uma grande quantidade de experimentos que não se tenha sequer ideia do que está querendo ser avaliado, sendo assim, para realização de um experimento são necessários as seguintes etapas: a. Problema: é a determinação do que ser quer verificar com o experimento ou para qual problema se quer solução. b. Fatores e níveis: definir quais serão os fatores a serem ava- liados, seus efeitos em relação às amostras estudadas e ainda quantos níveis de avaliação serão definidos. c. Variável resposta: definição de qual variável deverá ser avalia- da na amostra, de modo a demonstrar os efeitos dos fatores em questão. d. Delineamento: definição de qual estratégia será utilizada para realização do experimento, ou seja, quantas amostras e em quais condições estarão, qual a necessidade de realização de blocos ou não para sua avaliação, etc. e. Execução: consiste no acompanhamento do experimento, avaliando e registrando qualquer informação relevante para o mesmo, ou seja, é a própria realização do experimento, 106ENGENHARIA DA CONFIABILIDADE garantindo as condições planejadas e o registro dos acon- tecimentos. f. Análise: realização da análise dos resultados do experimento e o grau de certeza das respostas. g. Conclusão: divulgação do resultado do experimento após análise, ou seja, verificar se o experimento cumpriu seu obje- tivo, qual resultado alcançado, definição de alguma restrição ou condicionante, etc. O teste de experimentos normalmente é executado pelo método ANOVA, que vem da sigla em inglês de Analisys of Variance (Análise de Variância), portanto, além das etapas anteriormente descritas, alguns pressupostos que devem ser entendidos ou definidos para a realização do teste: a. Os efeitos principais devem ser aditivos: os efeitos resultantes do teste devem ser somados, ou seja, devem ser associados uns aos outros, através da seguinte equação: Nesta equação: yij = resultante do teste (observação do i-ésimo tratamento j-ésima amostra) μ = média geral dos tratamentos (efeito constante) τi = efeito do i-ésimo tratamento εij = erro aleatório do i-ésimo tratamento j-ésima amostra OBS: de acordo com a complexidade do experimento, é importante dividir o mesmo em etapas sistemáticas, pois verificar a interação de várias situações com nível de certeza admissível é bastante complicado, portanto, quanto menor o número de hipóteses a serem testadas e fatores a serem avaliados, maior o grau de certeza do resultado. 107ENGENHARIA DA CONFIABILIDADE b. Erros de observações devem ser independentes e normal- mente distribuídos: cada efeito possui um erro associado que deve ser independente dos demais, além disso, devem ser oriundos da mesma população, a fim de que sejam con- siderados e distribuídos de maneira normal. c. Homocedasticidade: como as amostras testadas são de uma mesma população, espera-se que a variância entre as amostras seja a mesma. d. Hipótese Ho: hipótese que determina ausência do efeito que está sendo procurado ou que as diferenças entre os efeitos dos diferentes testes (tratamentos) sejam insignificantes, também chamada de hipótese da nulidade, sendo que a mesma pode ser rejeitada (não considerada). e. Hipótese Ha: origina que existe um cuidado determinado em relação aos diferentes testes realizados. f.Nível de significância: probabilidade de que o fato de ter sido rejeitada a hipótese Ho e a mesma ser verdadeira (não desprezível). Usualmente, este nível de significância é atri- buído entre 1 e 5%, sendo que, quanto menor o valor, mais confiável o resultado. Usualmente, os resultados de experimentos são tabelados para fins de serem utilizadas ferramentas computacionais para sua solução: Repetições Tratamento 1 2 3 j Soma Média 1 y11 y12 y13 y1j T1 y1 2 y21 y22 y23 y2j T2 y₂ 3 y31 y32 y33 y3j T3 y₃ i yi1 yi2 yi3 yij T4 yi Total: y y₁ 108ENGENHARIA DA CONFIABILIDADE Os dados, colocados em uma fer- ramenta estatística, como o Excel, por exemplo, nos devolvem valores tais como: a. Soma de quadrados: denota a variação total dos resultados, sendo que a mesma pode ser geral (variação total dos dados utilizados), variação entre grupos (va- riação total entre os diferentes níveis i) e variação dos resíduos (variação total entre as repetições j). b. Valor P: conhecido como valor de prova, define se podemos ou não aceitar os valores indicados no teste, ou seja, faz-se uma comparação deste valor com o nível de significância almejado. Se o Valor P for menor que o nível de significância, significa que o teste é inaceitável. c. F-Crítico e F: o valor F-Crítico nos define os valores de rejeição, ou seja, qualquer valor na amostra superior a F-Crítico está rejeitado. Do mesmo modo, quando comparamos os valores de F obtidos com os valores de F-Críti- co, podemos verificar o nível de igualda- de entre os diferentes testes realizados. Se F for muito maior que F-crítico, isso denota que não existe igualdade, ou seja, existem mais fatores influenciando a amostra que não somente os testados. No Excel, o teste de ANOVA é muito simples, mas para isso é necessário ativar o Suplemento de Análise de Dados. Após ativado, na guia dados existirá um ícone de análise de dados, que possibilitará uma série de análises, incluindo ANOVA. Exemplo: tomando como base os dados utilizados para cálculo do Cpk anterior- mente dispostos, utilizamos os 5 valores de cada uma das 25 coletas de peças (total de 125 peças). A hipótese que queremos verificar é se existe variação entre as amos- tras, colocando um fator de Significância de 5%. Neste caso, utilizaremos a análise de ANOVA com fator único. 109ENGENHARIA DA CONFIABILIDADE Como resultado, teremos o seguinte: Entre os grupos, temos uma variação total média de 0,045187 e, entre as diferentes amostras da coleta de 0,033576, estabele- cendo um valor-P de 0,155632, que é maior que 0,01 (1%) que foi estipulado, ou seja, os dados apresentados são válidos para o nosso propósito. Do mesmo modo, a comparação de F com F crítico demonstra um valor de 1,345787 contra 1,982556, ou seja, bastante próximos, definindo que nossa amostragem tem valores muito próximos entre as mesmas. Para o caso de teste com 2 fatores, a ideia é verificar a inf luência de duas variáveis no sistema, como por exemplo, ANOVA Fonte da variação SQ gl MQ F valor-P F crítico Entre grupos 1,08448 24 0,045187 1,345787 0,155632 1,982556 Dentro dos grupos 3,35764 100 0,033576 Total 4,44212 124 velocidade de avanço e temperatura ambiente em relação a uma determinada medida. O procedimento na ferramenta computacional é o mesmo, modifica-se somente o uso de dois fatores ao invés de um. Em termos de confiabilidade, o grande uso de experimen- tos está no fato de realizarmos modificações nos processos e, com estes resultados dos diferentes testes podermos comparar se tais resultados, com base nos seus efeitos, mantém o padrão de comportamento do processo até então. Ou seja, a partir de um processo estável (isso é bem importante para garantir boa comparação nos resultados), podemos partir para alguma modificação do mesmo para fins de, por exemplo, redução de custo, ganho de produtividade, troca de maquinário, etc. A utilização de experimentos, neste caso, visa a comparar os re- sultados dos processos modificados com os realizados e estáveis, de forma que conseguimos, de maneira rápida, averiguar se os resultados atingidos mantém os mesmos níveis de performance do processo existente. 110ENGENHARIA DA CONFIABILIDADE SÍNTESE Neste capítulo, verificamos os procedimentos para a realização de experimentos e como calcular o nível de confiança que temos dos seus resultados em relação à significância necessária para os processos; e as hipóteses que foram definidas utilizando a técnica de análise de variância ANOVA. 111ENGENHARIA DA CONFIABILIDADE EXERCÍCIOS 1. O que é um experimento em termos estatísticos? 2. Quais são os princípios básicos para realização de um experimento? 3. Quais são as etapas usuais para a realização de um experimento? 4. O que é nível de significância e qual a inf luência do mesmo para os resultados de um experimento? 5. Qual o uso básico de experimentos em termos de confiabilidade? 112ENGENHARIA DA CONFIABILIDADE ACELERAÇÃO DE VIDA ÚTIL DE COMPONENTES Como se faz para determinar a vida útil de um componente? É possível fazer isso mais rápido? 113ENGENHARIA DA CONFIABILIDADE Não são incomuns produtos que são utilizados por longos períodos como 10, 15 ou 20 anos. Inclusive, para alguns pro- dutos isso é bastante esperado. Na verdade, é um requisito de mercado, ou seja, é bem normal encontrar máquinas, automó- veis, aeronaves, ferramentas, eletrodomésticos que são utilizados por um longo período. O que dizer de produtos resultantes de obras civis, tais como prédios, pontes, pavilhões, que são utili- zados normalmente durante cerca de 30 ou 40 anos e, além de estruturas físicas, ainda contam com subsistemas hidráulicos, elétricos, mecânicos, tais como rede de esgoto, eletricidade, portas e aberturas que são utilizadas frequentemente. Outro caso são os produtos de informática que, apesar de não terem vida útil esperada tão longa, o teste dos mesmos em condições normais de uso seria suficientemente longo para tornar inviável o lançamento de um produto visto que a tecnologia já haveria mudado e o produto estaria praticamente obsoleto. Apesar de terem este tempo de vida esperado, ou seja, de serem relativamente duráveis nestes períodos, é usual pensar que algum tipo de intervenção, manutenção, revisão ou troca de algum subcomponente acontecerá neste meio tempo, mas o produto como um todo acabará perdurando e, após um certo tempo de operação, essa necessidade de intervenção não é vista como algo ruim, inclusive é compreendido pelo mercado em geral como um fato usual para manter o produto como um todo ativo durante um período maior de tempo. Nestes casos, é bem plausível de se pensar que os produtos, seus componentes e subcomponentes não acabam, após terem sido projetados e montados sob forma de protótipos ou lotes de validação, lotes pilotos, etc., tendo que ser testados por um tempo igual ao de sua vida útil para fins de determinação do quanto devem durar em um uso normal. Isso seria totalmente impraticável. Para isso, a atitude mais usual é a de recorrer a testes que busquem acelerar a vida destes produtos através de algum tipo de stress e, com isso, conseguir determinar se atenderão um 114ENGENHARIA DA CONFIABILIDADE requisito específico de durabilidade ou ainda, verificar o quanto efetivamente perdurarão para que se possa transformar esta informação em um período de garantia ou algo similar, ainda mais se tais produtos são constituídos de modo a se esperar altos níveis de confiabilidade por longos períodos de tempo (o que tornaria mais moroso ainda o processo de acompanhamento da vida útil do produto pelo seu uso normal). O primeiro e primordial passo para realização destes testes é conhecer qual o mecanismo causador da falha do produto (por exemplo, carregamento mecânico, carga elétrica, etc.) e, den- tro da medida do possível, como este mecanismo se comporta em condições ambientais diversas, como por exemplo, é bem diferente dizer que sob qualquer carga,independentemente dos aspectos ambientais, o produto se comporta de maneira constante ou ainda, se a carga for mais alta e a temperatura elevar-se. O nível de stress do produto aumenta consideravel- mente. Para tanto, faz-se necessário muito conhecimento do comportamento de componentes ou ainda de testes preliminares que apontem algumas destas relações. Inicialmente, vamos tratar do binômio tempo até falha e desempenho do produto. Em relação ao tempo até a falha, já discorremos sobre o assunto, mas é importante salientar que estes valores (MTTF, no caso) podem ser completos ou censu- rados. Dados completos definem os tempos até falha de todas as amostras ensaiadas, enquanto dados censurados definem que 115ENGENHARIA DA CONFIABILIDADE tantas amostras atingiram determinados valores de tempo e um outro tanto de amostras durou até um valor tal, onde pararam os testes por inviabilidade técnica, econômica, tempo, etc. Os testes de aceleração são realizados em função de nú- mero de ciclos de uso ou aumento de carga de trabalho. No caso do número de ciclos ou, do também chamado, aumento da taxa de uso, os produtos são testados em unidades que di- minuam seu tempo até a falha, ou seja, para um pneu pode-se aumentar a velocidade média de uso e verificar seu nível de desgaste ou, por exemplo, em um equipamento elétrico, como um liquidificador, que tem uso intermitente médio esperado de alguns minutos por dia, ser usado de maneira contínua por dias sem parar. No caso de testes realizados por aumento de carga, ou também denominados aumento de stress de trabalho (overs- tress), são os mais utilizados para definir vida útil do produto. Neste modelo, os produtos são testados com cargas mais altas do que as definidas para uso normal em projeto, sendo que é necessário compreender qual tipo de carga está relacionada à vida útil do produto (carga elétrica, carregamento mecânico, nível de temperatura, etc.). 116ENGENHARIA DA CONFIABILIDADE Diversas são as formas de aplicar o stress a amostra, o que determinará a escolha de cada uma destas formas é o tempo que se tem para realizar o estudo, nível de precisão requerida e o tipo de falha que se almeja causar no componente em questão. a. Stress constante: é caracterizado pela aplicação de um nível de stress em um conjunto de amostras, um segundo nível de stress em um outro conjunto de amostras, um terceiro nível de stress em/ou terceiro grupo de amostras e assim por diante. Este tipo de verificação tem como vantagens, o fato de poder testar diferentes amostras em diferentes níveis de stress de maneira simultânea (cada grupo com seu nível), outra vantagem é a facilidade de aplicação do stress, visto que é sempre constante. Sendo uma maneira bastante comum de realizar testes, existe uma alta probabilidade de que serão encontrados modelos semelhantes ou análogos para realização de comparações, no entanto, exige a demanda de um grande número de amostras. 117ENGENHARIA DA CONFIABILIDADE b. Stress crescente: também conhecido como stress escada/step stress, onde os objetos são submetidos a um nível de stress du- rante um tempo, depois a um outro nível de stress maior durante mais um período de tempo, depois a um terceiro nível de stress durante mais um período de tempo e assim por diante, utilizan- do sempre os mesmos objetos submetidos a uma sequência de stress crescentes até a falha. Neste modelo, as falhas costumam aparecer mais rapidamente, já que o nível de stress subirá para cada uma das amostras, o que acaba resultando em um tempo de teste menor do que o modelo anterior. O que tem que ser levado em conta é que, como o nível de stress é cumulativo, o modelo matemático para descrever este comportamento deve prever este tipo de situação, sendo assim, são modelos mais complexos e, portanto, pouco preferidos para uso. 118ENGENHARIA DA CONFIABILIDADE c. Stress progressivo: semelhante o stress crescente, mas o nível de stress é continuamente aumentado (continuamente crescente), o que pode ser feito linear ou não-linearmente (exponencial, por exemplo), sendo que possuem os mesmos efeitos de velocidade de teste e complexidade de modelagem que o stress crescente. d. Stress cíclico: neste modelo, as amostras são submetidas a um determinado stress por um tempo (normalmente uma carga maior do que a prevista em projeto) de maneira intermitente, carregando e descarregando a amostra seguidamente a intervalos de tempo determinados (intervalos menores do que seu uso norma), de maneira a demonstrar seu comportamento normal, mas de forma muito acelerada, desde que seja o uso pretendido do produto, o que é uma vantagem, mas em compensação, os modelos matemáticos utilizados para demonstrar este compor- tamento não conseguem ser validados de forma prática. 119ENGENHARIA DA CONFIABILIDADE De maneira usual, busca-se delinear modelos que procu- ram descrever o comportamento do componente ou sistema em questão, relacionando o nível de stress aplicado e o fator de aceleração, ou seja, em relação a um determinado nível de stress aplicado, qual a redução no tempo até a falha. Estes modelos podem ser lineares, descritos por regressões lineares simples, ou não lineares, descritos por modelos matemáticos diferenciados: a. Modelo de Arrhenius: normalmente utilizado para descre- ver componentes eletrônicos, onde relaciona o tempo entre falhas com a temperatura de operação do componente (usu- almente provocada pelo aumento de voltagem), verificada pelas seguintes equações: Nesta equação: Lo = MTTF na temperatura normal de operação Ls = MTTF na temperatura de stress acelerado Ea = Energia de Ativação (efeito da aceleração da tempe- ratura sobre a velocidade da reação, em eV/K) k = constante de Boltzmann (8,623x10-⁵ eV/K) To = Temperatura normal de operação (K) Ts = Temperatura de stress acelerado (K) Ar = Aceleração térmica 120ENGENHARIA DA CONFIABILIDADE Exemplo: o teste de um componente à temperatura de 180°C demonstrou um MTTF de 2.500h, sendo Ea do componente igual a 0,197 eV/K, qual a vida esperada e o fator de aceleração térmica para o mesmo em um a temperatura de 30°C? Substituindo os valores nas equações (57) e (58), obtemos: b) Modelo de Weibull: este modelo segue a distribuição de Weibull, que foi tratada anteriormente, tendo sua função de falha F(t) dada pela equação (10), onde β é o fator de forma da distribuição acelerada e o fator de escala η é linearmente crescente em virtude do fator de aceleração da vida útil do componente. É um modelo bastante utilizado na prática, para descrever comportamento de componentes mecânicos e cos- tuma necessitar da utilização de softwares para cálculo com base em iterações de fatores. Neste caso, podemos verificar as seguintes equações: Nesta equação: ηo = fator de escala na condição normal de utilização ηs = fator de escala na condição de stress acelerado Ar = fator de aceleração β = fator de forma da distribuição Γ = função Gama (integral indefinida tabelada) MTTFo = Tempo médio até a falha na condição normal de utilização 121ENGENHARIA DA CONFIABILIDADE Um exemplo de curva de aceleração de vida pode ser visto no modelo a seguir, visto em Mohammadzadeh, Ahadi e Nouri (2014) onde, para vários níveis de Stress, um componente de suspensão de trem é avaliado quanto a sua confiabilidade no tempo: 122ENGENHARIA DA CONFIABILIDADE SÍNTESE Neste capítulo, verificamos os conceitos e procedimentos para a realização de testes ace- lerados de vida de componentes e sistemas, que é uma metodologia bastante utilizada para avaliação da vida útil dos mesmos, de forma a não demorar o tempo real para averiguação da adequação do produto às necessidades do mercado. 123ENGENHARIA DA CONFIABILIDADE EXERCÍCIOS 1. O que é um teste de vida acelerado? 2. Quais métodos de aceleração podemos empreender nos diferentes produtos a fim de verificar sua vida útil? 3. Quais são as vantagens da realização de testes de vida acelerados? 4. O quesão fatores de aceleração? 5. Qual a inf luência que a realização de testes acelerados pode acarretar em termos de confiabilidade? 124ENGENHARIA DA CONFIABILIDADE ENGENHARIA DA CONFIABILIDADE Como organizar as diversas metodologias vistas? Quais as ferramentas de apoio? 125ENGENHARIA DA CONFIABILIDADE Verificamos vários conceitos referentes à Confiabilidade e suas diversas aplicações, que são bastante vastas e visam ga- rantir produtos e processos em relação a falhas, aumentando a probabilidade de que estes desempenharão corretamente seu papel ao longo do tempo para o qual foram desenvolvidos. Sendo assim, a Engenharia da Confiabilidade é, de ma- neira bem geral, aplicação destes conceitos nos processos que se fizerem necessários, seja no desenvolvimento de produtos, desenvolvimento de processos, de sistemas de medição, etc. Uma outra aplicação bastante difundida de Engenharia da Confiabilidade, é na área de Manutenção Industrial onde, como há de se imaginar, busca-se tratar os equipamentos e instalações de modo que não produzam falhas, ou seja, que no momento necessário do seu uso, os mesmos estejam em pleno funcionamento. O fato dos equipamentos estarem funcionando, quando se necessita dos mesmos, é chamado de Disponibilidade, sendo esta a medida de confiabilidade dos equipamentos de um processo qualquer e que determina a probabilidade des- tes equipamentos estarem funcionando. Entendendo que os equipamentos são recuperáveis, é bastante compreensível que, ao longo do tempo, os mesmos deverão apresentar uma série de falhas que, como já comentamos, podem ser resolvidas e, portanto, o equipamento ter seu estado operante recuperado. De modo a não focar nas questões de manutenção, que são objetos de estudos de outras disciplinas, mas com o intuito de demonstrar a aplicação da confiabilidade na mesma, podemos entender que os equipamentos são nossos sistemas e os mesmos estão sujeitos a falhas e são considerados renováveis. Deste modo, os períodos entendidos entre as falhas do equipamento, 126ENGENHARIA DA CONFIABILIDADE ou seja, os períodos onde o equipamento está funcionando, pode ser considerado de maneira muito correta como o MTBF do equipamento, ou seja, a média destes tempos será o tempo médio entre falhas do equipamento. Analogamente, desde o momento de sua parada (falha) até o momento que o equipamento, após recuperado, volta a funcionar, podemos considerar como o MTTR, ou seja, a média destes tempos será o tempo médio de recuperação do equipamento. Graficamente, podemos entender da seguinte maneira: Observando a figura acima e determinando os períodos de tempo onde o equipamento está funcionando, estão deter- minados pela letra X (X1 e X2) e os períodos de tempo que o equipamento está em fase de recuperação (estado de falha, parado) são determinados pela letra R (R1 e R2), logo, o MTBF será dado pela média dos valores de X e o MTTR será dado pela média dos valores de R, sejam ambos quantos forem, de acordo com o histórico da empresa. A disponibilidade do equipamento pode ser definida pela seguinte equação: Nesta equação: MTBF = tempo médio entre falhas do equipamento MTTR = tempo médio de recuperação do equipamento A = nível de disponibilidade do equipamento Analisando a equação acima, podemos entender que exis- tem duas possibilidades de melhorar a disponibilidade de um equipamento, uma delas é aumentar o tempo médio entre falhas (MTBF) e outra é diminuir o tempo médio de recuperação 127ENGENHARIA DA CONFIABILIDADE (MTTR), sendo que, em equipamentos onde o MTTR é con- siderado desprezível em relação ao MTBF, pode-se considerar a disponibilidade como 100%, pois são rapidamente reparados. As técnicas de aumento de MTBF acabam passando por sis- temáticas de manutenção preventiva e preditiva. FMEA Além das avaliações de MTBF e MTTR, outra importante ferramenta de Engenharia de Confiabilidade é o FME, sigla em inglês para Failure Mode and Effect Analysis ou Análise do Modo e Efeito de Falha, que também é objeto de tratamento em manual publicado pelo IATF, que está na sua 4ª edição, desde 2011. Neste manual, são tratados os detalhes e interpretações dos diversos detalhes que compõem a metodologia, considerada como uma das mais importantes ferramentas preventivas e de confiabilidade de Projeto e Processos (DFMEA e PFMEA). Uma outra abordagem de FMEA tem ganhado bastante desta- que no que tange, principalmente, confiabilidade de maquinário com o lançamento de um manual do IATF específico para tratar do assunto, denominado como MFMEA, sigla em inglês para Machinery Failure Mode and Effects Analysis ou Análise do Modo e Efeito de Falha de Maquinário, que atualmente está em sua 2ª edição desde 2012. Qualquer um dos tipos de FMEA acaba se baseando, de maneira geral, na compreensão do que é falha para o objeto que está sendo tratado, qual a severidade do efeito desta falha, como a mesma ocorre e em que frequência e de que maneira e facilidade a mesma pode ser verificada. A intenção neste estudo não é tratar os detalhes do funcionamento do FMEA, mas atentar para o que se considera mais importante, que não OBS: é interessante pensar que sistemas muito complexos, tais como uma aeronave de certo porte, podem ser pensados a nível de sistema e “mantidas” com base nos estudos de confiabilidade, quando se compreende que sua confiabilidade é resultado da capacidade de manter o item disponível para uso sem falhas. 128ENGENHARIA DA CONFIABILIDADE ocorram falhas, principalmente as julgadas como severas. Esta severidade é considerada de acordo com a seguinte tabela: Efeito Critérios: Severidade do efeito no produto (efeito no Cliente) Classificação Falha em atender a requisitos de segu- rança e/ou regulatórios Modo de falha potencial afeta a operação segura do veículo e/ou envolve não- conformidade com regulamentação governamental, sem prévio aviso. 10 Modo de falha potencial afeta a operação segura do veículo e/ou envolve não- -conformidades com regulamentação governamental, com aviso prévio. 9 Perda ou degra- dação de função primária Perda de função primária (veículo inoperável, não afeta a operação segura do veículo). 8 Degradação de função primária (veículo operável, mas com um nível reduzido de desempenho). 7 Perda ou degra- dação de função secundária Perda de função secundária (veículo operável, mas as funções de conforto/conve- niência estão inoperáveis). 6 Degradação de função secundária (veículo operável, mas as funções de conforto/ conveniência apresentam um nível reduzido de desempenho). 5 Incômodo Aparência ou ruído audível, (veículo operável, item não conforme e percebido pela maioria dos clientes (>75%). 4 Aparência ou ruido audível, veículo operável, item não conforme e percebido por muitos clientes (>55%). 3 Aparência ou ruido audível, veículo operável, item não conforme e percebido por clientes observadores (<25%) 2 Nenhum efeito Nenhum efeito perceptível. 1 As demais avaliações relativas à ocorrência e detecção têm detalhes específicos quando se trata de Proje- to, Processo ou Equipamento, onde abordam da probabilidade destas falhas ocorrerem e da probabilidade da mesma ser detectada. Lembrando que estas probabilidades são basea- das em históricos e conhecimento do assunto por parte dos participantes, ou seja, são valores estimados, pois não se tem a certeza da ocorrência destas situações, mesmo porque, há de se entender que o FMEA é uma ferramenta PREVENTIVA, ou seja, seu uso acontece antes de definir o projeto do produto, seu processo produtivo ou, especificamente, o maquinário utilizado na operação. 129ENGENHARIA DA CONFIABILIDADE FTA Outra ferramenta de avaliação da confiabilidade utilizada, principalmente, na definição de sistemas de segurança, é o FTA, sigla em inglês para Failure (ou Fault) Tree Analysis ou Análise de Árvore de Falha. Esta sistemática visa, principal- mente, estabelecer lógicas de causa e efeito entre os eventos deum sistema (falhas, na sua maioria) e muitas vezes tal análise serve de alimentação para a realização do próprio FMEA. A principal ideia do FTA é a sistematização do raciocínio atrelado nas definições de projeto, a qual tem usos comprovados na definição dos sistemas de segurança de usinas termonucleares e também em sistemas de segurança de estações complexas, podendo ser utilizada de uma série de formas, desde que se entenda qual o evento final desejado para análise, procurando entender qual o mecanismo que causa seu acontecimento e as inter-relações entre as diversas instâncias do mesmo, conforme segue: A metodologia prevê, de forma gráfica, a representação da lógica do sistema, utilizando a seguinte simbologia: 130ENGENHARIA DA CONFIABILIDADE Além destes elementos, temos os operadores lógicos, que podem ser entendidos exatamente como a análise probabilís- tica do acontecimento de um evento, conforme aprendemos anteriormente: Existem outras dissidências e associações da simbologia aqui representada, que não serão objeto do nosso apontamento. Abaixo, um exemplo de um sistema lógico, simples, e definido conforme a metodologia do FTA. No diagrama acima, podemos entender que, para ocor- rerem danos em uma determinada central de controle devido a um incêndio (evento principal), ou (operador lógico) deve acontecer um incêndio no subsolo (evento) ou deve acontecer a associação (operador lógico) de um incêndio no primeiro piso (evento) e ainda, o fato dos bombeiros demorarem a atender o caso (evento que não se tem controle). Desta forma, é necessário pensar e prevenir, para o primeiro caso, o incêndio do subsolo ou, no segundo caso, garantir que uma das duas condições não ocorram, sendo que em relação a uma das mesmas não se tem gerência, pois existe dependência de fatores que não são controlados pelo processo em questão. 131ENGENHARIA DA CONFIABILIDADE SÍNTESE Neste capítulo, verificamos como funciona a organização entre as diversas metodologias para confiabilidade nos processos e produtos, bem como, verificamos a existência de outras ferramentas aplicáveis quando da definição de produtos (projetos) e processos com base em compreender e aplicar os corretos meios para busca de confiabilidade nos mesmos. 132ENGENHARIA DA CONFIABILIDADE EXERCÍCIOS 1. Qual a função da Engenharia de Confiabilidade? 2. Quais métodos de avaliação de processos e sistemas podemos utilizar em relação ao projeto dos mesmos? 3. O que significa a severidade de uma falha? 4. Como são entendidas as redundâncias em termos de FTA? 5. Qual a aplicabilidade destes conceitos no seu meio profissional? 133ENGENHARIA DA CONFIABILIDADE Lista de siglas Como utilizamos várias siglas que se repetem ao longo do ebook, para não haver a necessidade de todo o momento ficar procurando as mesmas ao longo do texto, criamos esta lista para facilitar sua consulta. ALT - Accelerated Life Test (Ensaios de Vida Acelerados) AIAG – Automotive Industry Action Group (Grupo de Ação da Indústria Automotiva) IATF – International Automotive Task Force (Força Tarefa Automotiva Internacional) HALT - Highly Accelerated Life Test (Ensaios de Vida Acelerados) MSA – Measurement System Analisys (Análise do Sistema de Medição) PoF – Physics of Failure (Física das Falhas) TTF – Time to Fail (Tempo até a Falha) 134ENGENHARIA DA CONFIABILIDADE TABELAS Tabela de Distribuição Normal Padronizada 135ENGENHARIA DA CONFIABILIDADE Tabela para fatores construtivos de gráficos de variáveis 136ENGENHARIA DA CONFIABILIDADE REFERÊNCIAS AUTOMOTIVE INDUSTRY ACTION GROUP. ANÁLISE DO SISTEMA DE MEDIÇÃO - MSA: Ma- nual de Referência. 4 ed. São Paulo: Iqa, 2010 AUTOMOTIVE INDUSTRY ACTION GROUP. CONTROLE ESTATÍSTICO DO PROCESSO - CEP: Manual de Referência. 2 ed. São Paulo: Iqa, 2005 AZARKHAIL, Mohammadreza; MODARRES, Mohammad. The Evolution and History of Reliability Engi- neering: Rise of Mechanistic Reliability Modeling. Interna- tional Journal Of Performability Engineering, Maryland, v. 9, n. 1, p.1-13, jan. 2012. FOGLIATTO, Flávio Sanson; RIBEIRO, José L. D. Confiabilidade e Manutenção Industrial. Rio de Janeiro: El- sevier, 2009. MOHAMMADZADEHL, Saeed; AHADI, Sodayf; NOURI, Mehrdad. Stress-based fatigue reliability analysis ofthe rail fastening spring clipunder traffic loads. Latin Ame- rican Journal of Solids and Structures, V. 11. , nov. 2014. PIAZZA, Gilberto. Introdução à Engenharia da Confia- bilidade. Caxias do Sul: EDUCS, 2000. SLACK, Nigel; CHAMBERS, Stuart; JOHNSTON, Robert. Administração da Produção. 3. ed. São Paulo: Atlas, 2009. WALPOLE, Ronald E.; et al. Probabilidade e Estatística para Engenharia e Ciências. 8. ed. São Paulo: Pearson Prentice Hall, 2009 O que é confiabilidade? História Conceitos Elementos de estatística associados Variáveis discretas X Variáveis contínuas Densidade População e amostra Regras e funções específicas Distribuições de probabilidade Cálculo da confiabilidade Medidas de confiabilidade Itens reparáveis e não reparáveis Análise da capacidade de processos Cálculo da capabilidade Probabilidade de falhas Confiabilidade de verificação por atributos Confiabilidade de sistemas de medição Análise de discriminação Repetibilidade e reprodutibilidade Repetibilidade e reprodutibilidade por atributo Confiabilidade de componentes e sistemas Sistemas em Série Sistemas em Paralelo Sistemas série-paralelo e mistos Confiabilidade geral de sistemas Curva da banheira Planejamento de experimentos com um único fator (ANOVA) e com vários fatores Execução de experimentos pelo método ANOVA Aceleração de vida útil de componentes Engenharia da Confiabilidade FMEA FTA Lista de siglas TABELAS