Logo Passei Direto
Buscar
Material
left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

left-side-bubbles-backgroundright-side-bubbles-background

Experimente o Premium!star struck emoji

Acesse conteúdos dessa e de diversas outras disciplinas.

Libere conteúdos
sem pagar

Ajude estudantes e ganhe conteúdos liberados!

Prévia do material em texto

ENGENHARIA DA CONFIABILIDADE
ANDRÉ LUNARDI STEINER
2ENGENHARIA DA CONFIABILIDADE
SUMÁRIO Esta é uma obra coletiva organizada por iniciativa e direção do CENTRO SUPERIOR 
DE TECNOLOGIA TECBRASIL LTDA – 
Faculdades Ftec que, na forma do art. 5º, 
VIII, h, da Lei nº 9.610/98, a publica sob sua 
marca e detém os direitos de exploração 
comercial e todos os demais previstos em 
contrato. É proibida a reprodução parcial 
ou integral sem autorização expressa e 
escrita.
CENTRO UNIVERSITÁRIO UNIFTEC
Rua Gustavo Ramos Sehbe n.º 107. 
Caxias do Sul/ RS 
REITOR
Claudino José Meneguzzi Júnior
PRÓ-REITORA ACADÊMICA
Débora Frizzo
PRÓ-REITOR ADMINISTRATIVO
Altair Ruzzarin
DIRETORA DE EDUCAÇÃO A DISTÂNCIA (EAD)
Rafael Giovanella
Desenvolvido pela equipe de Criações para o 
ensino a distância (CREAD)
Coordenadora e Designer Instrucional 
Sabrina Maciel
Diagramação, Ilustração e Alteração de Imagem
Julia Oliveira 
Revisora
Luana dos Reis
O QUE É CONFIABILIDADE? 3
História 5
Conceitos 13
ELEMENTOS DE ESTATÍSTICA ASSOCIADOS 20
Variáveis discretas X Variáveis contínuas 21
Densidade 23
População e amostra 24
Regras e funções específicas 27
Distribuições de probabilidade 31
Cálculo da confiabilidade 40
Medidas de confiabilidade 42
Itens reparáveis e não reparáveis 47
ANÁLISE DA CAPACIDADE DE PROCESSOS 53
Cálculo da capabilidade 58
Probabilidade de falhas 62
Confiabilidade de verificação por atributos 62
CONFIABILIDADE DE SISTEMAS DE MEDIÇÃO 67
Análise de discriminação 70
Repetibilidade e reprodutibilidade 70
Repetibilidade e reprodutibilidade por atributo 81
CONFIABILIDADE DE COMPONENTES E SISTEMAS 86
Sistemas em Série 88
Sistemas em Paralelo 91
Sistemas série-paralelo e mistos 93
Confiabilidade geral de sistemas 95
Curva da banheira 97
PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR 
(ANOVA) E COM VÁRIOS FATORES 101
Execução de experimentos pelo método ANOVA 103
ACELERAÇÃO DE VIDA ÚTIL DE COMPONENTES 112
ENGENHARIA DA CONFIABILIDADE 124
FMEA 127
FTA 129
Lista de siglas 133
TABELAS 134
3ENGENHARIA DA CONFIABILIDADE
O QUE É 
CONFIABILIDADE?
Você entende o conceito de confiabilidade? 
Você sabe para o que serve?
4ENGENHARIA DA CONFIABILIDADE
A ideia de confiabilidade é extremamente presente no nosso 
cotidiano, a mesma está associada, praticamente a qualquer 
produto, objeto, dispositivo, máquina e bem que possuímos ou 
com o qual interagimos, a questão é que, ou este conceito não 
é compreendido na sua totalidade ou está sendo interpretado 
de forma equivocada, fato é que, para o usuário de algum des-
tes itens que foram mencionados, a confiabilidade é algo tão 
intrínseco na ideia de possuir um item que o próprio conceito 
passa desapercebido, o que fica notório são as aplicações e 
efeitos deste conceito. 
Por outro lado, para o Engenheiro compreender na ínte-
gra, o conceito de confiabilidade está ligado a, praticamente, 
o real entendimento de boa parte da sua atuação profissional 
na íntegra. Posto isso, podemos entender que o engenheiro 
deve, efetivamente, conhecer a aplicabilidade do conceito de 
confiabilidade, suas nuances e suas aplicações no contexto 
da execução da sua profissão. As aplicações do conceito são 
imensas, no entanto, nota-se que passam desapercebidas em 
muitos âmbitos profissionais, ou ainda, não são efetivamente 
compreendidas por boa parte dos profissionais que, talvez de 
maneira omissa, por não compreender efetivamente este con-
ceito, não compreende que o mesmo pode inf luenciar no fato 
de um produto atender um determinado mercado ou não, de 
um processo ser competitivo ou não, de um resultado de um 
processo poder ser entregue ou não, de se ter certeza de uma 
informação ou não, e assim por diante.
 
Ficou curioso? Já imaginou alguma situação e 
quer compreender o que isso tudo quer dizer pra 
ver se o conceito é aplicável ou não na mesma? 
Vamos desmistificar o conceito e compreender suas 
aplicabilidades neste ebook.
5ENGENHARIA DA CONFIABILIDADE
História
Exatamente, como boa parte 
dos conceitos ligados à Engenha-
ria, o conceito de confiabilidade 
acabou surgindo, e por consequ-
ência, ganhou destaque, em vir-
tude da necessidade de criar algo. 
Neste caso, a história nos conta 
que a efetiva “criação” deste algo já 
havia acontecido, no entanto, em 
virtude da sua aplicação, ou ainda, 
das consequências desta aplicação, 
foi necessário o estudo de certos 
fenômenos e a compreensão do 
comportamento dos mesmos para 
que a criação tomasse as propor-
ções ao qual representa para nossa 
vida “moderna”.
A história da confiabilidade, 
assim como a conhecemos, não é 
tão longeva quanto outros tantos 
conceitos matemáticos e físicos 
com os quais nos deparamos no 
âmbito da profissão da Engenha-
ria e, por assim dizer, também 
não saiu do nada ou foi descoberta 
de uma hora para outra, mas foi 
sendo desenvolvida em tono da 
necessidade, portanto, a literatura 
acaba divergindo de certo modo 
em questões de datas, mas o que 
temos são fatos e momentos que 
levaram ao que conhecemos pelo 
conceito de Confiabilidade nos 
dias de hoje, o que nos leva a crer 
que este mesmo conceito ainda 
está evoluindo, visto as diferentes 
6ENGENHARIA DA CONFIABILIDADE
aplicações de equipamentos, ou o uso pretendido dos mesmos, 
ou a severidade do ambiente à que são impostos, enfim, come-
ça-se a perceber que Confiabilidade não é algo estanque, ou 
seja, temos ou não confiabilidade em um produto, por assim 
dizer. Confiabilidade é algo que pode ser afirmado por um 
produto, sob determinadas condições em relação a um deter-
minado tempo de uso.
Sendo assim, independentemente deste conceito ter sido 
criado em uma data ou outra, de ser mais moderno ou mais 
antigo, de ter sido utilizado primeiramente por uma pessoa ou 
outra, o que nos interessa neste momento é compreender sua 
aplicação no ambiente que nós nos encontramos e que desen-
volvemos nossa atividade profissional. Vamos verificar alguns 
fatos históricos para compreender a importância da aplicação 
dos conceitos, no que foram utilizados, para que consigamos 
vislumbrar como e em que momento o mesmo será importante 
no nosso dia a dia. 
Mas enfim, segundo Azarkhail e Modarres (2012), o mun-
do passou por duas grandes Guerras Mundiais, a primeira 
entre os anos de 1914 e 1918 e a segunda entre os anos de 1939 
e 1945. Apesar de toda a destruição e de todos os males que 
estas guerras trouxeram para a humanidade como um todo, é 
de consenso que, principalmente em termos de Engenharia, 
ambas foram berços do advento de inúmeros produtos e siste-
máticas que até hoje utilizamos no nosso cotidiano nas empresas 
e também na nossa vida pessoal. Dos estudos e resultados dos 
produtos desenvolvidos na época das guerras, temos inúmeros 
medicamentos, carros, equipamentos de comunicação, técnicas 
de conservação de alimentos, sistemáticas produtivas, técnicas 
das áreas de saúde, aviões, e assim por diante. Isto aconteceu 
porque muitos projetos e ideias que surgem com o passar do 
tempo e que não tem aplicação imediata e direta no dia a dia 
acabam sendo “desengavetadas” em épocas de guerra por, 
neste ambiente, se mostrarem possivelmente aplicáveis e en-
tão receberem o impulso, e muitas vezes, a verba para serem 
desenvolvidas. Após a guerra, muitos equipamentos, fábricas, 
7ENGENHARIA DA CONFIABILIDADE
ideias e projetos perdem sua aplicação militar e acabam sendo 
verificadas aplicações no âmbito das empresas e da vida dos 
cidadãos, sendo nesse aspecto que o estudo da Engenharia 
ganha imenso desenvolvimento.
Posto isso, vamos nos concentrar em uma invenção que 
encontrou seu uso inicial ao final da Primeira Guerra Mundial, 
que foi extremamente desenvolvida e utilizada na Segunda 
Guerra, o avião. Os engenheiros ligados à área aeronáutica, 
após a guerra, contabilizaram que os (na época) poucos sistemas 
eletroeletrônicos instalados nos aviões ficavam, efetivamente, 
operantes, por somente 30 por cento do tempo de uso do avião, 
no entanto, eram cruciais para que o mesmo fosse operacional, 
ou seja, nãoexistiria aviação viável sem tais produtos. O fato 
é que estes produtos sofriam altas taxas de desgaste ou falhas, 
e que sua substituição custava cerca de 10 vezes o custo de sua 
aplicação original ao produto. Tal fato desencadeou diversos 
estudos, uns ligados à manutenabilidade dos aviões e, em espe-
cífico, em dezembro de 1950, um Grupo sobre Confiabilidade 
de Equipamentos Eletrônicos, que estabeleceu sua preocupação 
com a qualidade da aplicação de tais equipamentos. O ponto que 
é considerado o marco zero na Engenharia de Confiabilidade 
é quando, entre 1956 e 1958 foi criado o Grupo Consultivo 
sobre Confiabilidade de Equipamentos Eletrônicos, em inglês, 
Advisory Group on the Reliability of Electronic Equipment 
(cuja sigla era AGREE, traduzindo para o português, CON-
CORDO) pelo Departamento de Defesa dos EUA. O fato 
de sistemas eletrônicos conseguirem realizar testes de grandes 
números de operações repetitivas em pouco tempo, acabou por 
utilizar nestes produtos a abordagem científica dos conceitos 
estatísticos e probabilísticos desenvolvidos em 1953, que eram 
aplicáveis a avaliação de, por exemplo, durabilidade, tempo de 
vida esperado, taxa de falhas, etc.
De maneira simples, grande parte dos componentes elétricos 
e eletrônicos, quando testados, acabam, após um certo número 
de repetições de teste, falhando, o que é natural e bastante 
compreensível, sendo que neste momento, são simplesmente 
8ENGENHARIA DA CONFIABILIDADE
trocados e o equipamento que fazia uso do mesmo é conside-
rado renovado, para tanto, é utilizado o método estatístico da 
distribuição exponencial, mas isso é um tanto quanto irreal, 
pois este modelo não pressupõe envelhecimento e degradação 
do equipamento, visto que não tem “memória” para guardar 
o histórico de falhas. Então, na década de 1960, começou-se 
a utilizar o modelo de distribuição de Weibull por este repre-
sentar uma taxa de risco que aumenta ou diminui em virtude 
do tempo, o que torna o modelo mais realista, principalmente 
para uso na avaliação de sistemas mecânicos, que são repara-
dos. Foi criado o modelo Physics of Failure (Física da Falha, 
PoF na sigla em inglês), que só foi efetivamente adotado pela 
indústria dos eletrônicos em meados da década de 1980.
Entrando na década de 1970, temos o desenvolvimento 
da sistemática de Árvore de Falhas, pois até este momento, os 
estudos eram focados em componentes ou dispositivos, mas a 
associação de diversos destes componentes e dispositivos não 
era efetivamente avaliada, e tal aplicabilidade era extremamente 
interessante na avaliação de instalações de gás, petróleo, in-
dústria química e, principalmente, geração de energia nuclear, 
o que acabou com a avaliação, através desta Árvore de Falhas, 
da utilização de componentes associados em série ou em pa-
ralelo, dependendo do caso, o que é uma abordagem bastante 
comum nas aplicações eletroeletrônicas, que têm características 
de certa independência entre componentes como elementos 
9ENGENHARIA DA CONFIABILIDADE
que trabalham juntos com comportamentos isolados. Tal fato 
já não é tão comum em sistemas mecânicos, que trabalham de 
maneira bastante dinâmica, em condições altamente variadas 
(mudanças de temperatura, pressão, lubrificação) e, em especial, 
a atuação de um componente está intimamente ligada com a 
atuação dos demais, por isso precisam que sua avaliação seja 
executada em sistemas paramétricos onde consigam ser obser-
vadas a interdependência destas tantas variáveis.
A década de 1980 viu um novo desafio com o advento 
do aumento de uso de sistemas de Circuito Integrado onde, 
independentemente do comportamento verificado dos seus 
componentes isolados ou associados, ainda há de se considerar 
que ao nível de complexidade do circuito tem forte inf luência 
na taxa de falhas do sistema, sendo que os modelos estatísticos 
de avaliação começaram a levar em conta a densidade, área e 
rendimento de defeitos. Além disso, a necessidade de diminui-
ção de custos de projetos, a produção em massa, o surgimento 
cada vez maior de pequenas empresas com menores estruturas 
acabaram por criar abordagens que levam em conta a concepção 
do produto, causas-raiz de problemas, bases de dados de fatos 
conhecidos, opinião de diferentes especialistas (equipes mul-
tidisciplinares), utilização de comportamento de componentes 
similares e modelos de aceleração de vida de componentes e 
sistemas. Estes fatores associados, podem requerer a criação de 
modelos matemáticos extremamente complexos e, muitas vezes, 
de difíceis resolução. Também foram desenvolvidas sistemáticas 
de avaliação de Common-Cause Failure (CCF na sigla em 
inglês para Causa Comum de Falha). Esta abordagem aponta 
que existem causas-raiz comuns para a falha, entre diversos 
componentes associados a um sistema dinâmico.
Na década de 1990, houve a retomada do conceito de PoF, 
que teve seus primeiros ensaios na época da Primeira Guerra 
Mundial e amplamente desenvolvida na década de 1950, com 
a verificação das mecânicas de falhas. O fato de surgirem 
cada vez mais novas e poderosas ferramentas computacionais, 
visto que o aumento da capacidade de processamento dos 
10ENGENHARIA DA CONFIABILIDADE
computadores pessoais proporcionou o estudo e análise, via 
softwares, de projetos de componentes mecânicos que pude-
ram ser extremamente refinados, traduzindo em termos de 
produto físico visto a certa facilidade desenvolvida no con-
trole de processos e melhores práticas de produção. Isso tudo 
proporcionou uma diminuição no custo de desenvolvimento 
do produto. No campo dos eletrônicos, em 1992 o Exército 
americano autorizou o uso de sistemáticas de PoF para seus 
desenvolvimentos, sendo assim, independentemente de dados 
de estudos de vida de componentes, eram levados em conta 
sua estrutura, conhecimento nos processos de degradação de 
estruturas e também perfis de aplicação de cargas, ambiente 
de uso e propriedades de materiais da sua composição, assim, 
com modelos validados, era possível estimar tempos de vida 
útil de produtos sob determinadas condições, utilizando poucas 
variáveis já conhecidas.
Nos anos 2000, trata-se o assunto com base em alguns 
questionamentos realizados ao final da década de 1990, pois 
em termos de técnicas de avaliação de confiabilidade, existiam 
defensores dos métodos de uso de testes e bases estatísticas de 
um lado, e de outro lado os defensores de modelos, mais ba-
ratos e mais rápidos, baseados em PoF (apesar deste também 
se utilizar, de certa forma, de dados estatísticos e de testes, de 
11ENGENHARIA DA CONFIABILIDADE
maneira intrínseca). O resultado é que, atualmente, utilizam-se 
abordagens híbridas, onde as técnicas de PoF são utilizadas 
para validar componentes e sistemas básicos que são avaliados 
na sua íntegra, quando associados em sistemas que se utilizam 
de técnicas de testes repetitivos e aceleração de vida. Para tanto, 
são necessários dados confiáveis a respeito do comportamento 
de elementos físicos, químicos e suas estruturas (lembrando 
que estes estão em constante desenvolvimento, aprimoramento 
e avaliação) e também uma estrutura computacional robusta e 
que tenha acesso a estas informações, tudo isso para poder criar 
um resultado verossímil entre métodos, ou seja, um método 
que comprova o resultado do outro quando os dois apontam 
para um mesmo resultado (ferramenta computacional define 
um limite de durabilidade que é verificado de maneira seme-
lhante em um teste de vida). Obviamente, sistemas cada vez 
mais complexos exigem ferramentas computacionais (softwa-
res) cada vez mais robustas, com bases de dados maiores, mais 
completas, mais complexas que se utilizam de redes de proces-
samento (hardware) cada vez mais poderosas, sendo assim, o 
que se faz hoje em dia é projetar e validar computacionalmente 
componentes com altos níveis de confiabilidade que, depois de 
associados em sistemas complexos (um automóvel, um avião, 
uma máquina) são submetidos a testes, lembrando que têm altos 
custos - quantomaior o nível de certeza associado aos dados de 
confiabilidade apontados pelo projeto, menor serão as neces-
sidades de validações dos mesmos por testes físicos. Imagine, 
por exemplo, o projeto do motor à reação de um avião (popu-
larmente conhecido como turbina) que é formado por alguns 
milhares de componentes, estes projetos costumam se utilizar 
de muitos meses de trabalho de pesquisa e desenvolvimento 
de componentes que, quando juntos, formarão um produto de 
altíssima complexidade e que precisa de níveis altíssimos de 
confiabilidade, visto que muitas vidas dependem, entre outras 
coisas, do correto funcionamento do mesmo. O projeto é tão 
12ENGENHARIA DA CONFIABILIDADE
demorado, tão caro e tão complexo, que normalmente 
se utiliza de verbas altíssimas avalizadas por governos 
para serem viabilizadas, imagine se o mesmo for mal 
projetado, ou ainda, que cada componente tenha que 
ser individualmente e depois em cada associação ser 
testado à sua exaustão e repetidamente até o produto 
ficar pronto. Ou seja, são projetos extremamente con-
fiáveis, reconhecidos e aprovados mundialmente e que 
se utilizam de todos os conceitos aqui já mencionados 
para poderem ser executados, caso contrário, bem pro-
vável o tempo e o custo destes projetos seriam maiores.
Na figura, podemos ver um resumo da evolução 
histórica das abordagens para verificação da confia-
bilidade de componentes e sistemas.
Abordagens de modelagem de PoF emergentes em 
avaliações de confiabilidade
13ENGENHARIA DA CONFIABILIDADE
Conceitos
A norma brasileira NBR5462, Confiabilidade e Mante-
nabilidade, de Novembro de 1994, descrita pela ABNT, de-
fine, oficialmente, as terminologias e conceitos relacionados 
à confiabilidade no Brasil, sendo assim, quando utilizados de 
tais conceitos neste ebook, estamos associando diretamente o 
mesmo ao descrito na norma citada. Portanto, por norma, o 
conceito formal de confiabilidade é:
 
Capacidade de um item desempenhar uma função 
requerida sob condições especificadas, durante um 
dado intervalo de tempo. 
Lendo o conceito, podemos compreender que confiabili-
dade não está somente relacionada a um elemento ou sistema 
cumprir seu papel esperado (desempenhar a função ou fun-
cionar corretamente), o conceito vai além, este elemento tem 
que desempenhar seu papel sob determinada condição de uso 
(condições específicas) durante um período específico. Temos 
que imaginar que um produto pode ser confiável para ser usado 
em um determinado ambiente (por exemplo, uma ferramenta 
elétrica residencial), mas quando exposto a um ambiente de 
uso mais severo (esta mesma ferramenta residencial aplica-
da para fins industriais), o equipamento pode não funcionar 
adequadamente ou falhar em um tempo menor. Do mesmo 
modo, deve ficar claro que o nível de confiabilidade de um 
elemento ou sistema é, geralmente, relacionado a um tempo de 
uso, na grande maioria das situações, com o passar do tempo, 
a confiabilidade de um produto diminuirá, por conta do seu 
uso, desgaste, degradação, etc. O que podemos entender é 
que a confiabilidade de um item é a probabilidade deste em 
desempenhar seu papel em um determinado ambiente ou um 
determinado tempo, e esta característica se modificará conforme 
o uso do produto, severidade e tempo.
14ENGENHARIA DA CONFIABILIDADE
Outros pontos importantes a serem compreendidos são a 
diferença entre confiança e confiabilidade e a diferença entre 
falha e defeito. Confiança, segundo o dicionário Aurélio, é um 
sentimento relacionado ao ato de confiar, acreditar em algo. 
Confiabilidade é a capacidade de um item executar esta fun-
ção, ou seja, é uma definição técnica, a subjetividade não entra 
em questão, está associada a uma probabilidade e não a um 
sentimento. Esta confusão é bastante comum na nossa Língua 
Portuguesa porque as palavras Confiança e Confiabilidade são 
semelhantes, mas seus reais significados são extremamente 
diferentes. Países de Língua Inglesa, por exemplo, têm estas 
palavras bem distintas, Trust (para Confiança) e Reliabily (para 
Confiabilidade) e acabam não carecendo desta explicação. Ob-
viamente, você pode estar raciocinando que, por exemplo, um 
produto no qual se tem extrema Confiança deve ter um grau 
de Confiabilidade muito grande em relação ao seu propósito, 
e isso não deixa de ser verdade, mas ainda fica a observação de 
que isso é uma questão de associação de conceitos, assim como 
dizer que um produto de alto nível de qualidade tende a ser 
um produto com um bom grau de confiabilidade, sendo assim, 
uma coisa leva a crer em outra, mas é importante salientar que, 
para o bom entendimento, o engenheiro deve compreender de 
maneira clara estes conceitos e suas diferenças. Já a diferença 
entre falha e defeito é justamente o que diferencia qualidade 
de confiabilidade, visto que qualidade é a ausência de defeitos, 
15ENGENHARIA DA CONFIABILIDADE
uma medida subjetiva que tem a ver com o uso do produto e 
é avaliada de maneira instantânea e diferente de pessoa para 
pessoa (ou seja, defeito é uma percepção pessoal). Um exemplo 
interessante é um automóvel, se o mesmo tiver um risco na pin-
tura, uma mancha em um banco, isso será considerado defeito, 
falta de qualidade, enquanto que, se o mesmo deixar de andar, 
não acionar os freios, isso é considerado falha, ou seja, falta 
de confiabilidade. Entende-se, portanto, que confiabilidade é 
um conceito mais técnico e objetivo e qualidade um conceito 
mais subjetivo e sujeito a interpretações. 
 Ainda sobre a norma NBR5462, a mesma estabelece que 
“Confiabilidade” é um termo usado como uma medida de 
desempenho de confiabilidade, ou seja, além de um conceito 
também é o nome dado ao valor de desempenho em termos de 
confiabilidade atribuído ao componente ou sistema. Em outras 
palavras, a Confiabilidade pode ser medida, não existe um item 
com ou sem confiabilidade e sim cada item tem um determi-
nado grau de confiabilidade, ou seja, de certeza que executará 
sua função sob determinadas condições por um determinado 
tempo. O mesmo fato acontece quando comparamos qualidade 
e confiabilidade, pois o primeiro é um conceito subjetivo que 
designa a percepção de um determinado indivíduo em relação 
a um produto sob uma característica específica, já o segundo 
não tem subjetividade, é estimada através de um padrão e não 
depende da avalição de um indivíduo.
Uma outra abordagem a respeito de confiabilidade, desta 
vez mais estratégica, é trazida por Slack, Chambers e Johnston 
(2009), que citam que a Confiabilidade é considerada um dos 
Cinco objetivos de desempenho relacionado à produção e seus 
produtos, sendo os mesmos qualidade, rapidez, f lexibilidade, 
confiabilidade e custo. Os autores citam que, para satisfazer 
as necessidades das partes interessadas de uma organização, 
todo sistema produtivo está sujeito a estes cinco objetivos de 
desempenho básico. Obviamente, cada organização decide qual 
seu foco e em que grau atenderá estes objetivos, buscando sua 
diferenciação no mercado de trabalho que se propôs a atender.
16ENGENHARIA DA CONFIABILIDADE
Especificamente sobre confiabili-
dade, os autores comentam que, usual-
mente, o cliente somente pode julgar a 
confiabilidade de um sistema produtivo 
após o recebimento do produto ou ser-
viço, portanto, em primeira instância, 
talvez não afete a decisão de compra do 
cliente, mas com o passar do tempo este 
objetivo possa vir a ser mais importante 
que qualquer outro critério, pois acaba 
trazendo ao cliente a certeza de um deter-
minado resultado (em relação ao produto 
ou serviço fornecido), ou seja, mesmo 
em detrimento da rapidez de entrega ou 
de um produto ou serviço mais barato, 
fatalmente a certeza do que está sendo 
recebido acaba por gerar outros fatores 
associados:
• Economia de tempo.
• Economia de dinheiro.
• Estabilidade.
Sendo assim, independentemente de 
outros fatores ou objetivos, o produto 
ou serviço com foco em confiabilidade 
acaba por gerar efeitos positivos em ou-
tros âmbitos, ou seja, ocliente começa 
a perceber que, por exemplo, o prazo de 
entrega prometido pode não ser o melhor, 
mas o nível de certeza que será cumpri-
do é grande, o produto pode não ser o 
mais barato, mas a certeza que o mesmo 
efetivamente cumprirá seu papel quando 
necessário, pode retornar em menores 
estoques, menos manutenções, garan-
tias, etc. De maneira similar, a confia-
bilidade atrelada a sistemas produtivos 
acaba criando um viés de estabilidade 
nos mesmos, onde a certeza de que o 
produto será produzido com a quanti-
dade de matéria-prima correta (sem a 
necessidade de sobras como precaução 
de peças defeituosas, por exemplo), den-
tro do custo previsto (sistema não sofre 
com problemas de máquinas paradas, 
custos não planejados de manutenção, 
quantidade de horas extras decorrentes 
de não produção em tempo hábil e assim 
por diante.
17ENGENHARIA DA CONFIABILIDADE
Diversas áreas de estudo se apropriam dos conceitos e, 
inclusive, dos métodos de avaliação e cálculo de níveis de con-
fiabilidade para demonstrar um ou outro efeito e, por vezes, 
acabam chamando estas avaliações por outros nomes que não 
diretamente Confiabilidade, mas tais aplicações, se bem com-
preendidas são casos especiais do uso dos mesmos conceitos. 
Vamos considerar estas “diferentes” sistemáticas de modelos 
de aplicação dos conceitos de confiabilidade, sob os quais co-
mentaremos ao longo deste ebook. Facilmente você notará que 
já deve ter ouvido sobre algumas destas sistemáticas e, talvez, 
não as tenha associado ao conceito de confiabilidade, mas a 
partir deste momento, pretenderemos demonstrar algumas nu-
ances de cada uma destas sistemáticas e é bastante interessante 
compreender que alguns modelos de negócio (por exemplo, 
as empresas da indústria automotiva) se utilizam de boa parte 
destas sistemáticas em conjunto e se utilizam das mesmas, em 
grande parte das situações, como forma de avaliar sua cadeia 
de fornecimento. Algumas metodologias e sistemáticas que 
aplicam conceitos de confiabilidade:
• Tempo de garantia de componentes e produtos.
• Controle estatístico de processos.
• Sistemáticas de manutenção.
• Sistemas de medição.
O uso extenso de metodologias de forma intensa nos seus 
processos associados, principalmente quando em conjunto, 
tendem a gerar os benefícios anteriormente citados, sendo 
assim, em uma explicação simples, um sistema de medição 
confiável demonstrará a certeza sobre os resultados verificados 
em relação aos componentes (peças) gerados por processos 
confiáveis que produzem estes produtos corretamente, no pra-
zo estipulado e no custo definido, aplicando-os em sistemas 
complexos (automóvel) onde a associação dos mesmos gerará 
um produto final que cumprirá seu propósito no menor custo 
possível, com melhor resultado possível, com a durabilidade e 
segurança requerida pelos clientes finais (Tempo de Garantia).
18ENGENHARIA DA CONFIABILIDADE
SÍNTESE
Neste capítulo, vimos que o conceito de Confiabilidade está associado à certeza do fun-
cionamento de um produto sob determinadas condições em um determinado intervalo de 
tempo e a forma de avaliar esta confiabilidade evoluiu desde suas primeiras aplicações até 
os dias atuais, vista a complexidade dos sistemas e a necessidade de uso dos produtos, como 
também verificamos que existem diversas aplicabilidades para os conceitos de confiabilidade 
em diferentes âmbitos. Para compreender isso, revisamos alguns conceitos de probabilidade 
e estatística, bem como suas distintas aplicações.
19ENGENHARIA DA CONFIABILIDADE
EXERCÍCIOS
1. Qual a diferença de qualidade e confiabilidade?
2. Cite três aplicações conhecidas, ou do seu convívio, dos conceitos de confiabilidade:
3. Quais as vantagens do aumento de confiabilidade em um produto qualquer?
4. Qual a aplicabilidade dos conceitos de confiabilidade no seu contexto?
20ENGENHARIA DA CONFIABILIDADE
ELEMENTOS DE 
ESTATÍSTICA 
ASSOCIADOS
Você sabia que, para compreender 
confiabilidade são necessários alguns 
conceitos estatísticos? Você lembra de todos? 
Para conseguirmos compreender as aplicações de Confia-
bilidade, será necessária a apresentação ou revisão de alguns 
conceitos relacionados às análises estatísticas.
21ENGENHARIA DA CONFIABILIDADE
Variáveis discretas X Variáveis contínuas
O primeiro dos conceitos que vamos revisar é o de vari-
áveis Discretas e Contínuas, definindo que as mesmas serão 
categorizadas em uma ou outra forma, não existindo nenhuma 
forma de transição entre as mesmas, ou seja, ou a variável é 
discreta ou é contínua.
Utilizamos as variáveis para uma infinidade de demonstra-
ções de acontecimentos, quando estes episódios são “contáveis” 
ou ainda, são “números inteiros”, dizemos que os mesmos são 
discretos, por exemplo, a quantidade de falhas serão uma, duas, 
três, e assim por diante, ou seja, não existirão duas falhas e 
meia (2,5 falhas), até porque, quando chegar o devido tempo, 
veremos que ou o fato “É FALHA” ou “NÃO É FALHA”, 
não existe meia falha ou qualquer outra fração neste sentido. 
O comportamento é semelhante a outros casos, como exemplo, 
número de amostras, quantidade de repetições, etc., todos estes 
descritos por números inteiros, não fracionados.
Por outro lado, resultados de medições e verificações, tais 
como tempo e dimensões podem ser expressos em números 
fracionados devido suas unidades e múltiplos ou submúltiplos, 
tais como uma medida pode ter 2,5 m (2 metros e 50 centíme-
tros) ou 3,2 s (três segundos e dois décimos de segundo). Estes 
dados são considerados contínuos e precisam ser fracionados 
para termos precisão ou exatidão nos mesmos, conforme a ne-
cessidade do experimento ou fenômenos que queremos enxergar, 
logo, quando estamos verificando uma peça usinada, ela pode 
ter sido executada com 20,32 mm, e necessitamos enxergar 
esta exatidão (ou por muitas vezes muito mais exatidão que 
isso), pois se medirmos 20 mm ou 21 mm (somente medidas 
inteiras considerando a unidade milímetros), este dado não 
será preciso o suficiente para atendermos algum parâmetro de 
projeto ou necessidade de produto.
22ENGENHARIA DA CONFIABILIDADE
Um fenômeno interessante é que podemos associar vari-
áveis discretas em relação às contínuas, e isso é bem normal, 
tal como a falha de número 7 aconteceu após 2,5 h de uso do 
equipamento, ou seja, um evento identificado ocorreu em um 
tempo preciso, do mesmo modo os resultados da medição do 
comprimento da amostra de número 8 foram de 723,67 mm, 
portanto, é importante ter este tipo de relação de associação 
muito clara em mente.
Não custa lembrar, para fins dos nossos estudos, estaremos 
utilizando nossos dados dentro das unidades do SI (Sistema 
Internacional de Medidas), caso não recorde o que significa, 
melhor revisar para conseguir compreender algumas das even-
tuais necessárias conversões de unidades que se farão presentes 
em algum exemplo.
23ENGENHARIA DA CONFIABILIDADE
Densidade
A densidade ou função densidade de uma variável alea-
tória qualquer remete à probabilidade desta variável, assumir 
um determinado valor quando a mesma está sendo observada, 
e isso pode ser expresso através de uma função. De maneira 
usual, essa função f estará sendo expressa em relação a uma 
variável t até um limite k (que pode ser finito ou infinito), ou 
seja, termos t1, t2, t3, t4... tk, de modo que a probabilidade da 
variável discreta t assume um determinado valor no intervalo 
k, dada pela função:
Quando a variável em questão for contínua, a expressão é 
diferente, pois estatisticamente é muito improvável que uma 
variável contínua assuma um valor inteiro, visto que, normal-
mente, a mesma ocorrerá com determinado grau de precisão 
em relação à unidade que está sendo utilizada. Em um inter-
valo da mesma, por exemplo, dificilmente uma falha ocorrerá 
exatamente após 150 horas de uso, mais provável que ocorra 
em 150 h e 3 min, ou ainda, que uma peça assuma um valor 
de medida exato, tal como 100 mm, o usual é que o valor seja 
algo como 100,02 mm (ou talvez até um valormais preciso, 
tipo 100,00005 mm), mas dificilmente um valor inteiro exato.
24ENGENHARIA DA CONFIABILIDADE
Em outras palavras, visto uma variável discreta dentro de 
um intervalo k (conforme descrito anteriormente), a probabili-
dade de que ela ocorra neste intervalo é de 100% (ou seja, igual 
a 1, conforme definido pela expressão), do mesmo modo que 
a probabilidade que uma variável contínua assuma um valor 
exato em um momento k é praticamente zero. Sendo assim, é 
razoável dizer que ocorrerá uma falha de número 3 (t3) em um 
equipamento (a mesma ocorrerá em um tempo hipotético de 
130h e 42 min de uso), do mesmo modo que é quase impossível 
prever o inverso, ou seja, que exatamente quando o produto 
atingir 130h e 42 min ocorrerá a terceira falha do produto, é 
mais razoável pensar, por exemplo, que a terceira falha terá 
80% de chance de ocorrer dentro de um intervalo entre 110 e 
180 h de uso. Isso demonstra que a função densidade se com-
porta de maneira muito diferente para avaliação de variáveis 
discretas e contínuas.
População e amostra
Uma outra questão que tem uma importância muito grande 
no estudo da confiabilidade é a compreensão dos conceitos de 
população e amostra, a avaliação do comportamento estatístico 
de um fato depende da correta interpretação destes fatos.
Sendo a confiabilidade uma ciência que procura, por assim 
dizer, predizer o aspecto de falhas funcionais de um equipa-
mento durante seu uso, fica importante entender o que ocor-
reu no passado para procurar determinar o que acontecerá 
no futuro, em outras palavras, uma montadora, por exemplo, 
projeta componentes, faz diversos ensaios em um grupo de 
protótipos, testa sistemas e produtos em diversas fases do seu 
desenvolvimento para poder definir o que acontecerá com estes 
produtos durante seu uso pelo cliente final.
25ENGENHARIA DA CONFIABILIDADE
Para tal, ensaios e testes ocorrem em amostras significati-
vas (um certo número estatisticamente definido de produtos) 
a fim de predizer o comportamento da população (o total de 
produtos que serão produzidos conforme determinado conjunto 
de especificações, ou ainda, evoluções da mesma). Tomando 
o mesmo exemplo comentado anteriormente, ensaios e testes 
são feitos nos protótipos dos veículos e seus subsistemas para 
determinar padrões de desgaste, garantias, manutenções neces-
sárias nos produtos finais que serão utilizados pelos usuários, 
o mesmo ocorre, de forma similar, (obviamente respeitando 
volumes de produção, criticidade dos equipamentos, tipo de 
uso, severidade, etc.) em máquinas operatrizes, aviões, produtos 
eletrônicos e assim por diante.
O que tem que ficar claro é que, em termos de confiabi-
lidade, sempre estaremos tratando de probabilidades de que 
um evento acontecerá em uma população de produtos baseados 
em amostras significativas do mesmo, mas certeza mesmo do 
que acontecerá com todos os componentes, subsistemas e no 
produto como um todo, é praticamente impossível de se ter, 
pois todos os produtos deveriam ser testados à exaustão (neste 
caso a amostragem seria de 100%, ou seja, toda a população). 
Estes produtos testados estariam totalmente inaptos ao seu 
uso, pois já estariam bastante deteriorados. Um ótimo e re-
corrente exemplo utilizado para isso, são os palitos de fósforo. 
A empresa especificou o produto e produziu os mesmos sob 
determinado padrão com base em uma probabilidade tal que os 
mesmos funcionarão, mas isso não quer dizer que não poderão 
ocorrer falhas eventuais. Para que isso não ocorra, os produtos 
26ENGENHARIA DA CONFIABILIDADE
deveriam ser superdimensionados para sua função, o que torna 
o produto muito mais caro e mesmo assim o único efeito que 
se consegue é a melhoria na probabilidade de que funcionarão. 
Para ter certeza absoluta disso, os produtos deveriam ser 100% 
testados, o que no nosso exemplo do palito de fósforo significa 
que os mesmos seriam acesos e, por consequência, consumidos, 
o que impossibilitaria totalmente a entrega ao cliente final, já 
que perderam a sua função.
Para finalizar o conceito de amostra e população, deve ficar 
claro que os dados obtidos com as amostras são estatisticamente 
tratados e expandidos conforme uma determinada regra para 
serem utilizados a fim de predizerem o que acontecerá com 
a população, sendo assim, não serão exatamente os mesmos. 
Em um exemplo totalmente hipotético, vamos supor que foram 
ensaiadas 150 amostras de um componente e que esta amos-
tra demonstrou que, após 200.000 ciclos de teste, 98% destes 
componentes sofreu um desgaste tal em uma característica que 
não comprometeria seu uso e, quando tratados para a questão 
da população, estes dados poderão dizer que a probabilidade 
destes componentes cumprirem sua função primária durante 
3 anos de uso sem falhas é de 99,5%.
27ENGENHARIA DA CONFIABILIDADE
Regras e funções específicas
Tratando-se de probabilidades estatísticas e modelos ma-
temáticos que procuram descrever o comportamento e acon-
tecimento de alguns eventos, existem muitas teorias diferentes 
e formas de avaliar produtos, do mesmo modo que existe um 
número muito maior de possibilidades de combinações, usos e 
complexidade de produtos, sendo assim, procuraremos, dentro 
dos casos que trataremos, demonstrar as principais funções nas 
suas maneiras mais usuais e aplicadas, pois seria impraticável 
a explicação de todas as possibilidades de uso, além do que, 
sempre estão surgindo novas teorias e modelos que explicam tais 
fenômenos de maneira mais clara, mais precisa, mais detalhada.
Estes modelos altamente complexos, têm sido alimentados 
em softwares puramente estatísticos ou ainda em softwares 
dedicados às aplicações específicas que realizam trabalhos fan-
tásticos com um nível de precisão impressionante e em tempos 
de execução cada vez menores, do mesmo modo que existe uma 
extensa bibliografia, entre livros, manuais específicos, artigos 
científicos, etc., explicando novas técnicas e aplicações. Nosso 
intuito, é demonstrar os caminhos mais básicos e usuais para 
que, quando ocorrer a necessidade do uso no âmbito profissio-
nal, se tenha ideia de como o fenômeno funciona, por onde se 
começa o entendimento e resolução do mesmo e que caminhos 
tomar para aprofundarmos tais conhecimentos.
Visto a explicação anterior, existem um grande número de 
regras de probabilidade que são definidas de acordo com cada 
tipo de combinação de eventos. As principais e mais usuais 
delas são:
a. A probabilidade de ocorrer um evento A é definida por P(A).
Exemplo: dentro de um intervalo de 1 ano existe chance 
de 87% do evento em questão ocorrer.
28ENGENHARIA DA CONFIABILIDADE
b. A probabilidade de que dois eventos A e B ocorram é de-
finida por P(AB) – observe que é um evento “E”, o outro 
evento deve ocorrer.
Exemplo: em uma caixa contendo 20 unidades de um 
determinado produto, temos 4 produtos (20% do total) com 
defeito e 16 produtos (80% do total) sem defeito. Em outra 
embalagem semelhante, temos 3 produtos (15% do total) com 
defeitos e 17 produtos (85% do total) produtos sem defeito. Ou 
seja, se tirarmos um produto da primeira embalagem, existe 
uma probabilidade de 20% de que o mesmo tenha defeitos (de 
maneira análoga o mesmo ocorre para o produto sem defeito e, 
também de maneira análoga, na outra embalagem, respeitando 
suas quantidades).
Deste mesmo modo, podemos extrair, cada qual com suas 
possibilidades, um produto com defeito de uma embalagem e 
um produto com defeito da segunda embalagem, um produto 
com defeito da primeira embalagem e um produto sem defeito 
da segunda embalagem, um produto sem defeito da primeira 
embalagem e um produto com defeito da segunda embalagem 
ou ainda um produto sem defeito da primeira embalagem e 
um produto sem defeito da segunda embalagem, ou seja, em 
termos numéricos:
EMBALAGEM 1 EMBALAGEM 2 PROBABILIDADE
Com defeito – 0,2 (20%) Com defeito – 0,15 (15%) 0,2 x 0,15 = 0,03 (3%)
Com defeito – 0,2 (20%) Sem defeito – 0,85 (85%) 0,2 x 0,85 = 0,17 (17%)
Sem defeito –0,8 (80%) Com defeito – 0,15 (15%) 0,8 x 0,15 = 0,12 (12%)
Sem defeito – 0,8 (90%) Sem defeito – 0,85 (85%) 0,8 x 0,85 = 0,68 (68%)
29ENGENHARIA DA CONFIABILIDADE
c. A probabilidade de que um dos dois eventos A ou B ocorram 
é definida por P(A+B) – observe que neste caso um “OU” 
outro evento deve ocorrer.
Deste modo, usando os dados anteriormente propostos 
podemos fazer as seguintes conjecturas:
Probabilidade de extrairmos produtos diferentes (um com 
e outro sem defeito) das duas embalagens em duas tentativas 
(repondo o item anteriormente extraído) é de 17% e 12%, ou 
seja 0,17 + 0,12 = 0,29 (29%).
Probabilidade de extrairmos, pelo menos um produto com 
defeito entre as duas tentativas (repondo o item anteriormente 
extraído) é de 3%, 17% ou 12%, ou seja 0,03 + 0,17 + 0,12 = 
0,32 (32%).
Veja que é muito mais provável que um ou outro evento 
aconteça do que os dois eventos aconteçam. Do mesmo modo, 
é importante entendermos que isso não quer dizer que, de 
modo semelhante, somente tenhamos 68% de chances (100% 
de produtos totais menos 32% de tentativas com produtos com 
defeito) de tirarmos pelo menos um produto sem defeito das 
duas caixas. É neste momento que não nos damos conta que 
os eventos que foram sugeridos não são excludentes, ou seja, 
o fato de um evento existir não impede que o outro também 
aconteça, pois temos que retirar, no primeiro exemplo, PELO 
MENOS um produto com defeito entre as duas embalagens, 
mas isso não impede que o outro não seja sem defeito, deste 
modo, utilizando o mesmo raciocínio anterior, a chance de 
retirarmos, entre duas tentativas, PELO MENOS um produto 
sem defeito é de 97%.
30ENGENHARIA DA CONFIABILIDADE
d. A probabilidade de um evento A ocorrer 
depois de um evento B já ter ocorrido é 
definida por P(A|B).
Neste caso, o primeiro evento ocorre de 
maneira exatamente igual ao anterior, mas o 
segundo evento é diferente, pois as probabili-
dades mudaram, já que as quantidades agora 
são diferentes, pois há exclusão de elemen-
tos. Tomando ainda o exemplo anterior, se 
quiséssemos retirar um produto com defeito 
da primeira caixa, as chances se mantêm em 
20%. Na hipótese de termos conseguido 
retirar o primeiro produto com defeito, e 
se quiséssemos retirar um segundo produto 
com defeito (agora sem reposição), sobram 
19 produtos na caixa, sendo 3 com defeito 
(0,157 ou seja 15,7% de chances), ou seja, as 
chances diminuíram. De modo análogo, se 
quiséssemos fazer a segunda tentativa sendo 
a primeira falha (em vez de retirarmos um 
produto com defeito, retiramos um produto 
sem defeito), são 19 produtos na caixa, mas 4 
com defeito (0,21 ou 21% de chances), neste 
caso, nossas chances aumentam.
e. A probabilidade de A e B ocorrerem no 
caso de serem mutuamente exclusivos (se 
A ocorrer, B não ocorre ou se B ocorrer, 
A não ocorre) é igual a zero, ou seja, P 
(AB)=0.
Aqui, a lógica matemática se repete, mas 
em um caso especial, onde a confirmação 
de um evento inibe a possibilidade do outro 
ocorrer. Em um exemplo hipotético, meu 
plano de amostragem pede que eu verifique 
em 10 % do meu lote, se existe, pelo menos, 
uma peça com defeito, caso isso ocorra, todo 
o lote está reprovado e tem que ser verifi-
cado uma a uma, todas as peças. Usando os 
dados da embalagem número 1 do exemplo 
anterior, o lote possui 80% de chances de 
ter uma segunda peça verificada (80% de 
chances de peças sem defeito), pois se ocor-
rer da primeira peça ter defeito, não haverá 
verificação amostral de uma segunda. Este 
tipo de caso acontece muito quando testados 
produtos com associação de componentes em 
série, ou seja, se um componente falhar, todo 
o sistema falhou, antes mesmo de falhar um 
segundo componente.
Existem outras possibilidades que, na 
verdade, são combinações matemáticas e 
casos especiais das regras anteriormente 
definidas.
31ENGENHARIA DA CONFIABILIDADE
Distribuições de probabilidade
Outro conceito de probabilidade muito utilizado nas apli-
cações de confiabilidade é o conceito de distribuição de pro-
babilidade onde, de maneira matemática, busca-se relacionar 
os valores da eventual característica que está sendo estudada 
com sua probabilidade de aparecer na população que está sendo 
investigada sendo que, conforme já verificamos anteriormente, 
se o valor que esta característica que está sendo investigada 
pode assumir é considerado discreto, diz-se que a característica 
tem uma distribuição discreta de probabilidade, caso contrário, 
se o valor é considerado contínuo, chamamos de distribuição 
contínua de probabilidade. Para fins dos nossos estudos de 
confiabilidade, os modelos de distribuições mais utilizadas são:
a. Distribuição binomial (distribuição discreta): na distribuição 
binomial, os valores apresentados somente podem assumir dois 
valores, como exemplo, sim ou não, ligado ou desligado, passa 
ou não passa, com defeito e sem defeito, etc., sendo assim, a 
probabilidade dos valores que aparecerem em cada amostra é 
sempre a mesma, pois podem, por exemplo, ser sempre ligados 
ou desligados e devem obedecer as seguintes condições:
• O evento se repete mais de uma vez, ou seja, não é valido 
para eventos únicos.
• A variável é discreta (só pode assumir valores inteiros).
• Os eventos são mutuamente excludentes, ou seja, quando 
um ocorre o outro não pode ocorrer (como exemplo, uma 
lâmpada está ligada ou desligada, não pode estar nos dois 
estados ao mesmo tempo).
• Os valores têm que ser dicotômicos, ou seja, só podem as-
sumir dois valores possíveis (por exemplo, sim ou não).
• Em todas as tentativas, a probabilidade de ocorrência p do 
evento deve ser a mesma, ou seja, independentemente de 
quantas amostras sejam verificadas, as mesmas sempre podem 
assumir qualquer um dos dois valores possíveis.
32ENGENHARIA DA CONFIABILIDADE
Para estes casos, a função probabilidade y é dada pela 
seguinte equação:
Nesta equação:
n = número de tentativas
r = número de ocorrências
p = probabilidade de ocorrência
q = 1 – p
Valores usuais dão conta que uma probabilidade constante 
de ocorrência é considerada aceitável quando o tamanho da 
população é, pelo menos, 10 vezes maior que o tamanho da 
amostra, pois mudanças no tamanho da população não deverão 
modificar a probabilidade de um valor ocorrer.
Exemplo: uma empresa fabricante de autopeças tem em sua 
base dados à média histórica de 2% de produtos com defeitos 
(não-conforme). Em uma auditoria de processos, 8 amostras 
são separadas do lote para avaliação. Neste sentido, qual a 
probabilidade de encontrarmos r peças defeituosas em meio à 
p amostras?
Os valores abaixo foram substituídos na equação (2), sen-
do assim, para cada valor de r teremos a seguinte fórmula (no 
nosso caso, o valor de n=8, pois testaremos em 8 vezes a pos-
sibilidade de encontrar peças com defeito, o valor de p=0,02, 
pois são 2% de produtos com defeito como média histórica e 
o valor de q=0,98):
33ENGENHARIA DA CONFIABILIDADE
b. Distribuição de Poisson (distribuição discreta): no caso da 
distribuição de Poisson, verificamos eventos que ocorrem a 
uma taxa média constante (tendo em vista que o valor tem 
que ser dicotômico). Pode ser entendida como uma distri-
buição binomial estendida, onde o número de tentativas n 
tende ao infinito (população e não amostra) e a probabili-
dade p do evento que ocorrerá em cada verificação é baixa 
(inferior a 10%), desde que a cada verificação do evento, a 
probabilidade do mesmo ocorrer seja a mesma e que não 
haja agrupamento, ou seja, uma tentativa por vez. Portanto, 
o evento avaliado pode ser descrito com a seguinte equação:
Nesta equação:
n = número de tentativas
r = número de ocorrências
p = probabilidade de ocorrência
Peças defeituosas (r) Probabilidade em 8 peças
0 0,8507630226
1 0,1389000853
2 0,0198428693
3 0,0024297391
4 0,0002479326
5 0,0000202394
6 0,0000012391
7 0,0000000506
8 0,0000000010
34ENGENHARIA DA CONFIABILIDADE
Exemplo: pode-se utilizar a distribuição de Poisson para 
determinar, em um exemplo hipotético,onde têm-se que usu-
almente somente 10% dos tiros disparados por uma metralha-
dora atingem um determinado alvo preciso, pode-se verificar 
quantos tiros serão necessários disparar para que, pelo menos 
5 deles atinjam o alvo com 96% de precisão.
Substituindo os valores na equação (3), teremos:
Ou seja, serão necessários XXXXXXX tiros para que, pelo 
menos, 5 deles atinjam o alvo com 96% de certeza.
c. Distribuição normal (distribuição contínua): utiliza-se a 
distribuição normal (curva de Gauss) quando conseguimos 
determinar a quantidade de ocorrências em que uma vari-
ável assume um determinado valor contínuo em torno de 
uma média qualquer, ou seja, vamos conseguir verificar qual 
será a probabilidade dessa variável assumir um determinado 
valor de maneira distribuída em um dado limite. Neste caso 
em específico, usualmente, uma quantidade maior de even-
tos acontece em torno de uma determinada média, e essa 
quantidade de eventos diminuirá de probabilidade ao passo 
que os valores assumidos pela variável vão se distanciando 
desta média, criando uma espécie de “sino”. Grande parte 
de resultados de processos pode ser descrita com o uso desta 
distribuição, como por exemplo, as medidas que o diâmetro 
de uma peça usinada atinge (esse diâmetro tem infinitas 
possibilidades de valores que serão verificados de acordo 
com a precisão do instrumento que utilizamos).
35ENGENHARIA DA CONFIABILIDADE
Para tanto, devemos conhecer os valores da média μ (que 
será tratado então como e do desvio padrão σ (que então será 
tratado então como s), onde os valores desta curva serão dados 
pelas equações:
Ainda podemos admitir que a média μ = 0 e que o desvio 
padrão σ = 1, onde a distribuição será simétrica e os dados 
distribuídos em intervalos de σ = 1, com isso, a equação fica 
reduzida à:
36ENGENHARIA DA CONFIABILIDADE
Esta é a distribuição normal chamada de padrão (Standard), 
onde são demonstrados valores tabelados de Z (ver tabela ao 
final do ebook) até um σ = 4,09, logo, o gráfico da densidade 
dos valores fica:
Exemplo: o diâmetro de um determinado eixo usinado é 
especificado em 12,5 mm e as peças usinadas apresentam um 
desvio padrão de 2,25 em torno desta medida, entendendo 
que a especificação permite que as peças assumam valores de 
10,8 até 15,1mm, quantas peças podemos esperar que tenham 
valores fora do especificado?
Neste caso, peças fora do especificado ficarão com diâme-
tros abaixo de 10,8 mm e maiores que 15,1 mm, utilizando 
a equação (6), descobrimos que o valor de Z (área abaixo da 
curva) para cada um dos limites especificados é dado por:
A área Z da curva para valores de 0,755 é de 0,2266 ou 
seja 22,66%, a área Z para valores de 1,15 é 0,1251, ou seja, 
12,51%, portanto, com base nos valores apresentados, podemos 
entender que teremos 22,66% de chances de termos peças abaixo 
de 10,8 mm e 12,51% de peças acima de 15,1 mm.
00
-4 -2 0 2 2.748
0,3%
4
01
02
03
04
37ENGENHARIA DA CONFIABILIDADE
d. Distribuição exponencial (distribuição contínua): a grande 
maioria das falhas em componentes pode ser descrita pela 
função exponencial, ou seja, se a taxa de falhas pode ser jus-
tificada e, portanto, considerada constante, o comportamento 
do componente pode ser descrito com base na distribuição 
exponencial. Para tal, entende-se que as falhas são causadas por 
motivos aleatórios e não pelo desgaste do componente, onde 
só poderemos utilizá-las se as falhas são puramente aleatórias 
e imprevisíveis, ou seja, as falhas não dependem de quanto o 
produto já tenha sido utilizado, desta maneira, a probabilidade 
de que o produto falhará se mantém ao longo de toda a sua vida. 
Neste caso, a confiabilidade do componente pode ser expressa 
pela equação, considerando λ a taxa de falhas por hora:
A distribuição exponencial também nos desfaz da ideia 
de que a média está posicionada em 50%, ou seja, na metade. 
Segundo esta distribuição, 36,8% dos produtos fica acima da 
média, e 63,2% se posiciona abaixo da mesma.
Exemplo: uma placa eletrônica em uma dada aplicação 
hipotética é montada utilizando 5 resistores em série com taxa 
de falha de 0,000002, e 7 capacitores em série com taxa de 
falha conhecida de 0,000004, desta maneira, quantas horas de 
uso podemos esperar para um nível de confiabilidade de 0,95.
Visto os valores de taxa de falhas dos componentes em 
série R(t)=R1 x R2 x R3 ... e admitindo que, se qualquer uma 
das duas associações falhar P(A+B), o sistema também falha, 
podemos esperar a seguinte taxa de falha do sistema:
λ = (5 x 0,000002) + (7 x 0,000004) → λ = 0,000038 
falhas por hora
Substituindo os valores na equação (7), temos:
 ou seja, pode-
mos esperar 1349 horas de uso com 95% de certeza de que o 
sistema funcionará.
38ENGENHARIA DA CONFIABILIDADE
e. Distribuição de Weibull (distribuição contínua): nor-
malmente verificada com o auxílio de softwares e utilizada 
para descrever o comportamento de componentes que estão 
sujeitos às situações de perturbações drásticas no sistema, 
por exemplo, variações bruscas de corrente em um sistema, 
ventos incidentes sobre um prédio, cargas em uma suspensão 
de um veículo ao rodar em uma determinada estrada, modi-
ficações temporais quando um avião está voando. Algumas 
condições devem ser satisfeitas:
• Os eventos de distúrbios têm que ser totalmente aleatórios.
• A probabilidade de um evento P ocorrer é totalmente pro-
porcional e constante ao intervalo Δt de tempo analisado, 
ou seja P=λ.Δt.
• A função p(t) é a probabilidade de ocorrência do evento 
analisado.
Desta maneira, a confiabilidade pode ser expressa por:
A taxa de falhas instantânea é expressa por:
A probabilidade de falha é dada por:
Nestes casos, t ≥t0 e β > 0 onde as variáveis são:
t0 é a confiabilidade intrínseca, ou seja, o tempo mínimo 
onde o sistema começa a apresentar falhas (λ = 0);
39ENGENHARIA DA CONFIABILIDADE
η é o parâmetro de escala, ou seja, o momento no tempo onde 
já ocorreram 63,2% das falhas (média de vida conforme explicado 
anteriormente);
β é o fator de forma, ou seja, em que momento da vida o sis-
tema avaliado se encontra, sendo que quando β < 1, o item está na 
etapa das falhas inicias, quando β = 1 o sistema está sujeito às falhas 
aleatórias (função exponencial negativa) e quando β > 1, o sistema 
está apresentando falhas por desgaste (ver gráfico onde β = δ.
De modo semelhante, a demonstração de uma distribui-
ção de Weibull para diferentes fatores de forma, onde β = k 
nos mostra a visão que à medida que o fator de forma vai se 
aproximando de 1, a distribuição de Weibull pode ser descrita 
como uma distribuição exponencial e, quando este fator de 
forma aumenta, a distribuição de Weibull pode ser descrita 
como uma distribuição normal.
40ENGENHARIA DA CONFIABILIDADE
Cálculo da confiabilidade
Tendo compreendido o conceito de confiabilidade e relem-
brando as questões e regras de probabilidade, podemos partir 
para o cálculo da confiabilidade. Conforme explicamos no 
histórico, estes cálculos são baseados em uma série de funções e 
modelos matemáticos e probabilísticos através de substituições 
algébricas de valores, fórmulas, derivações, integrais e etc. Para 
fins deste estudo, vamos apresentar de maneira direta estas 
funções e não entraremos no mérito das deduções das mesmas.
Estas funções partem do princípio que, após submetidos a 
testes (ou uso), um determinado número total de componentes 
(no) teve, em um determinado tempo t, amostras falhadas (nf) 
e amostras que sobreviveram (ns), de tal modo que o número 
total de componentes é o resultado da soma de sobreviventes 
e falhados no tempo em questão.
Deste modo, sendo a confiabilidade R(t), a probabilidade 
que um item manterá sua função em um determinado momento 
no tempo, temos:
Ou seja, a função Confiabilidade R(t) vem do total de 
amostras menos a Probabilidade de Falhas F(t) do componente 
em questão, portanto:
41ENGENHARIA DA CONFIABILIDADE
Deste modo, após as mencionadas substituições algébricas 
pertinentes, teremosos seguintes resultados:
a. A densidade de falhas f(t) de um item em relação ao tempo 
é descrita pela equação:
b. A taxa de falhas z(t) de um item em relação ao tempo é 
descrita pela equação:
c. E a confiabilidade R(t) pode também ser descrita por:
Analisando um exemplo, as aplicações das equações ante-
riores ficam mais evidentes, supondo que um determinado 
componente teve 300 amostras testadas sob condições de 
sobrecarga até falharem, e os componentes falhados foram 
agrupados em intervalos de tempo de 500 horas (Δt):
Nota-se, pela verificação dos dados acima que, para o 
componente em questão, nos intervalos de tempo observados, 
a Confiabilidade R(t) do item foi diminuindo com o passar do 
tempo, mesmo que seu número de falhas tenha diminuído, pois 
o que interessa é o número de falhas em relação à quantidade 
de produtos e a durabilidade das mesmas.
42ENGENHARIA DA CONFIABILIDADE
Medidas de confiabilidade
Muito mais do que calcular resultados de confiabilidade, 
o que se espera é que estes resultados sejam interpretados de 
acordo com alguns conceitos padronizados, pois caso con-
trário, não há níveis de comparação, visto que os valores são 
adimensionais, o que inviabiliza certas avaliações, em outras 
palavras, é pouco útil dizer que um componente A tem nível de 
confiabilidade 0,8 e outro componente B tem nível de confiabi-
lidade 0,75. De acordo com o que verificamos até o momento, 
a confiabilidade leva em conta o tempo e o cumprimento da 
função esperada, sendo assim, um destes componentes pode ter 
uma confiabilidade de 0,8 em relação a 1.000 h de trabalho e o 
outro componente pode ter nível de confiabilidade de 0,75 em 
relação a 3.000 h de trabalho. Deste modo, a primeira medida 
de confiabilidade é a função confiabilidade do item, ou seja, 
conforme visto na equação (13), podemos dizer:
Esta equação nos mostra que a confiabilidade R(t) de um 
item ou sistema é dada pela probabilidade F(t) que o sistema 
falhará através do tempo t. Nesta equação, T é uma variável 
aleatória que identificará o tempo onde ocorre a falha. Para 
compreender isso, é necessário ter em mente que falha é o estado 
onde o item ou sistema não é capaz de realizar sua função pri-
mária ou requerida (lembrando que é bem diferente de defeito, 
que é uma avaliação subjetiva), sendo que as mesmas podem ser 
classificadas (do ponto de vista dos requisitos de segurança) em 
categorias, de acordo com a norma MIL-STD-822A de 1977:
• Falha catastrófica (Categoria I): morte ou parada do sistema.
• Falha crítica (Categoria II): lesões graves, doença ocupacio-
nal, problemas operacionais ao sistema.
• Falha marginal (Categoria III): lesão secundária, moléstia 
ocupacional ou dano secundário ao sistema.
43ENGENHARIA DA CONFIABILIDADE
• Falha desprezível (Categoria IV): sem lesão ou moléstia 
ocupacional ou dano ao sistema.
Ainda sobre falhas, as mesmas podem ser divididas em 
três tipos:
• Falha prematura: ocorre no início da operação ou uso do 
componente e são decorrentes de erros de projeto (dimen-
sionamento, materiais), uso de componentes de baixo nível 
(no caso de sistemas) ou ainda problemas no processo de 
fabricação (não atendimento às especificações, falhas de 
montagem, processos equivocados, etc.). Usualmente, por 
aparecerem logo, em sistemas que são testados após sua 
fabricação (e muitas vezes utilizando cargas acima dos pa-
drões de uso), acabam sendo detectados antes de chegarem 
ao usuário (testes de final de linha ou pós operação).
• Falha casual: normalmente são frutos de causas especiais, 
complexas e, na sua maioria, desconhecidas pelo projeto ou 
processo produtivo, portanto, não são controláveis e ocorrem 
durante o uso normal do componente ou sistema e dentro 
da vida útil esperada para o mesmo.
• Falhas por desgaste: falhas naturais e esperadas após o com-
ponente ou sistema ultrapassar a vida útil esperada para o 
mesmo, sendo que, quando isso ocorre, a taxa de falhas tende 
a aumentar bruscamente (comportamento mais usual) pois 
o produto, teoricamente, já extrapolou o projetado.
Taxa de falhas
A taxa de falhas descreve a proporção de falhas que um 
item reparável apresenta, ou seja, é o número de falhas para 
cada unidade de operação (tempo). Usualmente é considerada 
fixa e descrita, além da equação (6) já apresentada e também 
pela seguinte equação:
44ENGENHARIA DA CONFIABILIDADE
Se for necessária a avaliação da taxa de falha em relação 
a um tempo específico (que pode ser descrito como [t, t+Δt]), 
utiliza-se a equação:
Exemplo: equipamento apresentou 5 falhas em 1000 horas 
de operação, ou seja, λ = 0,005 (0,005 falhas por hora).
As taxas de falhas possuem comportamento bastante distin-
to em relação ao componente ou sistema as quais estão ligadas. 
Estas taxas de falhas podem ser:
a) Constantes: componentes, principalmente eletrônicos, 
com taxas de falhas constantes costumam ser bastante comuns, 
estas taxas costumam ser observadas após o período de ocor-
rência das falhas iniciais (normalmente 1 ano ou 10.000 horas 
de uso) ou ainda após os produtos passarem por testes de final 
de produção ou após serem alocados em um sistema (chama-
dos também de burn in no caso de componentes eletrônicos). 
Nestes casos, teremos as seguintes equações:
Exemplo: para verificar a vida operacional de um resistor 
foram realizados testes e obtida uma taxa de falha constante 
igual a 4.10-8 falhas por hora, assumindo que, para avaliar a 
confiabilidade, foram realizados testes de 5000 horas em uma 
amostra de 2500 resistores, qual a confiabilidade estimada 
para um padrão de uso de um ano (10.000 horas) e quantos 
resistores se espera que falhem neste processo?
Utilizando as equações (20) e (23), temos:
45ENGENHARIA DA CONFIABILIDADE
b. Linearmente crescente: componentes que apresentam este 
tipo de comportamento usualmente estão sujeitos a desgaste 
ou deterioração, caso típico de componentes mecânicos su-
jeitos ao contato e fricção (cames, válvulas de motor, eixos, 
etc.). Este também é o caso de componentes eletrônicos tipo 
relés (possuem uma atuação mecânica no seu funcionamento). 
Nestes casos, o comportamento destes componentes segue 
as seguintes equações:
c. Linearmente decrescente: a grande maioria dos componen-
tes, tanto mecânicos como eletrônicos, apresentam taxas de 
falhas linearmente decrescentes, estas falhas também são 
chamadas de falhas iniciais e acabam aparecendo no início 
do uso do produto (primeiro ano ou 10.000 horas de uso). 
Usualmente aparecem em virtude de alguma falha de ma-
téria-prima ou processo de fabricação e, de maneira normal, 
fabricantes de equipamentos ou sistemas cujos usuários têm 
como pré-requisitos a confiabilidade dos produtos, que aca-
bam por realizar testes finais nos componentes ou sistemas, 
justamente para este tipo de falha se apresentar, sem enviar 
componentes com possibilidade de falhas para seus clientes, 
46ENGENHARIA DA CONFIABILIDADE
para tanto, costumam utilizar cargas de trabalho momen-
tâneas e com valores acima das cargas estipuladas para uso 
dos produtos (exemplos como: pressões, limites de rotação, 
corrente elétrica acima do especificado para os produtos). 
O comportamento destes componentes em termos de taxa 
de falhas é dado pela equação:
Taxa de falhas z(t)=a-b.t (28)
Onde a e b são constantes que são verificadas de acordo 
com os resultados dos testes do produto. As demais funções 
f(t), F(t) e R(t) são descritas do mesmo modo que as taxas de 
falha linearmente crescentes, no entanto a constante λ dá lugar 
à a e b.
Outros índices de medidas de confiabilidade:
a. Vida esperada: é o tempo no qual se espera que o item ou 
componente mantenha sua função primária ou ainda que 
apresente a performance desejada. A vida esperada E(t) de 
um item é data pala equação:
b. MTTF: (Mean Time To Failure), ou seja, tempo médio para 
falhar, utilizado para descrever o tempo médio que se espera 
que itens não-reparáveis mantenham-se funcionando.
c. MTBF: (Mean Time Between Failures), ou seja,tempo médio 
entre falhas, utilizado para descrever o tempo médio entre 
os intervalos em que itens reparáveis mantenham-se funcio-
nando, relaciona o número de falhas e o tempo transcorrido, 
pode ser calculado pela média de ocorrências no tempo ou 
ainda com base na taxa de falhas, com base na equação (18).
Exemplo: com o mesmo exemplo onde um equipamento 
apresentou 5 falhas em 1000 horas de operação, ou seja, λ = 
0,005 (0,005 falhas por hora) dados do exemplo usado para 
47ENGENHARIA DA CONFIABILIDADE
descrever a taxa de falhas, substituindo os dados na equação, 
teríamos MTBF = 250 horas.
d. MTTR: (Mean Time To Recovery), ou seja, tempo médio para 
recuperar, utilizado para descrever o tempo médio que itens 
reparáveis demoram para ter recobrado seu funcionamento.
e. Risco: também chamada função de risco, é determinada 
pela taxa de falhas de um item em um determinado tempo 
t (ou ainda quando Δt→0), que pode ser determinada pela 
equação:
Itens reparáveis e não reparáveis
O caso mais simples de estudo de confiabilidade se refere 
ao estudo dos itens Não Reparáveis, que são a maioria dos 
casos que exemplificamos até então e também são os mais 
básicos a serem entendidos, sendo assim, os itens Não Repa-
ráveis são aqueles descritos pela grande parte das regras que 
vimos até então, onde a confiabilidade de um item é dada pela 
probabilidade deste item sobreviver ou ainda funcionar em um 
determinado tempo t, ou seja, a confiabilidade do item é a vida 
esperada para o mesmo, deste modo, itens mais confiáveis são 
aqueles que, em comparação a outros nas mesmas condições 
de uso e função, duram mais tempo funcionando, este é o caso 
típico de lâmpadas, resistores, transistores (a grande maioria 
dos componentes eletroeletrônicos) e, inclusive, motores de 
foguete. Em outras palavras, neste tipo de item só vai haver 
uma falha, quando ela ocorrer, o item é, de maneira geral, 
descartado, pois não há “conserto”.
O caso mais complexo dos nossos estudos de confiabilidade 
se dá nos itens considerados Reparáveis (também chamados 
de sistemas), pois são feitos da união de vários componentes e, 
quando um destes falhar, muitas vezes o sistema para como 
um todo, mas isso não quer dizer que o sistema tenha que ser 
48ENGENHARIA DA CONFIABILIDADE
descartado, do contrário, tipicamente estes sistemas podem ser 
“consertados”, ou seja, colocados novamente em funcionamento, 
seja pelo reparo em uma peça ou ainda pela substituição de um 
componente. Nestes casos, como dissemos, um componente 
“dentro” do sistema falha, muitas vezes fazendo com que o 
sistema todo perca a função (ou seja, falhe também), mas isso 
não significa que todos os componentes internos falharam, 
é o caso de “renovar ou recuperar” a função do sistema, por 
exemplo, substituindo o componente falhado. Usualmente, de 
maneira simplória, sistema Reparáveis são constituídos de uma 
série de componentes Não Reparáveis, este é o caso típico de 
computadores, máquinas operatrizes, automóveis, aviões, eletro-
domésticos, etc. No caso de itens Reparáveis, a confiabilidade 
dos mesmos é expressa pela probabilidade deste sistema não 
falhar e um determinado período de interesse ou uso, como 
por exemplo, de um avião espera-se mais do que não falhe 
durante o período que está voando, espera-se que o mesmo se 
mantenha funcionando por uma determinada quantidade de 
horas contínuas de uso até que seja necessária uma intervenção 
(reparo). Portanto, a confiabilidade de um item Reparável é 
expressa pelo seu MTBF (desde que a taxa de falhas possa ser 
considerada constante).
Para fins de conhecimento, existem casos especiais onde o 
item pode ser considerado Reparável e Não Reparável, como 
o caso dos foguetes, que são considerados reparáveis durante 
seus períodos de avaliação, testes, etc., mas quando lançado 
torna-se Não Reparável, pois sua operação é tão severa que 
descarta praticamente todo e qualquer reparo para que a mesma 
seja realizada novamente de maneira correta e segura.
49ENGENHARIA DA CONFIABILIDADE
Confiabilidade em sistemas mecânicos
Um caso que merece uma atenção para compreensão dife-
renciada são os componentes mecânicos que, em sua maioria 
podem ser considerados reparáveis, no entanto, usualmente, os 
mesmos quando falham têm estas ocorrências em virtude de 
fatores de sobrecargas ou degradação. Na grande maioria das 
aplicações, os projetos mecânicos através de dimensionamento, 
coeficientes de segurança, etc., já acabam por prever algum tipo 
de uso acima dos limites especificados e situações do gênero. 
Sendo assim, cabe ressaltar algumas questões específicas sobre 
estes dois casos:
a. Sobrecargas: usualmente as sobrecargas em sistemas mecâ-
nicos acabam culminando na fratura dos mesmos, que são 
causadas pelo rompimento dos limites coesivos intermole-
culares ou intercristalinos em virtude das tensões aplicadas 
ao componente em questão, a mesma pode ocorrer após a 
deformação plástica inicial do material, que resultam em 
baixas taxas de propagação na estrutura do material, chama-
das de fratura dúctil, ou podem ser resultantes de rupturas 
rápidas e repentinas, chamadas de fraturas frágeis e ambas 
são resultado de concentrações de tensões entorno de im-
perfeições do material (trincas, desalinhamentos de estrutura 
do material, inclusões, rugosidade alta, etc.). Como, normal-
mente, é muito difícil saber como está exatamente a estrutura 
interna do material, é um tanto complicado de prever com 
alto nível de precisão quando a fratura ocorrerá, pois estas 
podem sofrer interferência da temperatura ambiente, visto 
que sistemas mecânicos são dimensionados observando as 
características típicas de resistência dos materiais, mas estes 
valores são obtidos de corpos de prova que são ensaiados 
em condições controladas. Além disso, em certos momen-
tos, os sistemas mecânicos são submetidos a cargas altas e 
50ENGENHARIA DA CONFIABILIDADE
repentinas, que não permitem aos materiais entrarem em 
suas fases plásticas (onde tendem a absorver tensões), por 
isso a ruptura. Neste sentido, tornam-se necessários testes 
do produto final na condição de uso, mesmo sem a previsão 
de alguma situação, portanto, é muito usual a utilização de 
coeficientes de segurança nos projetos de sistemas mecânicos 
e é neste ponto que o conhecimento e a validação de projetos 
se mostra importante, pois altos coeficientes de segurança 
tendem a aumentar a massa do produto, custo, etc.
b. Degradação da resistência: de efeito diferente da sobrecarga, 
a degradação dos componentes mecânicos ocorre em vir-
tude de desgaste de materiais (atrito, contato, que acabam 
por causar remoção de material do componente), corrosão 
(degradação química do material, usualmente iniciada por 
oxidação ou processo galvânico e que pode ser acelerada de-
vida a fatores ambientais, tais como salinidade ou umidade) e 
fadiga (tensões cíclicas e críticas, repetidamente aplicadas ao 
componente, mesmo sendo inferiores ao limite de resistência 
do material mas, em virtude destas condições de repetição, 
estrutura interna do material, etc., acabam por se agravar e 
levar o componente à ruptura). Os casos de degradação da 
resistência acabam sendo tratados na fase de projeto com 
a previsão de mecanismos e situações de lubrificação (para 
os casos de desgaste), proteção superficial (para os casos de 
corrosão) e observação de formatos e dimensionamento 
(para os casos de fadiga).
51ENGENHARIA DA CONFIABILIDADE
SÍNTESE
Neste capítulo fizemos uma revisão sobre alguns conceitos de probabilidade e verificamos 
algumas das distribuições estatísticas mais utilizadas em Confiabilidade, bem como verifi-
camos o cálculo de confiabilidade de maneira geral, as diferenças entre população, amostra, 
variáveis discretas e contínuas, itens reparáveis e não reparáveis e verificamos alguns detalhes 
específicos de efeitos em sistemas mecânicos.
52ENGENHARIA DA CONFIABILIDADE
EXERCÍCIOS
1. O que difere amostra de população? Qual a relevância estatística desteconceito?
2. Defina situações do seu convívio, que são determinadas por variáveis discretas e por variáveis contínuas.
3. Cite 5 itens reparáveis e 5 itens não reparáveis com os quais você tem contato na sua vida pessoal ou no âmbito do seu exer-
cício profissional?
4. O que significa, de maneira geral, quando um produto passa a ter, durante seu uso, taxas de falhas crescentes?
5. Por que a maioria dos sistemas mecânicos estão sujeitos a taxas de falhas diferentes ao longo de sua vida, enquanto sistemas 
eletrônicos são considerados constantes neste sentido?
53ENGENHARIA DA CONFIABILIDADE
ANÁLISE DA 
CAPACIDADE DE 
PROCESSOS
Como saber se um processo é confiável? 
Como prever o número de problemas 
decorrentes dos produtos do meu processo?
54ENGENHARIA DA CONFIABILIDADE
Citamos anteriormente que muitas são as aplicações dos 
estudos de confiabilidade. Uma das aplicações mais utilizadas 
na indústria é a análise da capacidade dos processos, principal-
mente por parte das empresas que são fornecedoras na cadeia 
automotiva, visto que a cadeia necessita de produtos que aten-
dam rigidamente suas especificações, caso contrário, estarão 
em desacordo com as definições de projeto e podem incorrer, 
com isso, em perda da confiabilidade dos seus produtos. Des-
te modo, começamos a compreender que, em relação a este 
conceito, a capacidade dos processos não necessariamente leva 
em conta o volume possível de produzir, mas sim a capacidade 
que o processo tem de produzir componentes de acordo com 
o especificado.
A preocupação com o tema é tanta que, há alguns anos, 
um grupo formado pelas montadoras Daimler Chrysler Cor-
poration, Ford Motor Company e General Motors Corporation 
denominado IATF, International Automotive Task Force pro-
duziu uma série de manuais, entre eles, um manual que trata 
única e exclusivamente de Controle Estatístico de Processos 
(CEP), o qual inclui o tema de avaliação da capacidade dos 
processos. Estes manuais, atualmente, já existem traduzidos 
em português e são de uso obrigatório em toda a cadeia de 
fornecimento destas três montadoras, também são adotados por 
uma grande parte das demais, portanto, aqui comentaremos 
sobre o tema e estaremos nos baseando diretamente no manual 
de referência de Controle Estatístico de Processos, segunda 
edição, de julho de 2005 (mais atual).
A abordagem do controle estatístico de processo se justifica, 
principalmente nos dias atuais, pela compreensão de que, se 
os processos produzem produtos com defeito, estes produtos 
gerarão desperdícios em termos de matéria-prima, mão de obra 
e insumos relacionados ao fato de produzirem peças e produtos 
que não poderão ser utilizados (e serão descartados) ou pelo fato 
de gerarem produtos que necessitarão de mais valor agregado 
55ENGENHARIA DA CONFIABILIDADE
em termos de operações, a fim de atingirem suas especificações. 
Compreendendo isso, torna-se um tanto óbvio que a melhor 
maneira de não termos produtos com defeito é ter certeza que 
os mesmos não serão produzidos fora das especificações, esta 
medida se justifica pelos fatos anteriormente citados e também 
pela redução de custos com inspeções, tempo de processamen-
to das mesmas, mão de obra relacionada, equipamentos, etc., 
sendo assim, o CEP existe como uma estratégia preventiva.
O intuito aqui não é tratar do CEP na íntegra, mas revisar 
uma das abordagens ligadas ao mesmo, que acaba atrelada à 
certeza de que não serão produzidas peças com defeito, ou seja, 
que o processo tem um nível de confiabilidade aceitável e que, 
neste momento, passamos a tratar este nível de confiabilidade 
de processo com a palavra Capabilidade, que não é uma palavra 
correta na Língua Portuguesa, na verdade é um termo técnico 
que tem origem na palavra em inglês Capability, que teria sua 
melhor tradução como Capacidade (daí o fato de analisarmos 
a “capacidade” dos processos), mas o termo é facilmente con-
fundido na nossa linguagem com as questões de volume de 
produção, torna-se corriqueiro o uso da palavra Capabilidade 
para designar a confiabilidade dos processos produtivos.
Assim como a falta de confiabilidade em componentes vêm 
da sua probabilidade de perder a função (falhar), que tem suas 
causas atreladas a defeitos de fabricação, tais como defeitos de 
materiais, de mão de obra, defeitos de maquinário, insumos, etc., 
os processos têm sua falta de confiabilidade atrelada a fatores 
muito próximos e que são chamados de fontes de variação ou 
variabilidade dos processos. Aqui, devemos tomar cuidado com 
um detalhe, as falhas em componentes têm inúmeras causas 
e, dentre elas, estão os defeitos de processos produtivos, que 
culminará com a falha de componentes, subsistemas e sistemas. 
No caso que estamos tratando agora, a busca é justamente pelo 
controle sobre as causas de variação dos processos produtivos, 
que não serão denotadas pela falha de componentes, pois muitas 
vezes não temos como verificar o uso do mesmo, mas sim, as 
falhas que estão atreladas a atender as necessidades técnicas 
56ENGENHARIA DA CONFIABILIDADE
destes produtos, ou seja, produzir os produtos de acordo com as 
especificações. Note, que neste momento, não podemos entrar 
no mérito se a especificação está correta ou não, ou ainda se 
o produto final falhará ou não, e sim estamos verificando se 
atendemos o que foi projetado ou estipulado e nesta visão não 
utilizamos o produto, e sim, verificamos requisitos tais como 
medidas, aspectos de uso de materiais, aparência, etc.
Para que possamos compreender esta medida de confiabi-
lidade, também precisamos entender a diferença entre inspeção 
e controle estatístico. Na situação de inspeção, os produtos são 
verificados em relação a algumas características (como já citadas, 
medidas, aparência, uso correto de material, etc.), produtos são 
rejeitados se estão em desacordo com as especificações, mesmo 
que estejam no limiar das mesmas, como por exemplo, uma 
determinada pela usinada tem uma característica especificada 
como 50,8 mm, variando dentro de um limite de tolerância de 
0,1 mm tanto para mais quanto para menos do que a medida 
especificada, ou seja, se a peça estiver com 50,7 mm ela está 
aprovada (medidas menores que isso, a mesma está rejeitada) e 
se estiver com 50,9 mm a peça também está aprovada (medidas 
maiores que isso, a mesma está rejeitada), isso é chamado de 
Desempenho do Processo e, para se ter certeza que o produto 
está correto, deveríamos inspecionar esta medida em 100% das 
peças, o que muitas vezes torna-se impraticável, visto que em 
alguns casos estamos tratando de volumes de produção enormes 
ou ainda de métodos de inspeção que não incomumente, são 
mais demorados do que a própria produção da peça.
No caso do controle estatístico, mais especificamente em 
relação ao que mais no interessa neste estudo de confiabilida-
de, que é a Capabilidade do processo, a ideia é verificar uma 
amostra de peças significativas do processo, que possam nos 
indicar em relação à população total produzida sob determinadas 
condições, qual a margem de folga em relação à especificação e 
o processo que está sendo produzido à peça em questão, ou seja, 
qual o grau de certeza (ou de confiabilidade) que podemos ter 
de que este processo não produzirá peças fora da especificação, 
57ENGENHARIA DA CONFIABILIDADE
em outras palavras, qual será a probabilidade do processo não 
produzir peças com defeito. Note que, quanto mais limiar às 
minhas especificações o processo produzir, menor o grau de 
confiabilidade teremos dele, mesmo a peça estando de acordo 
com as especificações, pois a margem para um eventual erro é 
muito baixa. Tomando o exemplo anterior, o processo gerando 
peças que estejam entre 50,75mm e 50,85mm é mais confiável 
(existe mais folga em relação à especificação) do que se estiver 
gerando peças entre 50,7 e 50,9, pois estão no limite da espe-
cificação, mesmo estando corretas.
Segundo AIAG (2005 p.19), a Capabilidade de Processo 
é determinada pela variação que vem das causascomuns. Ela 
geralmente representa o melhor desempenho do próprio proces-
so. Isso é demonstrado quando o processo está sendo operado 
sob controle estatístico, independentemente das especificações, 
portanto, para um processo ser aceitável, o mesmo deve estar 
sob um estado de controle estatístico de processo, ou seja, as 
variações do mesmo são somente fruto de causas comuns, e 
a Capabilidade do processo deve ser menor que a tolerância 
estabelecida para o mesmo. 
58ENGENHARIA DA CONFIABILIDADE
Cálculo da capabilidade
Conforme mencionamos anteriormente, para cálculos de 
confiabilidade verificamos amostras significativas para fim de 
determinarmos a probabilidade em relação ao comportamento 
da população, então, primeiramente, compreender qual seria 
uma amostra significativa. Segundo Shewart (1931), uma 
amostra significativa é determinada pelo resultado da seguinte 
equação:
Nesta equação:
S = tamanho da amostragem significativa
n = tamanho total da amostra de produtos
Conforme já comentamos, só podemos verificar a Capa-
bilidade de um processo se o mesmo estiver sob controle, caso 
contrário, o resultado será inválido. Sendo assim, a primeira 
medida a ser verificada é o desempenho ou Performance do 
Processo, denominadas aqui como Pp e Ppk. Para fins de com-
preensão, Pp é o desempenho do processo independentemente 
de sua centralização, ou seja, indicará quanto o processo está 
dentro dos limites de especificação. O índice Ppk já leva em 
conta, além da performance geral do processo Pp, o quanto 
o processo também está centralizado em relação à sua média, 
ou seja, se um processo tem limites inferiores e superiores de 
especificação, vão haver dois cálculos de Pp, chamados de Ppu 
para os limites superiores de especificação e Ppl para os limites 
inferiores de especificação. Se o processo é unilateral, ou seja, 
só tem tolerância superior ou inferior, utiliza-se somente um 
dos mesmos. O índice Ppk será o menor entre Ppu e Ppl. Outro 
fato importante é que a média do processo esteja centralizada 
em relação à medida nominal desejada para o mesmo. Deste 
modo, utilizando os dados já explicados nas equações (4) e (5), 
teremos o seguinte:
59ENGENHARIA DA CONFIABILIDADE
Nesta equação:
Pp = performance geral do processo
LSE = Limite superior de especificação
LIE = Limite inferior de especificação
s = desvio padrão do processo - ver equação (5) 
x = média do processo – ver equação (4)
Ppu = performance superior do processo
Ppl = performance inferior do processo
Ppk = performance do processo centrado
A definição, se a performance do processo fosse conside-
rada adequada ou não, é bastante particular de cada empresa 
ou relação cliente/fornecedor, um índice bastante considerado 
na indústria automotiva é de Pp = 2,00 e Ppk = 1,66.
Entendido o desempenho do processo (amostral) e consi-
derado aceitável, podemos partir à compreensão da Capacidade 
do Processo, a qual já denominada Capabilidade, que será 
definida pelos índices Cp e Cpk. Estatisticamente falando, o 
que muda entre os cálculos do desempenho e da capacidade é 
que o primeiro se utiliza do desvio padrão amostral calculado 
em relação aos resultados obtidos no processo e o segundo será 
utilizado no cálculo de um desvio padrão populacional que é 
estabelecido conforme tabelas estatísticas. De maneira análoga 
ao cálculo de performance, a capacidade geral do processo Cp 
não leva em conta a centralização do mesmo e a capacidade do 
processo centrado Cpk leva em conta a centralização, ou seja, 
o quanto o processo produz em torno da especificação. Sendo 
assim, teremos as seguintes equações:
60ENGENHARIA DA CONFIABILIDADE
Nesta equação:
Cp = capacidade geral do processo
LSE = Limite Superior de Especificação
LIE = Limite Inferior de Especificação
R = amplitude média do processo 
d2 = constante tabelada (ver anexos no final do ebook)
x = média do processo – ver equação (4)
Cpu = capacidade superior do processo
Cpl = capacidade inferior do processo
Cpk = capacidade do processo centrado
Uma observação sobre a amplitude média R é que esta é a 
média entre as amplitudes R dos subgrupos, sendo estes, coletas 
de dados em grupos sugeridos de 20 a 25 amostras, coletadas 
no processo após satisfazer a condição de performance. Con-
forme AIAG (2005 p.185), para um processo de verificação 
suficiente, devem ser coletadas, no mínimo 125 amostras divi-
didas em subgrupos, utilizando o valor de 5 como o tamanho 
do subgrupo (ou seja, d2 = 2,326).
 Valores tipicamente aceitáveis de Capabilidade de Processo 
são definidos como Cp = 1,66 e Cpk 1,33.
Como exemplo, baseado no manual do AIAG (2005), temos 
a verificação de 125 peças de um diâmetro nominal de 22,5 
+/-1 mm, para os quais foram coletados os seguintes valores:
61ENGENHARIA DA CONFIABILIDADE
Nº peça Diâmetro Nº peça Diâmetro Nº peça Diâmetro Nº peça Diâmetro Nº peça Diâmetro
1 22,30 26 22,37 51 22,28 76 22,65 101 22,48
2 22,54 27 22,34 52 22,55 77 22,50 102 22,38
3 22,01 28 22,75 53 22,38 78 22,41 103 22,28
4 22,62 29 22,71 54 22,65 79 22,39 104 22,72
5 22,65 30 22,51 55 22,56 80 22,48 105 22,96
6 22,86 31 22,23 56 22,54 81 22,50 106 22,53
7 22,68 32 22,36 57 22,25 82 22,86 107 22,52
8 22,43 33 22,90 58 22,40 83 22,60 108 22,61
9 22,58 34 22,45 59 22,72 84 22,60 109 22,62
10 22,73 35 22,48 60 22,90 85 22,66 110 22,60
11 22,88 36 22,60 61 22,31 86 22,79 111 22,54
12 22,68 37 22,72 62 22,57 87 22,61 112 22,56
13 22,46 38 22,35 63 22,38 88 22,81 113 22,36
14 22,30 39 22,51 64 22,58 89 22,66 114 22,46
15 22,61 40 22,69 65 22,30 90 22,37 115 22,71
16 22,44 41 22,61 66 22,42 91 22,65 116 22,84
17 22,66 42 22,52 67 22,21 92 22,75 117 22,52
18 22,48 43 22,52 68 22,45 93 21,92 118 22,88
19 22,37 44 22,49 69 22,24 94 22,00 119 22,68
20 22,56 45 22,31 70 22,55 95 22,45 120 22,54
21 22,59 46 22,42 71 22,25 96 22,51 121 22,76
22 22,65 47 22,64 72 22,36 97 22,58 122 22,65
23 22,78 48 22,52 73 22,25 98 22,46 123 22,51
24 22,58 49 22,40 74 22,34 99 22,76 124 22,77
25 22,33 50 22,63 75 22,67 100 22,56 125 22,73
Tendo os valores, conseguimos estabelecer:
Desvio padrão da amostra s (equação (5)) = 0,18927
Média da amostra x = 22,53
Pp (equação (32)) = 1,76
Ppk (equações (33), (34) e (35)) = 1,7
Cp (equação (36)) = 1,68
Cpk (equações (37), (38) e (39)) = 1,63
Visto os valores calculados no nosso exemplo, o índice de 
performance do processo será de 1,7 e o índice de capacidade do 
processo será 1,63, ou seja, se os valores fossem uma amostra de 
um momento de produção, este resultado demonstrou uma per-
formance de 1,7. Se utilizássemos estes valores para projetar para 
a população, o resultado nos mostraria uma capacidade de 1,63. 
62ENGENHARIA DA CONFIABILIDADE
Probabilidade de falhas
Os processos costumeiramente são medidos, principalmente 
como já mencionamos pela indústria automotiva, através de 
seus índices de capacidade, ou seja, pela sua Capabilidade. Este 
índice demonstrará a confiabilidade do processo em questão, 
mas este índice também pode demonstrar a probabilidade do 
processo gerar peças com defeito, geralmente expresso em 
partes por milhão (ppm), que pode ser verificado na tabela:
Confiabilidade de verificação por atributos
Não invariavelmente os resultados de processos, ao invés 
de serem “medidos” com algum instrumento cujos valores são 
entendidos como variáveis contínuas, se utilizam de medições 
por atributos cujas variáveis são entendidas como discretas. 
Os exemplos mais comuns são conta da utilização de padrões 
de medidas que são facilmente utilizados e cujos resultados 
são rapidamente interpretados pelos operadores ou inspetores 
nos processos, sendo assim, padrões do tipo Passa-Não Passa 
(Go-No Go Gages) são adotados largamente em uma série de 
processos produtivos. Tais resultados não necessitam de nível 
de precisão ou verificação de tolerâncias, eles simplesmente 
precisam ser decididos, se a peça está ou não em desacordo 
com um determinado parâmetro, ou seja, existe a necessidade 
de rapidamente separarpeças conformes e não-conformes.
Sendo esses resultados discretos e, usualmente, formados 
por apenas dois resultados possíveis do tipo aprovado/repro-
Cpk Sigma ppm Cpk Sigma ppm Cpk Sigma ppm
0.47 - 161,51 0.87 - 9,322 1.27 - 145
0.50 1.50 133,61 0.90 - 6,934 1.30 - 98
0.53 - 109,6 0.93 - 5,11 1.33 4.00 64
0.57 - 89,13 0.97 - 3,732 1.37 - 41
0.60 - 71,96 1.00 3.00 2,7 1.40 - 27
0.63 - 57,43 1.03 - 1,935 1.43 - 17
0.67 - 45,5 1.07 - 1,374 1.47 - 11
0.70 - 35,73 1.10 - 967 1.50 4.50 7
0.73 - 27,81 1.13 - 674 1.53 - 4
0.77 - 21,45 1.16 ~3.50 465 1.57 - 3
0.80 - 16,4 1.20 - 318 1.60 ~5.00 0.5
0.83 - 12,42 1.23 - 216 2.00 6.00 0.00198
63ENGENHARIA DA CONFIABILIDADE
vado, conforme/não conforme, e assim por diante, não existe 
a necessidade do uso de uma distribuição do tipo normal, pois 
tais dados não variarão em torno de uma medida. Posto isso 
e visto os tipos de distribuições que verificamos nos capítulos 
anteriores, os resultados de processos deste tipo serão muito me-
lhor compreendidos através do uso de distribuições binomiais.
Nestes casos, as medidas comuns para uso em processo são 
determinadas, incialmente, a partir do conhecimento da propor-
ção de itens não-conforme, que pode ser expressa pela equação:
Nesta equação:
pi = proporção de itens não conforme
npi = número de peças encontradas como não conforme
ni = número total de peças verificadas
Entendendo que podemos fazer esta análise um número 
i de vezes, sendo que, quanto mais grupos de medidas reali-
zarmos, mais confiável será o resultado, ou ainda, melhor será 
o entendimento dos reais resultados demonstrados por um 
processo. Muito importante lembrar que tal verificação deve 
ser levada em conta para avaliação de capacidade do processo 
64ENGENHARIA DA CONFIABILIDADE
(e não somente performance momentânea), somente quando 
o processo já estiver conhecidamente estável, ou seja, livre de 
situações de causas pontuais de falhas. A média do resultado 
das várias verificações de performance do processo será a pro-
porção média de falhas p.
Sabendo a proporção de peças falhadas, o índice de ca-
pacidade de processo pode ser definido conforme a equação:
Em um exemplo simples, os resultados de diferentes amos-
tras de um determinado processo demonstraram os seguintes 
resultados:
Visto os dados, teríamos as seguintes proporções de itens 
não-conforme utilizando a equação (40):
Deste modo, teríamos um p = 0,0177 o qual, substituindo 
na equação (41) nos traz o resultado:
No exemplo mostrado acima, o processo tem índices de 
performance que resultam em uma capacidade de 98,23%.
Nº da amostra Nº peças verificadas Nº peças não-conforme
1 2300 45
2 3450 58
3 1784 34
4 2866 47
65ENGENHARIA DA CONFIABILIDADE
SÍNTESE
Neste capítulo verificamos a aplicabilidade e a importância dos conceitos de confiabilidade 
na análise de sistemas produtivos, o qual chamamos de Capacidade de Processos ou ainda 
Capabilidade e sua inf luência no resultado dos processos.
66ENGENHARIA DA CONFIABILIDADE
EXERCÍCIOS
1. Qual a diferença entre inspeção e controle estatístico de processos?
2. Qual a diferença entre performance e capacidade de processos?
3. O que significa um processo com alto índice de Capabilidade?
4. Qual a inf luência da capacidade de processos no volume de peças rejeitadas pelo mesmo?
5. Em alguma situação do seu cotidiano, estes conceitos seriam aplicáveis?
67ENGENHARIA DA CONFIABILIDADE
CONFIABILIDADE 
DE SISTEMAS DE 
MEDIÇÃO
Você sabe que as medições não são exatas? O 
quanto você pode confiar no seu sistema de 
medição?
68ENGENHARIA DA CONFIABILIDADE
Anteriormente, comentamos sobre a confiabilidade de sis-
temas de produção, ou ainda, sobre a capacidade dos processos, 
que define o quanto um processo é confiável em termos de 
resultado, ou ainda, quantos produtos gerados neste processo 
podemos esperar em situação de não-conformidade. Esta ve-
rificação está intimamente ligada aos resultados das inspeções 
em peças, ou seja, estes resultados estão extremamente ligados 
ao sistema de medição utilizado no processo. Posto isso, nos 
vem a seguinte questão, o quanto os resultados das medições 
realizadas são corretos, ou ainda, qual o nível de confiabilidade 
do sistema de medição?
Se entendêssemos que os instrumentos de medição são 
produzidos em um processo qualquer, poderíamos compreender 
que os mesmos também estão sujeitos às eventuais falhas destes 
processos. Neste sentido, existem processos de calibrações de 
instrumentos que buscam verificar e, eventualmente, ajustar 
estes instrumentos para estarem de acordo com um determi-
nado padrão que será estabelecido de diferentes formas. De 
qualquer forma, este padrão também não é exato, pois existe 
algum nível de imprecisão relacionado ao padrão universal 
da característica em questão. Juntando tudo isso, a calibração 
dos instrumentos tem um fator atrelado chamado Incerteza de 
Medição, que demonstra o erro que o instrumento ou padrão 
em questão tem em relação ao padrão universal e, quando essa 
somatória de erros do instrumento com a incerteza atinge um 
determinado critério definido para o processo, o instrumento 
está reprovado. Sendo assim, já existe um erro associado a 
própria calibração que, por melhor que seja, apresentará uma 
certa distorção entre o instrumento e o padrão universal.
69ENGENHARIA DA CONFIABILIDADE
Não bastasse isso, compreendendo que os instrumentos 
de medição são equipamentos, os mesmos também podem 
ter distorções associadas à sua operação, seja por repetição de 
resultados, seja pelo seu posicionamento junto ao produto que 
está sendo medido, seja pela facilidade/dificuldade de leitura 
e interpretação dos resultados, seja pela habilidade/conheci-
mento da pessoa que está operando o instrumento, aliado a 
isso, podemos acrescentar variações de temperatura, umidade, 
vibrações, ruídos, luminosidade, enfim, por mais que não pareça 
em primeiro momento, existe sim um grande erro associado 
ao uso de instrumentos de medição e é muito importante para 
o processo conhecer justamente o quanto é este erro.
Neste sentido, dentre os manuais publicados pelo IAFT, 
conforme explicado anteriormente, existe um exclusivamente 
dedicado à análise do sistema de medição do processo, deno-
minado MAS (Measurement System Analisys), o qual está 
atualmente na sua 4ª edição desde 2010. O intuito do MAS 
é, basicamente, definir o nível de confiança do sistema de 
medição que está sendo estudado, pois conhecendo este nível 
de confiança, é possível estabelecer o quanto do processo está 
sendo inf luenciado pelo mesmo. Imagine que, de maneira 
geral, em um processo considerado estável existem peças que 
estão de acordo com as especificações (região verde na figura a 
seguir) e peças que estão não-conformes (em desacordo com as 
especificações, região vermelha da figura), mas dependendo do 
nível de certeza conhecido dos resultados do sistema produti-
vo, podemos acrescentar ainda, neste meio, peças que parecem 
estar em acordo com as especificações mas não estão e, ainda, 
peças que parecem estar em desacordo com as especificações, 
mas efetivamente não estão (ambas representadas pela região 
em amarelo na figura). Quanto mais confiável for o sistema 
de medição, menor será essa “zona de incerteza” (amarela):
70ENGENHARIA DA CONFIABILIDADE
Neste ebook, não discutiremos toda a sistemática de análise 
do sistema de medição por se tratar de assunto abordado em 
outros momentos, visto que a análise completa é bastante ex-
tensa. Nosso intuito é demonstrar a aplicação dos conceitos de 
confiabilidade e relação ao processo de medição e quanto isso 
pode afetar o grau de confiança sobre os resultados do processo.
Análise de discriminação
Primeiramente, cabe a ressalva em relação à questão da 
análise de Discriminação do Sistema de Medição, pois é bem 
possível realizar uma série de medições em um produto qual-
quer, utilizando uma infinidade de instrumentos de medição 
diferentes. Neste caso, a Análise de Discriminaçãotrata, ba-
sicamente, de verificar se, em utilizando o instrumento em 
estudo, o mesmo possibilita a verificação correta da característica 
que está verificando. Em outras palavras, para verificar uma 
determinada medida e sua tolerância, o instrumento tem que 
ser capaz de “ler” esta medida, isso é chamado de resolução do 
instrumento. Um exemplo seria, para verificar um diâmetro 
usinado de 10,00 mm com tolerância para mais e para menos 
de 0,02 mm, o instrumento deveria ter uma resolução que 
permita ao usuário, justamente averiguar variações em torno 
dos 0,02 mm. Em termos práticos, costuma-se indicar que a 
resolução do instrumento seja, pelo menos de 1/10 em relação 
ao intervalo de medida que está sendo verificado. Voltando ao 
nosso exemplo, o diâmetro em questão tendo uma tolerância 
para mais ou para menos de 0,02 mm, o intervalo de medida a 
ser verificado é de, no mínimo, 0,04 mm, sendo assim, o ins-
trumento de medição deveria verificar variações de 0,004 mm. 
Repetibilidade e reprodutibilidade
As características de repetibilidade e reprodutibilidade 
do sistema de medição são as que demonstram justamente a 
variação do sistema e, sendo confiabilidade uma verificação e 
o nível de certeza em relação à variabilidade do sistema, estes 
serão os assuntos que demonstraremos.
71ENGENHARIA DA CONFIABILIDADE
Para avaliar os parâmetros de repetibilidade e reproduti-
bilidade do sistema de medição, primeiramente, deverão ser 
coletadas amostras de peças realizadas no processo produtivo. 
Estas peças serão verificadas utilizando exatamente o instru-
mento de medição que se quer avaliar em relação ao processo 
e, quanto mais fiel à realidade do processo for a operação de 
medição, maior a certeza dos resultados que serão verifica-
dos, ou seja, a verificação não deveria ser feita em condições 
idealizadas, tais como em um laboratório, com temperatura 
controlada, peças climatizadas, em uma bancada de iluminação 
diferente da utilizada no processo, instrumentos em condições 
diferentes, etc. Importante também, que todas as amostras que 
serão avaliadas estejam nas mesmas condições, ou seja, deve-se 
evitar ao máximo comparar o sistema de medição em condições 
diferenciadas (dia e noite, calor e frio, etc.), evitando inserir 
mais componentes de variação. Dentre as condições de igual-
dade está a escolha de pessoas que costumeiramente realizem 
tais tipos de medições no processo produtivo.
A ideia em torno dos conceitos de repetitividade e repro-
dutibilidade conforme AIAG (2010) são:
a. Repetitividade: apontará a variação nas medidas obtidas com 
um instrumento de medição, quando usado várias vezes por 
um mesmo avaliador, medindo a mesma característica em 
uma mesma peça.
72ENGENHARIA DA CONFIABILIDADE
b. Reprodutibilidade: apontará a variação na média das me-
didas feitas por diferentes avaliadores, utilizando o mesmo 
instrumento de medição medindo mesma característica nas 
mesmas peças.
c. Índice de R&R: é uma estimativa da variação combinada 
da repetitividade e da reprodutibilidade. Isto é, o R&R é a 
variância resultante da soma das variâncias dentro do sistema 
e entre sistemas.
Processo de coleta de valores
Conforme já comentamos, serão necessárias amostras que 
representem o processo em sua condição estável, sendo que 
este número de amostras usualmente é de 10 peças. Também 
serão necessárias pessoas que realizem, usualmente, medições 
similares no processo em questão, que normalmente são em 
número de 3 inspetores, da seguinte forma: 
• As peças a serem medidas devem ser numeradas de alguma 
forma (de preferência que esta marcação não seja conhecida 
pelos inspetores).
• A medição deve ser realizada 3 vezes em cada peça, por cada 
um dos inspetores.
• Esta medição não deve ser repetida 3 vezes, na mesma peça, 
no mesmo momento.
• O normal é que sejam medidas as peças de 1 a 10 por cada 
um dos inspetores, depois medidas as peças de número 10 
até 1 (ordem invertida) pelos 3 inspetores e, por fim, medidas 
em ordem aleatória pelos 3 inspetores, por exemplo, peça 
de números 1, 3, 5, 7, 9, 2, 4, 6, 8 e 10. 
Este processo é interessante para evitar que os resultados 
sejam “memorizados”. Ao final, deverão existir 90 medidas, 
sendo 3 medidas de cada peça por cada um dos 3 inspetores.
73ENGENHARIA DA CONFIABILIDADE
Cálculo de repetitividade
Existem diversas formas e métodos para cálculo da repe-
titividade, cada qual com seu nível de complexidade e tipo de 
resultados demonstrados. A escolha do método dependerá do 
tipo do sistema de medição utilizado e, claro, familiaridade 
com a sistemática e nível de precisão requerido. A sistemática 
que demonstraremos é a mais difundida, chamada Método 
da Média e Amplitude, conforme definido em AIAG (2010), 
da mesma forma que existe como demonstrar graficamente 
os resultados do estudo, mas este não será o objeto da nossa 
demonstração, e sim indicar numericamente o quanto o sistema 
de medição pode inf luenciar na confiabilidade do processo 
produtivo.
Com os valores das medições colocados em uma tabela, 
sendo que estes valores podem simplesmente ser as diferenças 
entre o valor nominal da característica que está sendo analisada 
e o valor encontrado, como por exemplo, se a característica 
for um diâmetro de 12,5mm e a medida encontrada for de 
12,62mm, o valor apresentado pode ser somente a diferença 
entre eles, ou seja, 0,12mm (valores abaixo do valor nominal 
são expressos como números negativos). Estes valores são co-
locados alinhados demonstrando os três inspetores e as três 
medidas de cada inspetor para cada peça.
Com base nos valores encontrados, calcula-se o valor médio 
que cada inspetor encontrou em cada peça (soma-se todos e 
divide-se por três) e a amplitude entre estes valores (a diferen-
ça entre o maior e o menor valor encontrado). São calculadas 
também as médias entre os valores médios encontrados (média 
das médias) e a amplitude entre seus valores (Amplitude da 
Média das Peças - Rp), a média entre as amplitudes (Amplitude 
Média das Tentativas - Rmed ou R) e seu limite normalizado 
(Limite Ampl. Tentativas – UCLr, que é o resultado de Rmed 
multiplicado pelo coeficiente normalizado 2,58 para uso de 3 
tentativas de cada inspetor) e, por fim, a média entre as am-
plitudes de cada inspetor (Amplitude das Médias – x_dif).
74ENGENHARIA DA CONFIABILIDADE
Com estes resultados, é possível calcular a Variação do 
Equipamento (EV), também chamado de Repetitividade, que 
é dado pela seguinte equação:
Nesta equação:
EV = Variação do equipamento
R = Amplitude média das tentativas
K1 = Coeficiente normalizado 0,5908 para uso de 3 ten-
tativas por inspetor
Cálculo de reprodutibilidade
Dando segmento ao cálculo de repetitividade e utilizando 
os valores calculados e demonstrados anteriormente, podemos 
calcular a Variação das Amostras (AV), também chamada de 
reprodutibilidade, dada pela seguinte equação:
Nesta equação:
AV = Variação das amostras
Xdif = Amplitude das médias
K2 = Coeficiente normalizado 0,5231 para uso de 3 ins-
petores
EV = Variação do equipamento
nr = multiplicação do número de peças vezes o número de 
tentativas (30 no nosso caso).
75ENGENHARIA DA CONFIABILIDADE
Cálculo de R&R
Tendo os resultados da Variação do Equipamento e da 
Variação das Amostras, podemos proceder com o cálculo da 
Repetibilidade & Reprodutibilidade (GRR), que é dado pela 
seguinte equação:
Nesta equação:
GRR = Repetibilidade & Reprodutibilidade
EV = Variação do equipamento
AV = Variação das amostras
Outros coeficientes
Com base nos resultados apresentados, ainda é possível 
verificar alguns outros coeficientes para análise do sistema de 
medição.
 Os primeiros são a Variação das Peças (PV), que demons-
trará a normalização dos valores da Amplitude da Média das 
Peças (Rp), ou seja, como as peças variaram entre si, busca-se 
demonstrar o quanto elas variaram (se fossem perfeitas, esse 
número seria zero e toda a variação seria decorrente do equi-
pamento e capacidade dos inspetores) ea Variação Total (TV), 
que demonstrará a variação total do sistema, considerando 
equipamento e peças, ou seja, peças variaram entre as dez 
escolhidas, equipamento variou entre as inspeções realizadas 
e as medições variaram entre os inspetores que a realizaram, 
deste modo, estes dois coeficientes podem ser descritos pelas 
seguintes equações:
76ENGENHARIA DA CONFIABILIDADE
Nestas equações:
PV = Variação das Peças
Rp = Amplitude da média das peças
K₃ = Coeficiente normatizado para o uso de 10 amostras
TV = Variação total
GRR = Repetibilidade & Reprodutibilidade
Com base nestes outros dois coeficientes, conseguimos 
extrair ainda as informações de representatividade (%EV) da 
Variação do Equipamento sobre a Variação Total, represen-
tatividade (%AV) da Variação das Amostras sobre a Variação 
Total, representatividade (%GRR) da Repetibilidade & Re-
produtibilidade sobre a Variação Total, a representatividade 
(%PV) da Variação das Peças sobre a Variação Total e, por 
fim, o número de categorias distintas (ndc), que determina em 
quantas categorias de variação podem ser distinguíveis no sis-
tema, visto um resultado de 97% de certeza. Estas informações 
podem ser calculadas pelas seguintes equações:
77ENGENHARIA DA CONFIABILIDADE
Nestas equações:
EV = Variação do Equipamento
TV = Variação Total
AV = Variação das Amostras 
GRR = Repetibilidade & Reprodutibilidade
PV = Variação das Peças
Para demonstração destes resultados, seguem valores uti-
lizando, como base exemplo, página 118 do Manual de MAS 
da AIAG (2010):
78ENGENHARIA DA CONFIABILIDADE
AMOSTRAS
Operador Tentativa 1 2 3 4 5 6 7 8 9 10 Média geral
1
1 0,29 -0,56 1,34 0,47 -0,80 0,02 0,59 -0,31 2,26 -1,36
2 0,41 -0,68 1,17 0,50 -0,92 -0,11 0,75 -0,20 1,99 -1,25
3 0,64 -0,58 1,27 0,64 -0,84 -0,21 0,66 -0,17 2,01 -1,31
Média: 0,447 -0,607 1,260 0,537 -0,853 -0,100 0,667 -0,227 2,087 -1,307 0,190
Amplitude: 0,350 0,120 0,170 0,170 0,120 0,230 0,160 0,140 0,270 0,110 0,184
2
1 0,08 -0,47 1,19 0,01 -0,56 -0,20 0,47 -0,63 1,80 -1,68
2 0,25 -1,22 0,94 1,03 -1,20 0,22 0,55 0,08 2,12 -1,62
3 0,07 -0,68 1,34 0,20 -1,28 0,06 0,83 -0,34 2,19 -1,50
Média: 0,133 -0,790 1,157 0,413 -1,013 0,027 0,617 -0,297 2,037 -1,600 0,068
Amplitude: 0,180 0,750 0,400 1,020 0,720 0,420 0,360 0,710 0,390 0,180 0,513
3
1 0,04 -1,38 0,88 0,14 -1,46 -0,29 0,02 -0,46 1,77 -1,49
2 -0,11 -1,13 1,09 0,20 -1,07 -0,67 0,01 -0,56 1,45 -1,77
3 -0,15 -0,96 0,67 0,11 -1,45 -0,49 0,21 -0,49 1,87 -2,16
Média: -0,073 -1,157 0,880 0,150 -1,327 -0,483 0,080 -0,503 1,697 -1,807 -0,254
Amplitude: 0,190 0,420 0,420 0,090 0,390 0,380 0,200 0,100 0,420 0,670 0,328
Geral
Média geral 0,169 -0,851 1,099 0,367 -1,064 -0,186 0,454 -0,342 1,940 -1,571 0,0014
Repetibilidade (Variação do Equipamento - EV): 0,2019 %EV: 17,61% Amplitude da Média das Peças - Rp: 3,5111
Reprodutibilidade (Variação das Amostras - AV): 0,2297 % AV: 20,04% Média Ampl. Tentativa - Rmed: 0,3417
Repetibilidade x Reprodutibilidade (GRR): 0,3058 % GRR: 26,68% Amplitude das Médias - Xdif: 0,4447
Variação da Peça (PV): 1,1046 % PV: 96,38% Limite Ampl. Tentativas - UCLr: 0,8815
Variação Total (TV): 1,1461 ndc: 5,09
79ENGENHARIA DA CONFIABILIDADE
OBS1: para fins de uso de menores números de amostras (no 
nosso caso demonstramos o uso de 10), menor número de tentativas 
(no nosso caso demonstramos o uso de 3) e menor número de inspe-
tores (no nosso caso demonstramos o uso de 3), existem coeficientes 
normalizados K1, K2 e K3 diferentes, no entanto, perde-se bastante 
em termos de certeza dos resultados apresentados.
 OBS2: note que a soma entre os valores, em um dado exemplo, 
não formará 100%, pois os fatores são interdependentes, ou seja, 
dependem um do outro e inf luenciarão os resultados um do outro.
OBS3: sistemas automatizados que não dependem do inspetor 
(máquinas de medir por coordenadas automáticas, sistemas de me-
dição por passagem, etc.) são avaliados da mesma maneira, mas com 
somente 1 inspetor, ou seja, somente serão necessários os cálculos de 
EV, pois não existem os valores para AV, sendo assim, os valores de 
K1=1 e K2=0. O restante permanece igual.
80ENGENHARIA DA CONFIABILIDADE
Avaliação dos resultados
De acordo com AIAG (2010 p. 78), os resultados da con-
fiabilidade do sistema de medição devem ser interpretados 
conforme a seguinte tabela:
As decisões de aceitável ou não aceitável estão bem claras, 
abaixo do resultado de 10%, o sistema de medição está aprova-
do e acima do resultado de 30%, o sistema é considerado não 
confiável. A área intermediária, usualmente, é discutível em 
virtude do nível de severidade do produto, do quanto a tolerân-
cia do mesmo pode afetar seu funcionamento, o custo de um 
sistema de medição mais robusto, etc., mas todas estas defini-
ções devem estar acordadas com o cliente final (normalmente 
a montadora que receberá o produto do processo em questão).
Esta verificação é necessária, pois o sistema de medição in-
f luencia diretamente os resultados da confiabilidade do sistema 
produtivo, ou seja, quanto mais alto o nível de R&R, mais o nível 
de Confiabilidade do sistema (Cpk) será afetado. Em termos numé-
ricos, é possível verificar este impacto através da seguinte equação:
Nesta equação:
Cpact = Nível de Capabilidade real do sistema
Cpobs = Nível de Capabilidade observada no sistema (ve-
rificada conforme capítulo anterior)
GRR = Repetibilidade & Reprodutibilidade
GRR Decisão Comentários
Até 10% Aceitável
Recomendado, especialmente útil ao tentar 
classificar ou classificar as peças ou quando o 
controle do processo é requerido.
De 10 a 
30%
Aceitação 
condicional
Verificar a importância de medição na aplica-
ção, custo do dispositivo de medição, custo de 
retrabalho ou reparo. Deve ser aprovado pelo 
cliente.
Acima 
de 30% Inaceitável Necessário melhorias no sistema de medição.
81ENGENHARIA DA CONFIABILIDADE
Exemplo, utilizando os dados calculados de Cpk = 1,63, 
vindo do exemplo do capítulo anterior, e do nível de GRR do 
exemplo acima = 0,3058, teríamos o resultado, substituindo estes 
valores na equação (51) de 1,83, isso quer dizer que um sistema 
que demonstrar um Cpk = 1,83, se tiver um GRR = 30,58%, 
na verdade, teria um Cpk de 1,63, distorcendo totalmente a 
informação calculada. A observação vale para o fato de que, 
antes de conhecer seu nível de GRR, não deveria ser realizado 
estudos de Cpk para não haver distorção dos resultados.
Repetibilidade e reprodutibilidade por 
atributo
Quando se utiliza um sistema de verificação por atribu-
to, ou seja, que não corresponde a uma medição com dados 
variáveis contínuos e sim com resultados discretos binomiais, 
tais como aprovado e reprovado, é possível verificar o grau 
de atendimento e certeza deste sistema, chamado Score em 
relação à referência. Tal estudo é realizado com um número 
de 50 amostras verificadas 3 vezes cada uma delas em ordem 
alternada por 3 inspetores (basicamente o mesmo procedi-
mento da verificação do GRR, mas com 50 amostras). Estas 
amostras terão valores binomiais, então atribuímos valores 1, 
quando encontrado aprovado e valores 0 quando encontrado 
reprovado. Além destes, é necessária uma verificação extra de 
referência, ou seja, precisam ser avaliadas com certeza quais das 
peças em questão estão aprovadas ou reprovadas. Estes valores 
são demonstrados em uma tabela mostrando as 3 verificações 
de cada inspetor e o valor de referência.
82ENGENHARIA DA CONFIABILIDADE
Abaixo de cada inspetor é feita a sumarização de quantos 
acertos o mesmo obteve, ou seja, das 150 verificações feitas (50 
peças, 3 vezes cada uma em ordem aleatória), quantas vezes 
o inspetor errou na decisão, exemplo, se encontrado valor de 
aprovado (1) e a referência da peça era reprovado (0), conta-se 
1 ponto, caso a referência fosse realmente aprovada (1), não 
se atribui ponto nenhum.
Ao final, dentre as 150 verificações haverá um certo nú-
mero de pontos referente às verificações equivocadas, sendo 
que este número é subtraído do totalde peças avaliadas (neste 
caso, 50 peças menos o total de verificações erradas entre as 
150 alternativas). Você pode observar que, se o inspetor errou 
mais de 1/3 das verificações, o sistema já tem zero acertos.
 Do número de acertos de cada inspetor é verificado quanto 
o mesmo representa sobre o total de peças avaliadas, ou seja, 40 
acertos em 50 peças perfazem um Score do inspetor de 80%. 
Esse Score pode ser avaliado conforme os critérios de aceitação.
Após isso avalia-se quantas peças tiveram algum resultado 
equivocado, ou seja, dentre as 9 verificações realizadas na peça 
(3 verificações de cada um dos 3 inspetores), se houve alguma 
que foi discrepante (se, por exemplo, o resultado de referência 
era aprovado e alguma das verificações apontou reprovado). 
Desta maneira, somente é contado como 1 acerto, se todas 
as 9 verificações da peça em questão apontarem o resultado 
correto. Novamente são somados os acertos e verificada a re-
presentatividade dos mesmos em relação às 50 peças avaliadas, 
formando o Score de Referência do Sistema, que também é 
avaliado conforme os critérios de aceitação.
A referência de aprovação ou 
não da peça pode ser feita por um 
inspetor especializado em condições 
ideais, como por exemplo, em um 
local com temperatura controlada, 
iluminação e ótimas condições de 
realização da avaliação. As demais 
83ENGENHARIA DA CONFIABILIDADE
verificações devem ser feitas no local de verificação da peça durante o 
processo normal de verificação. Outra maneira e, na verdade a mais cor-
reta, é efetivamente medir as peças para definir se estão de acordo ou não 
com as especificações, logo, o mecanismo será testado para aprovação/
reprovação (tipicamente dispositivo passa/não-passa), assim estará sendo 
avaliada a real condição do sistema aprontar defeitos.
Um exemplo, baseado no Manual de MSA da AIAG (2010), pode 
ser verificado ao lado:
Nota-se que o Inspetor 1 obteve Score de 86%, o Inspetor 2 de 88% e 
o Inspetor 3 de 70%. O sistema de referência apontou um Score de 78%. 
Tais valores podem ser verificados individualmente, conforme critérios 
de aprovação, definidos por AIAG (2010 p.140).
Inspetor 1 Inspetor 2 Inspetor 3 Refe-
rênciaPeça 1 2 3 1 2 3 1 2 3
1 1 1 1 1 1 1 1 1 1 1
2 1 1 1 1 1 1 1 1 1 1
3 0 0 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0
6 1 1 1 0 1 0 1 0 0 1
7 1 1 1 1 1 1 1 0 1 1
8 1 1 1 1 1 1 1 1 1 1
9 0 0 0 0 0 0 0 0 0 0
10 1 1 1 1 1 1 1 1 1 1
11 1 1 1 1 1 1 1 1 1 1
12 0 0 0 0 0 0 0 1 0 0
13 1 1 1 1 1 1 1 1 1 1
14 1 1 0 1 1 1 1 0 0 1
15 1 1 1 1 1 1 1 1 1 1
16 1 1 1 1 1 1 1 1 1 1
17 1 1 1 1 1 1 1 1 1 1
18 1 1 1 1 1 1 1 1 1 1
19 1 1 1 1 1 1 1 1 1 1
20 1 1 1 1 1 1 1 1 1 1
21 1 1 0 1 0 1 0 1 0 1
22 0 0 1 0 1 0 1 1 0 0
23 1 1 1 1 1 1 1 1 1 1
24 1 1 1 1 1 1 1 1 1 1
25 0 0 0 0 0 0 0 0 0 0
26 0 1 0 0 0 0 0 0 1 0
27 1 1 1 1 1 1 1 1 1 1
28 1 1 1 1 1 1 1 1 1 1
29 1 1 1 1 1 1 1 1 1 1
30 0 0 0 0 0 1 0 0 0 0
31 1 1 1 1 1 1 1 1 1 1
32 1 1 1 1 1 1 1 1 1 1
33 1 1 1 1 1 1 1 1 1 1
34 0 0 1 0 0 1 0 1 1 0
35 1 1 1 1 1 1 1 1 1 1
36 1 1 0 1 1 1 1 0 1 1
37 0 0 0 0 0 0 0 0 0 0
38 1 1 1 1 1 1 1 1 1 1
39 0 0 0 0 0 0 0 0 0 0
40 1 1 1 1 1 1 1 1 1 1
41 1 1 1 1 1 1 1 1 1 1
42 0 0 0 0 0 0 0 0 0 0
43 1 0 1 1 1 1 1 1 0 1
44 1 1 1 1 1 1 1 1 1 1
45 0 0 0 0 0 0 0 0 0 0
46 1 1 1 1 1 1 1 1 1 1
47 1 1 1 1 1 1 1 1 1 1
48 0 0 0 0 0 0 0 0 0 0
49 1 1 1 1 1 1 1 1 1 1
50 0 0 0 0 0 0 0 0 0 0
Acertos 43 44 35 39
Score 86,00% 88,00% 70,00% 78,00%
Efetividade Decisão
≥ 90% Sistema aceitável.
≥ 80% Aprovação condicional, requer melho-rias.
< 80% Sistema inaceitável.
84ENGENHARIA DA CONFIABILIDADE
SÍNTESE
Neste capítulo verificamos a aplicabilidade e a importância dos conceitos de confiabi-
lidade na análise de sistemas de medição, o qual chamamos de avaliação de Repetibilidade 
e Reprodutibilidade, bem como sua inf luência no resultado dos processos produtivos em 
termos de certeza dos seus resultados.
85ENGENHARIA DA CONFIABILIDADE
EXERCÍCIOS
1. O que é Repetibilidade, tratando-se de sistemas de medição?
2. O que é Reprodutibilidade, tratando-se de sistemas de medição?
3. O que significa um processo com alto índice de Repetibilidade e Reprodutibilidade?
4. Qual a inf luência da Repetibilidade e Reprodutibilidade nos resultados de um Sistema Produtivo?
5. Em alguma situação do seu cotidiano, estes conceitos seriam aplicáveis?
86ENGENHARIA DA CONFIABILIDADE
CONFIABILIDADE 
DE 
COMPONENTES E 
SISTEMAS
Você sabe como verificar a confiabilidade 
de componentes? Como isso influenciará os 
processos e sistemas?
87ENGENHARIA DA CONFIABILIDADE
Com base nos conceitos que verificamos é possível enten-
dermos como estes serão aplicados a componentes, sistemas 
e, por consequência, nos diversos processos. Neste momento, 
vamos lembrar que um sistema é uma união de componentes 
que, juntos, são alocados para cumprir um determinado obje-
tivo, que tem necessidades, funções e tipos de uso. Na grande 
maioria dos casos, os sistemas formados não têm como objetivo 
um uso único e depois o descarte, ao contrário, cada vez mais 
a durabilidade, certeza de uso e performance são atributos de 
decisão entre a escolha de um produto (sistema) ou outro no 
mercado.
Visto também o que verificamos até o momento, já deve 
ficar claro, ou pelo menos se pressupor que, tanto o nível de 
confiabilidade dos componentes utilizados para formar um 
sistema, quanto a maneira que estes componentes são alocados 
no sistema influenciarão diretamente o nível de confiabilidade 
do sistema como um todo. Claro que não podemos esquecer a 
função, severidade e frequência de uso como grandes inf luen-
ciadores deste parâmetro, mas estas são considerações que 
devem fazer parte do projeto do produto previamente, pois 
neste momento, podem ser arranjados uma pequena quanti-
dade de componentes muito simples, mas que no seu conjunto 
resultem em um sistema de altos níveis de confiabilidade, do 
mesmo modo, escolha de componentes de performance duvi-
dosa, arranjados de maneira descuidada aplicados a sistemas 
complexos, podem resultar em situações bastante indesejáveis.
88ENGENHARIA DA CONFIABILIDADE
Compreendido isso, podemos também imaginar, os diver-
sos tipos de associações de componentes, que podem ser em 
série, em paralelo ou uma mistura de diferentes configurações, 
formando redes, de tal sorte que o processo de projeto dos sis-
temas deve ser avaliado de maneira minuciosa para atender os 
objetivos especificados. Atualmente, com ajuda de softwares, no 
momento de projetar um componente, é bem possível simular 
situações de cargas a fim de alcançar o objetivo individual de 
cada componente com um grau de certeza muito bom, claro que 
isso sempre será decorrente do conhecimento do indivíduo que 
está projetando o componente para aplicar as corretas funções 
de um software, avaliando a situação desejada mas, de maneira 
análoga, podemos também entender que, independentemente 
de uso de softwares, se não houver o correto entendimento do 
que se está fazendo, o resultado também não será satisfatório.
Além da simulação do comportamento dos componentes 
individuais, muitos softwares da atualidade permitem a jun-
ção destes diversos componentes (alguns softwares com mais 
ou menos limitações neste sentido) formando subsistemas e, 
em alguns casos, sistemas complexos como um todo. De toda 
forma, os softwares nos ajudarão a verificar de maneira rápida 
e com bom grau de certeza, qual será o comportamento que o 
componente/sistema apresentará, isso também poupará uma boa 
quantidade de recursos financeiros, tempo, uso de maquinário 
e matéria-prima em uma situação de tentativa e erro até o ajuste 
final do produto. No entanto, apesar de abreviar o caminho 
e diminuir custos associados aos projetos, os softwares ainda 
não chegaram ao ponto onde se consiga, em alguns casos, efe-
tivamente compreender o total comportamento do sistema, ou 
seja, a validação de sistemas e subsistemas complexos ainda é a 
melhor forma de verificar a performance desejadados mesmos.
Sistemas em Série
A definição de um sistema em série é a junção de um 
determinado número de componentes cujas suas funções tra-
balham de maneira sequencial um a outro dentro do sistema 
89ENGENHARIA DA CONFIABILIDADE
(mesmo que funcionem independentemente entre si), de modo 
que, se qualquer um deles falhar, todos os outros falham, do 
mesmo modo que, fazendo uma analogia, são montados os 
elos de uma corrente, onde não importa qual deles falhe, a 
corrente está rompida. Este é o caso mais típico e comum de 
sistemas, mas precisamos entender que o fato de estarem em 
série não significa que estão fisicamente em sequência, mas a 
sua função é que está. Imagine um televisor, nosso exemplo 
será formado por um sistema que faz a interpretação do sinal 
de entrada de vídeo (entradas de antena, VGA, USB, etc., 
que passam por um processamento para posteriormente exibir 
seu conteúdo), um segundo sistema que exibe o vídeo (tela, 
iluminação da tela) e um sistema de alimentação (por onde a 
energia elétrica entra no sistema e é distribuída entre os diversos 
subsistemas). Neste exemplo, é bem provável que estes três 
sistemas não estejam fisicamente montados em sequência um 
do outro, mas sim de maneira a se acomodar da melhor forma 
dentro do gabinete que dá forma ao televisor. Se qualquer um 
destes três subsistemas falhar, e não importa qual, o sistema 
todo perde sua função. De modo semelhante, funciona um 
automóvel com seus subsistemas de propulsão, transmissão, 
alimentação, freio, direção, etc. Os mesmos não estão fisica-
mente alocados em sequência na carcaça do automóvel, mas 
seu eventual mal funcionamento faz o sistema como um todo 
perder a função primordial.
90ENGENHARIA DA CONFIABILIDADE
Uma forma analítica de representar os sistemas em série é 
a associação dos seus componentes em um diagrama de blocos, 
tornando a compreensão bastante simples. Para o exemplo 
anterior, do automóvel, teríamos:
Compreendida esta explicação, podemos denotar que, no 
caso de conhecermos o nível de confiabilidade de cada um dos 
componentes ou subsistemas que integram o nosso sistema 
como um todo, podemos determinar o nível de confiabilidade 
do sistema como a multiplicação dos níveis de confiabilidade 
dos diversos componentes ou subsistemas:
Nesta equação:
Rt = confiabilidade total do sistema
R1,2,3 = confiabilidade dos componentes (ou subsistema) 
de número um, dois, três
Rn = confiabilidade do enésimo componente (ou subsistema)
Vista essa explicação, podemos assumir que a probabilidade 
de sucesso do sistema depende da confiabilidade de cada um 
dos componentes ou seja:
A confiabilidade do sistema é igual ao produto das 
confiabilidades dos componentes ou subsistemas 
(PIAZZA, 2000).
De modo análogo, a probabilidade de falha do sistema é 
dada por:
Nesta equação:
Rt = confiabilidade total do sistema
Pf = probabilidade de falha no sistema
Alimentação Transmissão Propulsão Direção Freio
91ENGENHARIA DA CONFIABILIDADE
Tomando como exemplo o televisor que citamos anterior-
mente, vamos supor que a probabilidade para um uso de 2000 
horas sejam, respectivamente, 0,95 (subsistema de alimentação), 
0,93 (subsistema de exibição) e 0,98 (subsistema de recepção), 
substituindo os dados citados nas equações (52) e (53), teremos:
Rt = 0,95 x 0,93 x 0,98 → Rt = 0,866 ou 86,6%
Pf = 1 - 0,866 → Pf = 0,134 ou 13,4%
Visto os valores acima, o sistema terá 86,6% de probabili-
dade de operar corretamente no período de 2000 horas e 13,4% 
de probabilidade de falhar neste mesmo período.
Observe que a confiabilidade de um sistema em série é 
sempre menor do que a confiabilidade de seu componente (ou 
subsistema) com menor nível de confiabilidade, do mesmo 
modo que a confiabilidade do sistema decresce à medida que 
aumentam o número de componentes em série.
Sistemas em Paralelo
No caso de um sistema em paralelo, as funções dos diver-
sos componentes ou subsistemas trabalham de maneira inde-
pendente, ou seja, caso um dos mesmos falhar, o outro pode 
continuar funcionando, pois são funcionalmente independen-
tes, ou ainda, falamos que estes componentes ou subsistemas 
trabalham em regime de redundância. O caso dos sistemas 
em paralelo é bastante utilizado em operações onde a falha 
do sistema é considerada catastrófica ou ainda, que se admita 
que não pode haver falhas, tais como sistemas de segurança de 
máquinas, aviões, elevadores, etc. Em outras palavras, busca-se 
mais de um recurso para que se possa atender aos objetivos 
do sistema pois, para o sistema falhar, todos os componentes 
devem falhar e, da mesma forma que os sistemas em série, não 
necessariamente tais componentes ou subsistemas tem que 
estar fisicamente montados de maneira paralela. Por exemplo, 
sistemas de iluminação de saídas de emergência são conectados 
na rede elétrica e paralelamente em sistemas de bateria, caso a 
92ENGENHARIA DA CONFIABILIDADE
rede elétrica falhe, as baterias mantêm o sistema funcionando. 
Do mesmo modo, aviões que carregam grandes quantidades 
de passageiros possuem duas, três ou quatro motores de rea-
ção (turbinas), sendo que, para a operação de voo, usualmente 
somente um destes motores consegue manter o avião no ar, ou 
seja, as falhas de um componente não inf luenciarão na confia-
bilidade e na capacidade dos sistemas sobreviventes.
No caso de um avião com quatro motores, citado acima, o 
diagrama de blocos é representado da seguinte maneira:
De maneira usual, quando se utiliza sistemas em para-
lelo, acaba-se utilizando redundâncias com mais do que um 
componente ou subsistema de mesmo nível de confiabilidade, 
portanto, entendendo que a taxa de falhas dos componentes ou 
subsistemas que o integram é constante, podemos determinar 
a confiabilidade do sistema pela equação:
Nesta equação:
Rt = confiabilidade total do sistema
Ri = confiabilidade dos componentes (ou subsistemas)
n = número de componentes idênticos em paralelo
Tomando novamente o exemplo do avião citado ante-
riormente, se cada um dos quatro motores tiver um nível de 
Motor 1
Motor 2
Motor 3
Motor 4
93ENGENHARIA DA CONFIABILIDADE
confiabilidade de 95% para 10.000 horas de voo, então, subs-
tituindo os valores na equação (54) a confiabilidade do sistema 
de propulsão total é:
Neste caso, podemos notar que o nível de confiabilidade 
do sistema aumentou com o acréscimo de componentes.
Sistemas série-paralelo e mistos
A avaliação de sistemas altamente complexos, tais como a 
verificação total do nível de confiabilidade de um automóvel, 
de um avião ou mesmo de uma máquina, de maneira geral, 
exigirão o uso de diversas associações em série e associações 
em paralelo do funcionamento de componentes e subsistemas. 
Uma representação destes sistemas pode ser, por exemplo, a 
demonstrada pelo diagrama de blocos a seguir:
R1
R2
R3
R4
R1
R2
R3
R4
R1
R2
R3
R4
94ENGENHARIA DA CONFIABILIDADE
O sistema acima representa um sistema série-paralelo. Em 
algumas redes de componentes eletrônicos este caso pode ser 
bastante usual. No caso dos componentes acima terem todos 
o mesmo nível de confiabilidade, podemos calcular a confia-
bilidade total do sistema com a seguinte equação:
Nesta equação:
Rt = confiabilidade total do sistema
Ri = confiabilidade dos componentes (ou subsistemas)
n = número de subsistemas idênticos em série
n = número de componentes idênticos em paralelo
No caso acima, se estivéssemos utilizando componentes 
com nível de confiabilidade de 96% para 1000 horas de uso, 
teríamos a seguinte situação substituindo na equação (55):
Para sistemas mistos teremos a associação de sistemas 
paralelos, sistemas em série, sistemas em série-paralelo em 
diferentes números e ordem, o que torna complexa a definição 
de um modelo de arranjo específico de unidades, até porque, 
mesmo com números de componentes iguais, as combinações 
entre os mesmos podem ser as mais diversas, portanto, o melhor 
a fazer é realizar a análise de confiabilidade destes sistemas em 
separado, até conseguirassociar os mesmos a um dos modelos 
anteriormente apresentados e assim obter a confiabilidade geral 
do sistema. 
95ENGENHARIA DA CONFIABILIDADE
Confiabilidade geral de sistemas
Verificamos diversas formas de associação e componentes, 
sejam eles em série, em paralelo, sistemas em série-paralelo e 
sistemas mistos, de modo que é bem plausível de se pensar que 
os sistemas serão, efetivamente, formados por algum destes 
arranjos, do mesmo modo que também é plausível de se ima-
ginar que, quanto mais complexo o sistema, mais complexos 
serão tais arranjos e a avaliação dos mesmos.
Outro detalhe importante a se pensar é que as características 
e requerimentos acerca do sistema também serão fator de suma 
importância para definir as associações de sistemas, portanto, 
podemos fazer as seguintes considerações:
a. Sistemas em série: visto que o nível de confiabilidade tende a 
diminuir conforme o número de componentes ou subsistemas 
utilizados, podemos entender que as formas de aumentar o 
nível de confiabilidade destes sistemas passam por aumento 
da confiabilidade dos componentes utilizados, ou ainda, pela 
verificação e redução de componentes associados em série 
no sistema.
b. Sistemas em paralelo: a associação de componentes ou sub-
sistemas em paralelo normalmente é utilizada como meio 
para incremento de confiabilidade, mas estes arranjos nem 
sempre são possíveis por conta de espaço, custo ou ainda em 
virtude das características físicas do sistema. Maneiras de 
atenuar este problema, usualmente, são a disponibilidade de 
peças sobressalentes, como o caso do estepe disponível nos 
automóveis, o que acaba se tornando um subterfúgio, visto 
que isso não evita a falha do sistema, mas provém uma recu-
peração relativamente rápida para o mesmo. Outro detalhe 
a ser levado em conta é que, mesmo aumentando o nível de 
confiabilidade com a adição de sistemas em paralelo, con-
forme a quantidade de sistemas associados (principalmente 
96ENGENHARIA DA CONFIABILIDADE
acima de três ou quatro quando do uso de componentes com 
níveis de confiabilidade altos), os ganhos em adicionar mais 
um novo sistema não produzem aumentos significativos 
no nível de confiabilidade, além do custo associado, uma 
alternativa interessante é justamente diminuir a quantidade 
de componentes associados em paralelo (diminuir e não 
eliminar a associação em paralelo) e buscar o uso de, dentro 
da medida do possível, componentes ou subsistemas com 
níveis maiores de confiabilidade.
c. Sistemas série-paraelo: sendo uma associação dos arranjos 
anteriores, é de se supor que as alternativas neste caso sejam 
um misto das demais, ou seja, aumentar o nível de confia-
bilidade dos componentes individuais, evitar a repetição de 
subsistemas em série, aumentar o número de componentes em 
paralelo (mas desde que se obtenham ganhos significativos).
Além das associações de componentes, não podemos es-
quecer que o sistema deve seguir todos os parâmetros que 
descrevemos quando falamos nas distribuições de probabili-
dade, ou seja, para corretamente avaliarmos a confiabilidade 
dos nossos sistemas, devemos conhecer e saber interpretar os 
tipos e comportamento dos diferentes sistemas utilizados, que 
tipos de valores podem assumir (discretos ou contínuos), como 
se comporta o nível de confiabilidade com o tempo (constante 
ou decrescente), e como situações repetidas se comportam ao 
longo do tempo (em torno de um valor, de maneira discrepante, 
demonstrando deterioração, etc.).
Ao fim, pode-se perceber que, como quase todos os estudos 
e ciências, a avaliação de produtos é uma tarefa complexa, que 
exige dedicação e a associação de diversos e complementares 
conhecimentos.
97ENGENHARIA DA CONFIABILIDADE
Curva da banheira
A curva da banheira é uma representação bastante 
usual do comportamento de diversos sistemas (equipa-
mentos, produtos, etc.), sendo assim, é bastante comum 
que sistemas apresentem, conforme já explanado, taxas 
de falhas decrescentes no período inicial de uso (de-
correntes, usualmente, de falhas no processo produtivo 
ou específica de um componente agregado ao sistema), 
após este período, taxa de falhas constantes no período 
que é considerado como vida útil do componente e taxa 
de falhas crescentes no período que o produto já está na 
fase de desgaste do mesmo.
98ENGENHARIA DA CONFIABILIDADE
Usualmente, os períodos de garantia dos produtos são 
estabelecidos dentro da fase de vida útil do produto, onde a 
empresa define qual o nível de confiabilidade requererá do 
produto dentro de um período especificado ou ainda, até quanto 
tempo de uso o produto demonstrará um nível de confiabili-
dade em específico.
Normalmente, a fase de desgaste está situada depois da 
vida útil do produto, ou seja, conforme projeto, o produto já 
está em fase onde deve estar desgastando seus subsistemas e 
componentes e, provavelmente, requererá a troca de algum 
destes para manter seu funcionamento, este período é utilizado 
para determinar, por exemplo, as manutenções preventivas e 
trocas de peças de um produto.
Também de maneira usual, a Mortalidade Infantil, em 
produtos os quais seu uso exige níveis de confiabilidade altos 
por questões de segurança ou ainda por altos custos de assis-
tência técnica, este período é bastante reduzido pelas empresas 
quando da utilização de testes finais de produção com uso 
de sobrecargas, do mesmo modo que, outra forma usual, é a 
determinação de um momento de revisão em período inferior 
ao usual durante a vida útil (exemplo, revisão inicial de um 
automóvel com 5000 km e, posteriormente, revisões periódicas 
a cada 10.000 km).
99ENGENHARIA DA CONFIABILIDADE
SÍNTESE
Neste capítulo, verificamos a aplicabilidade e a importância dos conceitos de confiabi-
lidade na análise de sistemas de medição, o qual chamamos de avaliação de Repetibilidade 
e Reprodutibilidade e sua inf luência no resultado dos processos produtivos em termos de 
certeza dos seus resultados.
100ENGENHARIA DA CONFIABILIDADE
EXERCÍCIOS
1. O que é um sistema com componentes em série?
2. O que é um sistema com componentes em paralelo?
3. Quais são as inf luências em termos de confiabilidade para componentes em série?
4. Quais são as inf luências em termos de confiabilidade para componentes em paralelo?
5. Em alguma situação do seu cotidiano estes conceitos seriam aplicáveis?
101ENGENHARIA DA CONFIABILIDADE
PLANEJAMENTO 
DE 
EXPERIMENTOS 
COM UM ÚNICO 
FATOR (ANOVA) 
E COM VÁRIOS 
FATORES
Você entende o que é um experimento? Você 
sabe como realizar o mesmo?
102ENGENHARIA DA CONFIABILIDADE
Uma maneira básica de descrever o que é um processo 
pode ser a compreensão de que o mesmo, através de algumas 
operações, junta as diferentes entradas (Inputs) e transforma em 
uma ou mais saídas (Outputs). As entradas podem ser as mais 
variadas, e o entendimento do que são entradas do processo 
costuma ter certa dispersão em relação às diferentes literatu-
ras consultadas, mas, de maneira geral, podemos considerar 
matérias-primas, insumos, informações, recursos produtivos 
(máquinas, pessoas, dispositivos), etc. As saídas podem ser as 
mais diversas, mas no geral podemos entender como sendo o 
produto gerado pelo processo e seus subprodutos (sobras de 
material, ef luentes, resíduos, etc.). 
Outro ponto importante a considerar é que, este processo 
ou operação de transformação está sujeito às variações das 
mais distintas, isso acontece porque o mesmo está sujeito para 
algumas variáveis (ou também chamados fatores), sendo que 
algumas destas são controláveis (velocidade de uma máquina, 
temperatura de uma solução, força exercida, etc.) e outras po-
dem ser consideradas como incontroláveis (temperatura am-
biente, eventos aleatórios, picos de energia, humidade, etc.) e 
justamente estas variáveis, justamente no processo em questão, 
é que causarão certas incertezas nos Outputs do processo, e 
a este fenômeno se dá o nome de variabilidade. Quanto mais 
controle houver sobre as variáveis do processo,quanto menos 
variáveis do processo forem incontroláveis, quanto mais cons-
ciência houver sobre como as diferentes variáveis do processo 
afetam as saídas do mesmo, mais certeza teremos do resultado, 
ou seja, mais confiável será o processo em questão.
103ENGENHARIA DA CONFIABILIDADE
A fim de avaliar o efeito das variáveis em relação ao pro-
cesso e suas saídas, são realizados experimentos, onde serão 
modificadas variáveis de alguma forma (usualmente junto às 
entradas do processo), verificando os seus efeitos sobre as saídas 
do processo, que neste momento denominaremos Variável de 
interesse. Sendo assim, ao realizar o experimento busca-se en-
tendimento tal do processo para que seja possível, por exemplo, 
reduzir seu tempo operacional, reduzir custos, melhorar ren-
dimento, diminuir variabilidade (aumentar a Confiabilidade). 
Essa avaliação, além de propiciar os benefícios citados, pode ser 
realizada com o intuito de comparar parâmetros de projeto e 
suas configurações, avaliar diferentes matérias-primas, avaliar 
diferentes formas de executar o processo na busca de opções 
de maior rentabilidade, avaliar opções de processo na busca 
por maiores índices de confiabilidade, etc.
Execução de experimentos pelo método 
ANOVA
Os experimentos buscarão efeitos sobre diversas variáveis, 
sendo que as mesmas podem ser qualitativas (por exemplo, 
uso de uma ferramenta ou outra, resultados de um operador 
ou outro, etc.) ou quantitativas (velocidade, temperatura, cor-
rente, pressão, etc. Para que isso seja possível, são necessárias 
observações de alguns princípios básicos:
a. Replicação: a realização do experimento em diferentes ré-
plicas, ou seja, a realização do experimento em diferentes 
amostras melhorará a verificação do efeito e da manuten-
ção do mesmo, ou seja, se alterada uma variável e a mesma 
produzir efeito em um número considerável de amostras, 
104ENGENHARIA DA CONFIABILIDADE
maior o grau de certeza da influência desta variável testada na 
Variável de Interesse. Do mesmo modo que, quanto menor 
a amostragem realizada, menor o grau de certeza do efeito. 
Em outras palavras, deve haver repetição considerável de 
amostras em relação a um mesmo efeito para avaliar seus 
resultados.
b. Aleatoriedade: a aleatoriedade (ou casualização) é um efeito 
bastante presente na execução dos mais diversos processos, 
portanto, deve ser considerada na hora da realização do 
experimento, principalmente quando se está buscando um 
determinado efeito e o mesmo pode ser gerado por uma va-
riável aleatória. Ou seja, saber distinguir os diferentes fatores 
de influência sobre o processo, de modo que a amostra reali-
zada seja representativa em relação às condições normais de 
operação e que fatores aleatórios não sejam determinantes na 
condição a ser verificada no experimento, como por exemplo, 
a busca pela estabilidade de uma determinada característica 
de processo de usinagem que pode ser influenciada por fatores 
ambientais, tais como mudanças de temperatura ao longo 
da realização do experimento. Em outras palavras, amostras 
nas quais serão aplicadas algum experimento, devem ser 
aleatórias, escolhidas ao acaso, e deve-se pressupor que em 
qualquer uma delas o efeito do experimento seja o mesmo.
c. Blocagem: é uma técnica que visa o melhor entendimento 
e precisão sobre os resultados, durante a realização do ex-
perimento, formam-se blocos onde a variável em questão é 
testada, mas os testes são divididos em blocos controlados 
de modo a evitar outras influências sobre o efeito observado. 
Esta condição é bastante comum quando amostras de um 
mesmo experimento são realizadas por pessoas diferentes, 
ou ainda, em máquinas diferentes. A blocagem justamente 
é, o fato de criar o controle sobre estas situações, tais como 
separar as amostras em “blocos” (grupos) diferentes em 
relação aos executores ou em relação ao recurso utilizado.
105ENGENHARIA DA CONFIABILIDADE
Normalmente, os experimentos são realizados de forma 
sequencial, de modo a criar uma ordem lógica e compreensível 
a fim de avaliar os reais efeitos das variáveis testadas. Usual-
mente é realizado um experimento inicial, também denominado 
de screening experiment ou experimento de peneiramento, a 
fim de avaliar quais são as variáveis que inf luenciam em um 
resultado (ou variáveis críticas). Após o mesmo, cada uma das 
variáveis identificadas será avaliada quanto ao seu nível de 
inf luência na Variável de Interesse. 
Outros pontos importantes a serem observados são os 
experimentos, factíveis, e que busquem resultados plausíveis, 
ou seja, a ideia é que seja realizado o menor número de expe-
rimentos a fim de demonstrar os resultados efetivos sobre o 
mesmo e não uma grande quantidade de experimentos que não 
se tenha sequer ideia do que está querendo ser avaliado, sendo 
assim, para realização de um experimento são necessários as 
seguintes etapas:
a. Problema: é a determinação do que ser quer verificar com o 
experimento ou para qual problema se quer solução.
b. Fatores e níveis: definir quais serão os fatores a serem ava-
liados, seus efeitos em relação às amostras estudadas e ainda 
quantos níveis de avaliação serão definidos.
c. Variável resposta: definição de qual variável deverá ser avalia-
da na amostra, de modo a demonstrar os efeitos dos fatores 
em questão.
d. Delineamento: definição de qual estratégia será utilizada 
para realização do experimento, ou seja, quantas amostras e 
em quais condições estarão, qual a necessidade de realização 
de blocos ou não para sua avaliação, etc.
e. Execução: consiste no acompanhamento do experimento, 
avaliando e registrando qualquer informação relevante para 
o mesmo, ou seja, é a própria realização do experimento, 
106ENGENHARIA DA CONFIABILIDADE
garantindo as condições planejadas e o registro dos acon-
tecimentos.
f. Análise: realização da análise dos resultados do experimento 
e o grau de certeza das respostas.
g. Conclusão: divulgação do resultado do experimento após 
análise, ou seja, verificar se o experimento cumpriu seu obje-
tivo, qual resultado alcançado, definição de alguma restrição 
ou condicionante, etc.
O teste de experimentos normalmente é executado pelo 
método ANOVA, que vem da sigla em inglês de Analisys of 
Variance (Análise de Variância), portanto, além das etapas 
anteriormente descritas, alguns pressupostos que devem ser 
entendidos ou definidos para a realização do teste:
a. Os efeitos principais devem ser aditivos: os efeitos resultantes 
do teste devem ser somados, ou seja, devem ser associados 
uns aos outros, através da seguinte equação:
Nesta equação:
yij = resultante do teste (observação do i-ésimo tratamento 
j-ésima amostra)
μ = média geral dos tratamentos (efeito constante)
τi = efeito do i-ésimo tratamento
εij = erro aleatório do i-ésimo tratamento j-ésima amostra
OBS: de acordo com a complexidade do experimento, 
é importante dividir o mesmo em etapas sistemáticas, 
pois verificar a interação de várias situações com nível 
de certeza admissível é bastante complicado, portanto, 
quanto menor o número de hipóteses a serem testadas 
e fatores a serem avaliados, maior o grau de certeza do 
resultado.
107ENGENHARIA DA CONFIABILIDADE
b. Erros de observações devem ser independentes e normal-
mente distribuídos: cada efeito possui um erro associado 
que deve ser independente dos demais, além disso, devem 
ser oriundos da mesma população, a fim de que sejam con-
siderados e distribuídos de maneira normal.
c. Homocedasticidade: como as amostras testadas são de uma 
mesma população, espera-se que a variância entre as amostras 
seja a mesma.
d. Hipótese Ho: hipótese que determina ausência do efeito que 
está sendo procurado ou que as diferenças entre os efeitos 
dos diferentes testes (tratamentos) sejam insignificantes, 
também chamada de hipótese da nulidade, sendo que a 
mesma pode ser rejeitada (não considerada).
e. Hipótese Ha: origina que existe um cuidado determinado 
em relação aos diferentes testes realizados.
f.Nível de significância: probabilidade de que o fato de ter 
sido rejeitada a hipótese Ho e a mesma ser verdadeira (não 
desprezível). Usualmente, este nível de significância é atri-
buído entre 1 e 5%, sendo que, quanto menor o valor, mais 
confiável o resultado.
Usualmente, os resultados de experimentos são tabelados 
para fins de serem utilizadas ferramentas computacionais para 
sua solução:
Repetições
Tratamento 1 2 3 j Soma Média
1 y11 y12 y13 y1j T1 y1
2 y21 y22 y23 y2j T2 y₂
3 y31 y32 y33 y3j T3 y₃
i yi1 yi2 yi3 yij T4 yi
Total: y y₁
108ENGENHARIA DA CONFIABILIDADE
Os dados, colocados em uma fer-
ramenta estatística, como o Excel, por 
exemplo, nos devolvem valores tais como:
a. Soma de quadrados: denota a variação 
total dos resultados, sendo que a mesma 
pode ser geral (variação total dos dados 
utilizados), variação entre grupos (va-
riação total entre os diferentes níveis i) 
e variação dos resíduos (variação total 
entre as repetições j).
b. Valor P: conhecido como valor de prova, 
define se podemos ou não aceitar os 
valores indicados no teste, ou seja, faz-se 
uma comparação deste valor com o nível 
de significância almejado. Se o Valor P 
for menor que o nível de significância, 
significa que o teste é inaceitável. 
c. F-Crítico e F: o valor F-Crítico nos 
define os valores de rejeição, ou seja, 
qualquer valor na amostra superior a 
F-Crítico está rejeitado. Do mesmo 
modo, quando comparamos os valores 
de F obtidos com os valores de F-Críti-
co, podemos verificar o nível de igualda-
de entre os diferentes testes realizados. 
Se F for muito maior que F-crítico, isso 
denota que não existe igualdade, ou seja, 
existem mais fatores influenciando a 
amostra que não somente os testados.
No Excel, o teste de ANOVA é muito 
simples, mas para isso é necessário ativar 
o Suplemento de Análise de Dados. Após 
ativado, na guia dados existirá um ícone 
de análise de dados, que possibilitará uma 
série de análises, incluindo ANOVA. 
Exemplo: tomando como base os dados 
utilizados para cálculo do Cpk anterior-
mente dispostos, utilizamos os 5 valores 
de cada uma das 25 coletas de peças (total 
de 125 peças). A hipótese que queremos 
verificar é se existe variação entre as amos-
tras, colocando um fator de Significância 
de 5%. Neste caso, utilizaremos a análise 
de ANOVA com fator único.
109ENGENHARIA DA CONFIABILIDADE
Como resultado, teremos o seguinte:
Entre os grupos, temos uma variação total média de 0,045187 
e, entre as diferentes amostras da coleta de 0,033576, estabele-
cendo um valor-P de 0,155632, que é maior que 0,01 (1%) que 
foi estipulado, ou seja, os dados apresentados são válidos para 
o nosso propósito. Do mesmo modo, a comparação de F com 
F crítico demonstra um valor de 1,345787 contra 1,982556, 
ou seja, bastante próximos, definindo que nossa amostragem 
tem valores muito próximos entre as mesmas. 
Para o caso de teste com 2 fatores, a ideia é verificar a 
inf luência de duas variáveis no sistema, como por exemplo, 
ANOVA
Fonte da 
variação SQ gl MQ F valor-P F crítico
Entre 
grupos 1,08448 24 0,045187 1,345787 0,155632 1,982556
Dentro dos 
grupos 3,35764 100 0,033576
Total 4,44212 124
velocidade de avanço e temperatura ambiente em relação a 
uma determinada medida. O procedimento na ferramenta 
computacional é o mesmo, modifica-se somente o uso de dois 
fatores ao invés de um.
Em termos de confiabilidade, o grande uso de experimen-
tos está no fato de realizarmos modificações nos processos e, 
com estes resultados dos diferentes testes podermos comparar 
se tais resultados, com base nos seus efeitos, mantém o padrão 
de comportamento do processo até então. Ou seja, a partir 
de um processo estável (isso é bem importante para garantir 
boa comparação nos resultados), podemos partir para alguma 
modificação do mesmo para fins de, por exemplo, redução de 
custo, ganho de produtividade, troca de maquinário, etc. A 
utilização de experimentos, neste caso, visa a comparar os re-
sultados dos processos modificados com os realizados e estáveis, 
de forma que conseguimos, de maneira rápida, averiguar se os 
resultados atingidos mantém os mesmos níveis de performance 
do processo existente.
110ENGENHARIA DA CONFIABILIDADE
SÍNTESE
Neste capítulo, verificamos os procedimentos para a realização de experimentos e 
como calcular o nível de confiança que temos dos seus resultados em relação à significância 
necessária para os processos; e as hipóteses que foram definidas utilizando a técnica de 
análise de variância ANOVA.
111ENGENHARIA DA CONFIABILIDADE
EXERCÍCIOS
1. O que é um experimento em termos estatísticos?
2. Quais são os princípios básicos para realização de um experimento?
3. Quais são as etapas usuais para a realização de um experimento?
4. O que é nível de significância e qual a inf luência do mesmo para os resultados de um experimento?
5. Qual o uso básico de experimentos em termos de confiabilidade?
112ENGENHARIA DA CONFIABILIDADE
ACELERAÇÃO DE 
VIDA ÚTIL DE 
COMPONENTES
Como se faz para determinar a vida útil de 
um componente? É possível fazer isso mais 
rápido?
113ENGENHARIA DA CONFIABILIDADE
Não são incomuns produtos que são utilizados por longos 
períodos como 10, 15 ou 20 anos. Inclusive, para alguns pro-
dutos isso é bastante esperado. Na verdade, é um requisito de 
mercado, ou seja, é bem normal encontrar máquinas, automó-
veis, aeronaves, ferramentas, eletrodomésticos que são utilizados 
por um longo período. O que dizer de produtos resultantes de 
obras civis, tais como prédios, pontes, pavilhões, que são utili-
zados normalmente durante cerca de 30 ou 40 anos e, além de 
estruturas físicas, ainda contam com subsistemas hidráulicos, 
elétricos, mecânicos, tais como rede de esgoto, eletricidade, 
portas e aberturas que são utilizadas frequentemente. Outro 
caso são os produtos de informática que, apesar de não terem 
vida útil esperada tão longa, o teste dos mesmos em condições 
normais de uso seria suficientemente longo para tornar inviável 
o lançamento de um produto visto que a tecnologia já haveria 
mudado e o produto estaria praticamente obsoleto.
Apesar de terem este tempo de vida esperado, ou seja, de 
serem relativamente duráveis nestes períodos, é usual pensar 
que algum tipo de intervenção, manutenção, revisão ou troca 
de algum subcomponente acontecerá neste meio tempo, mas o 
produto como um todo acabará perdurando e, após um certo 
tempo de operação, essa necessidade de intervenção não é vista 
como algo ruim, inclusive é compreendido pelo mercado em 
geral como um fato usual para manter o produto como um 
todo ativo durante um período maior de tempo.
Nestes casos, é bem plausível de se pensar que os produtos, 
seus componentes e subcomponentes não acabam, após terem 
sido projetados e montados sob forma de protótipos ou lotes 
de validação, lotes pilotos, etc., tendo que ser testados por um 
tempo igual ao de sua vida útil para fins de determinação do 
quanto devem durar em um uso normal. Isso seria totalmente 
impraticável.
Para isso, a atitude mais usual é a de recorrer a testes que 
busquem acelerar a vida destes produtos através de algum tipo 
de stress e, com isso, conseguir determinar se atenderão um 
114ENGENHARIA DA CONFIABILIDADE
requisito específico de durabilidade ou ainda, verificar o quanto 
efetivamente perdurarão para que se possa transformar esta 
informação em um período de garantia ou algo similar, ainda 
mais se tais produtos são constituídos de modo a se esperar altos 
níveis de confiabilidade por longos períodos de tempo (o que 
tornaria mais moroso ainda o processo de acompanhamento 
da vida útil do produto pelo seu uso normal).
O primeiro e primordial passo para realização destes testes 
é conhecer qual o mecanismo causador da falha do produto (por 
exemplo, carregamento mecânico, carga elétrica, etc.) e, den-
tro da medida do possível, como este mecanismo se comporta 
em condições ambientais diversas, como por exemplo, é bem 
diferente dizer que sob qualquer carga,independentemente 
dos aspectos ambientais, o produto se comporta de maneira 
constante ou ainda, se a carga for mais alta e a temperatura 
elevar-se. O nível de stress do produto aumenta consideravel-
mente. Para tanto, faz-se necessário muito conhecimento do 
comportamento de componentes ou ainda de testes preliminares 
que apontem algumas destas relações.
Inicialmente, vamos tratar do binômio tempo até falha e 
desempenho do produto. Em relação ao tempo até a falha, já 
discorremos sobre o assunto, mas é importante salientar que 
estes valores (MTTF, no caso) podem ser completos ou censu-
rados. Dados completos definem os tempos até falha de todas 
as amostras ensaiadas, enquanto dados censurados definem que 
115ENGENHARIA DA CONFIABILIDADE
tantas amostras atingiram determinados valores de tempo e um 
outro tanto de amostras durou até um valor tal, onde pararam 
os testes por inviabilidade técnica, econômica, tempo, etc.
Os testes de aceleração são realizados em função de nú-
mero de ciclos de uso ou aumento de carga de trabalho. No 
caso do número de ciclos ou, do também chamado, aumento 
da taxa de uso, os produtos são testados em unidades que di-
minuam seu tempo até a falha, ou seja, para um pneu pode-se 
aumentar a velocidade média de uso e verificar seu nível de 
desgaste ou, por exemplo, em um equipamento elétrico, como 
um liquidificador, que tem uso intermitente médio esperado 
de alguns minutos por dia, ser usado de maneira contínua por 
dias sem parar.
No caso de testes realizados por aumento de carga, ou 
também denominados aumento de stress de trabalho (overs-
tress), são os mais utilizados para definir vida útil do produto. 
Neste modelo, os produtos são testados com cargas mais altas 
do que as definidas para uso normal em projeto, sendo que é 
necessário compreender qual tipo de carga está relacionada à 
vida útil do produto (carga elétrica, carregamento mecânico, 
nível de temperatura, etc.).
116ENGENHARIA DA CONFIABILIDADE
Diversas são as formas de aplicar o stress a amostra, o que 
determinará a escolha de cada uma destas formas é o tempo que 
se tem para realizar o estudo, nível de precisão requerida e o tipo 
de falha que se almeja causar no componente em questão.
a. Stress constante: é caracterizado pela aplicação de um nível de 
stress em um conjunto de amostras, um segundo nível de stress 
em um outro conjunto de amostras, um terceiro nível de stress 
em/ou terceiro grupo de amostras e assim por diante. Este 
tipo de verificação tem como vantagens, o fato de poder testar 
diferentes amostras em diferentes níveis de stress de maneira 
simultânea (cada grupo com seu nível), outra vantagem é a 
facilidade de aplicação do stress, visto que é sempre constante. 
Sendo uma maneira bastante comum de realizar testes, existe 
uma alta probabilidade de que serão encontrados modelos 
semelhantes ou análogos para realização de comparações, no 
entanto, exige a demanda de um grande número de amostras.
117ENGENHARIA DA CONFIABILIDADE
b. Stress crescente: também conhecido como stress escada/step 
stress, onde os objetos são submetidos a um nível de stress du-
rante um tempo, depois a um outro nível de stress maior durante 
mais um período de tempo, depois a um terceiro nível de stress 
durante mais um período de tempo e assim por diante, utilizan-
do sempre os mesmos objetos submetidos a uma sequência de 
stress crescentes até a falha. Neste modelo, as falhas costumam 
aparecer mais rapidamente, já que o nível de stress subirá para 
cada uma das amostras, o que acaba resultando em um tempo 
de teste menor do que o modelo anterior. O que tem que ser 
levado em conta é que, como o nível de stress é cumulativo, o 
modelo matemático para descrever este comportamento deve 
prever este tipo de situação, sendo assim, são modelos mais 
complexos e, portanto, pouco preferidos para uso.
118ENGENHARIA DA CONFIABILIDADE
c. Stress progressivo: semelhante o stress crescente, mas o nível de 
stress é continuamente aumentado (continuamente crescente), o 
que pode ser feito linear ou não-linearmente (exponencial, por 
exemplo), sendo que possuem os mesmos efeitos de velocidade 
de teste e complexidade de modelagem que o stress crescente.
d. Stress cíclico: neste modelo, as amostras são submetidas a um 
determinado stress por um tempo (normalmente uma carga 
maior do que a prevista em projeto) de maneira intermitente, 
carregando e descarregando a amostra seguidamente a intervalos 
de tempo determinados (intervalos menores do que seu uso 
norma), de maneira a demonstrar seu comportamento normal, 
mas de forma muito acelerada, desde que seja o uso pretendido 
do produto, o que é uma vantagem, mas em compensação, os 
modelos matemáticos utilizados para demonstrar este compor-
tamento não conseguem ser validados de forma prática.
119ENGENHARIA DA CONFIABILIDADE
De maneira usual, busca-se delinear modelos que procu-
ram descrever o comportamento do componente ou sistema 
em questão, relacionando o nível de stress aplicado e o fator 
de aceleração, ou seja, em relação a um determinado nível de 
stress aplicado, qual a redução no tempo até a falha. Estes 
modelos podem ser lineares, descritos por regressões lineares 
simples, ou não lineares, descritos por modelos matemáticos 
diferenciados:
a. Modelo de Arrhenius: normalmente utilizado para descre-
ver componentes eletrônicos, onde relaciona o tempo entre 
falhas com a temperatura de operação do componente (usu-
almente provocada pelo aumento de voltagem), verificada 
pelas seguintes equações:
Nesta equação:
Lo = MTTF na temperatura normal de operação
Ls = MTTF na temperatura de stress acelerado
Ea = Energia de Ativação (efeito da aceleração da tempe-
ratura sobre a velocidade da reação, em eV/K)
k = constante de Boltzmann (8,623x10-⁵ eV/K)
To = Temperatura normal de operação (K)
Ts = Temperatura de stress acelerado (K)
Ar = Aceleração térmica
120ENGENHARIA DA CONFIABILIDADE
Exemplo: o teste de um componente à temperatura de 180°C 
demonstrou um MTTF de 2.500h, sendo Ea do componente 
igual a 0,197 eV/K, qual a vida esperada e o fator de aceleração 
térmica para o mesmo em um a temperatura de 30°C?
Substituindo os valores nas equações (57) e (58), obtemos:
b) Modelo de Weibull: este modelo segue a distribuição 
de Weibull, que foi tratada anteriormente, tendo sua função 
de falha F(t) dada pela equação (10), onde β é o fator de forma 
da distribuição acelerada e o fator de escala η é linearmente 
crescente em virtude do fator de aceleração da vida útil do 
componente. É um modelo bastante utilizado na prática, para 
descrever comportamento de componentes mecânicos e cos-
tuma necessitar da utilização de softwares para cálculo com 
base em iterações de fatores. Neste caso, podemos verificar as 
seguintes equações:
Nesta equação:
ηo = fator de escala na condição normal de utilização
ηs = fator de escala na condição de stress acelerado
Ar = fator de aceleração
β = fator de forma da distribuição
Γ = função Gama (integral indefinida tabelada)
MTTFo = Tempo médio até a falha na condição normal 
de utilização
121ENGENHARIA DA CONFIABILIDADE
Um exemplo de curva de aceleração de vida pode ser visto 
no modelo a seguir, visto em Mohammadzadeh, Ahadi e Nouri 
(2014) onde, para vários níveis de Stress, um componente de 
suspensão de trem é avaliado quanto a sua confiabilidade no 
tempo:
122ENGENHARIA DA CONFIABILIDADE
SÍNTESE
Neste capítulo, verificamos os conceitos e procedimentos para a realização de testes ace-
lerados de vida de componentes e sistemas, que é uma metodologia bastante utilizada para 
avaliação da vida útil dos mesmos, de forma a não demorar o tempo real para averiguação 
da adequação do produto às necessidades do mercado.
123ENGENHARIA DA CONFIABILIDADE
EXERCÍCIOS
1. O que é um teste de vida acelerado?
2. Quais métodos de aceleração podemos empreender nos diferentes produtos a fim de verificar sua vida útil?
3. Quais são as vantagens da realização de testes de vida acelerados?
4. O quesão fatores de aceleração?
5. Qual a inf luência que a realização de testes acelerados pode acarretar em termos de confiabilidade?
124ENGENHARIA DA CONFIABILIDADE
ENGENHARIA DA 
CONFIABILIDADE
Como organizar as diversas metodologias 
vistas? Quais as ferramentas de apoio?
125ENGENHARIA DA CONFIABILIDADE
Verificamos vários conceitos referentes à Confiabilidade 
e suas diversas aplicações, que são bastante vastas e visam ga-
rantir produtos e processos em relação a falhas, aumentando 
a probabilidade de que estes desempenharão corretamente seu 
papel ao longo do tempo para o qual foram desenvolvidos.
Sendo assim, a Engenharia da Confiabilidade é, de ma-
neira bem geral, aplicação destes conceitos nos processos que 
se fizerem necessários, seja no desenvolvimento de produtos, 
desenvolvimento de processos, de sistemas de medição, etc. 
Uma outra aplicação bastante difundida de Engenharia da 
Confiabilidade, é na área de Manutenção Industrial onde, 
como há de se imaginar, busca-se tratar os equipamentos e 
instalações de modo que não produzam falhas, ou seja, que no 
momento necessário do seu uso, os mesmos estejam em pleno 
funcionamento. O fato dos equipamentos estarem funcionando, 
quando se necessita dos mesmos, é chamado de Disponibilidade, 
sendo esta a medida de confiabilidade dos equipamentos de 
um processo qualquer e que determina a probabilidade des-
tes equipamentos estarem funcionando. Entendendo que os 
equipamentos são recuperáveis, é bastante compreensível que, 
ao longo do tempo, os mesmos deverão apresentar uma série 
de falhas que, como já comentamos, podem ser resolvidas e, 
portanto, o equipamento ter seu estado operante recuperado.
De modo a não focar nas questões de manutenção, que são 
objetos de estudos de outras disciplinas, mas com o intuito de 
demonstrar a aplicação da confiabilidade na mesma, podemos 
entender que os equipamentos são nossos sistemas e os mesmos 
estão sujeitos a falhas e são considerados renováveis. Deste 
modo, os períodos entendidos entre as falhas do equipamento, 
126ENGENHARIA DA CONFIABILIDADE
ou seja, os períodos onde o equipamento está funcionando, 
pode ser considerado de maneira muito correta como o MTBF 
do equipamento, ou seja, a média destes tempos será o tempo 
médio entre falhas do equipamento.
Analogamente, desde o momento de sua parada (falha) 
até o momento que o equipamento, após recuperado, volta 
a funcionar, podemos considerar como o MTTR, ou seja, a 
média destes tempos será o tempo médio de recuperação do 
equipamento. Graficamente, podemos entender da seguinte 
maneira:
Observando a figura acima e determinando os períodos 
de tempo onde o equipamento está funcionando, estão deter-
minados pela letra X (X1 e X2) e os períodos de tempo que 
o equipamento está em fase de recuperação (estado de falha, 
parado) são determinados pela letra R (R1 e R2), logo, o MTBF 
será dado pela média dos valores de X e o MTTR será dado 
pela média dos valores de R, sejam ambos quantos forem, 
de acordo com o histórico da empresa. A disponibilidade do 
equipamento pode ser definida pela seguinte equação:
Nesta equação:
MTBF = tempo médio entre falhas do equipamento
MTTR = tempo médio de recuperação do equipamento
A = nível de disponibilidade do equipamento
Analisando a equação acima, podemos entender que exis-
tem duas possibilidades de melhorar a disponibilidade de um 
equipamento, uma delas é aumentar o tempo médio entre falhas 
(MTBF) e outra é diminuir o tempo médio de recuperação 
127ENGENHARIA DA CONFIABILIDADE
(MTTR), sendo que, em equipamentos onde o MTTR é con-
siderado desprezível em relação ao MTBF, pode-se considerar 
a disponibilidade como 100%, pois são rapidamente reparados. 
As técnicas de aumento de MTBF acabam passando por sis-
temáticas de manutenção preventiva e preditiva.
FMEA
Além das avaliações de MTBF e MTTR, outra importante 
ferramenta de Engenharia de Confiabilidade é o FME, sigla 
em inglês para Failure Mode and Effect Analysis ou Análise do 
Modo e Efeito de Falha, que também é objeto de tratamento em 
manual publicado pelo IATF, que está na sua 4ª edição, desde 
2011. Neste manual, são tratados os detalhes e interpretações 
dos diversos detalhes que compõem a metodologia, considerada 
como uma das mais importantes ferramentas preventivas e de 
confiabilidade de Projeto e Processos (DFMEA e PFMEA). 
Uma outra abordagem de FMEA tem ganhado bastante desta-
que no que tange, principalmente, confiabilidade de maquinário 
com o lançamento de um manual do IATF específico para tratar 
do assunto, denominado como MFMEA, sigla em inglês para 
Machinery Failure Mode and Effects Analysis ou Análise do 
Modo e Efeito de Falha de Maquinário, que atualmente está 
em sua 2ª edição desde 2012.
Qualquer um dos tipos de FMEA acaba se baseando, de 
maneira geral, na compreensão do que é falha para o objeto 
que está sendo tratado, qual a severidade do efeito desta falha, 
como a mesma ocorre e em que frequência e de que maneira 
e facilidade a mesma pode ser verificada. A intenção neste 
estudo não é tratar os detalhes do funcionamento do FMEA, 
mas atentar para o que se considera mais importante, que não 
OBS: é interessante pensar que sistemas muito complexos, 
tais como uma aeronave de certo porte, podem ser 
pensados a nível de sistema e “mantidas” com base nos 
estudos de confiabilidade, quando se compreende que sua 
confiabilidade é resultado da capacidade de manter o item 
disponível para uso sem falhas.
128ENGENHARIA DA CONFIABILIDADE
ocorram falhas, principalmente as julgadas como severas. Esta severidade é considerada 
de acordo com a seguinte tabela:
Efeito Critérios: Severidade do efeito no produto (efeito no Cliente) Classificação
Falha em atender a
requisitos de segu-
rança e/ou
regulatórios
Modo de falha potencial afeta a operação segura do veículo e/ou envolve não-
conformidade com regulamentação governamental, sem prévio aviso. 10
Modo de falha potencial afeta a operação segura do veículo e/ou envolve não-
-conformidades com regulamentação governamental, com aviso prévio. 9
Perda ou degra-
dação de função 
primária
Perda de função primária (veículo inoperável, não afeta a operação segura do
veículo). 8
Degradação de função primária (veículo operável, mas com um nível reduzido de
desempenho). 7
Perda ou degra-
dação de função 
secundária
Perda de função secundária (veículo operável, mas as funções de conforto/conve-
niência estão inoperáveis). 6
Degradação de função secundária (veículo operável, mas as funções de conforto/
conveniência apresentam um nível reduzido de desempenho). 5
Incômodo
Aparência ou ruído audível, (veículo operável, item não conforme e percebido pela 
maioria dos clientes (>75%). 4
Aparência ou ruido audível, veículo operável, item não conforme e percebido por 
muitos clientes (>55%). 3
Aparência ou ruido audível, veículo operável, item não conforme e percebido por 
clientes observadores (<25%) 2
Nenhum efeito Nenhum efeito perceptível. 1
As demais avaliações relativas à 
ocorrência e detecção têm detalhes 
específicos quando se trata de Proje-
to, Processo ou Equipamento, onde 
abordam da probabilidade destas 
falhas ocorrerem e da probabilidade 
da mesma ser detectada. Lembrando 
que estas probabilidades são basea-
das em históricos e conhecimento do 
assunto por parte dos participantes, 
ou seja, são valores estimados, pois 
não se tem a certeza da ocorrência 
destas situações, mesmo porque, há 
de se entender que o FMEA é uma 
ferramenta PREVENTIVA, ou seja, 
seu uso acontece antes de definir 
o projeto do produto, seu processo 
produtivo ou, especificamente, o 
maquinário utilizado na operação.
129ENGENHARIA DA CONFIABILIDADE
FTA
Outra ferramenta de avaliação da confiabilidade utilizada, 
principalmente, na definição de sistemas de segurança, é o 
FTA, sigla em inglês para Failure (ou Fault) Tree Analysis ou 
Análise de Árvore de Falha. Esta sistemática visa, principal-
mente, estabelecer lógicas de causa e efeito entre os eventos deum sistema (falhas, na sua maioria) e muitas vezes tal análise 
serve de alimentação para a realização do próprio FMEA.
A principal ideia do FTA é a sistematização do raciocínio 
atrelado nas definições de projeto, a qual tem usos comprovados 
na definição dos sistemas de segurança de usinas termonucleares 
e também em sistemas de segurança de estações complexas, 
podendo ser utilizada de uma série de formas, desde que se 
entenda qual o evento final desejado para análise, procurando 
entender qual o mecanismo que causa seu acontecimento e as 
inter-relações entre as diversas instâncias do mesmo, conforme 
segue:
A metodologia prevê, de forma gráfica, a representação da 
lógica do sistema, utilizando a seguinte simbologia:
130ENGENHARIA DA CONFIABILIDADE
Além destes elementos, temos os operadores lógicos, que 
podem ser entendidos exatamente como a análise probabilís-
tica do acontecimento de um evento, conforme aprendemos 
anteriormente:
Existem outras dissidências e associações da simbologia 
aqui representada, que não serão objeto do nosso apontamento. 
Abaixo, um exemplo de um sistema lógico, simples, e definido 
conforme a metodologia do FTA.
No diagrama acima, podemos entender que, para ocor-
rerem danos em uma determinada central de controle devido 
a um incêndio (evento principal), ou (operador lógico) deve 
acontecer um incêndio no subsolo (evento) ou deve acontecer a 
associação (operador lógico) de um incêndio no primeiro piso 
(evento) e ainda, o fato dos bombeiros demorarem a atender o 
caso (evento que não se tem controle). Desta forma, é necessário 
pensar e prevenir, para o primeiro caso, o incêndio do subsolo 
ou, no segundo caso, garantir que uma das duas condições 
não ocorram, sendo que em relação a uma das mesmas não se 
tem gerência, pois existe dependência de fatores que não são 
controlados pelo processo em questão.
131ENGENHARIA DA CONFIABILIDADE
SÍNTESE
Neste capítulo, verificamos como funciona a organização entre as diversas metodologias 
para confiabilidade nos processos e produtos, bem como, verificamos a existência de outras 
ferramentas aplicáveis quando da definição de produtos (projetos) e processos com base em 
compreender e aplicar os corretos meios para busca de confiabilidade nos mesmos.
132ENGENHARIA DA CONFIABILIDADE
EXERCÍCIOS
1. Qual a função da Engenharia de Confiabilidade?
2. Quais métodos de avaliação de processos e sistemas podemos utilizar em relação ao projeto dos mesmos?
3. O que significa a severidade de uma falha?
4. Como são entendidas as redundâncias em termos de FTA?
5. Qual a aplicabilidade destes conceitos no seu meio profissional?
133ENGENHARIA DA CONFIABILIDADE
Lista de siglas
Como utilizamos várias siglas que se repetem ao longo do ebook, para não haver a necessidade de todo o momento ficar 
procurando as mesmas ao longo do texto, criamos esta lista para facilitar sua consulta.
ALT - Accelerated Life Test (Ensaios de Vida Acelerados)
AIAG – Automotive Industry Action Group (Grupo de Ação da Indústria Automotiva)
IATF – International Automotive Task Force (Força Tarefa Automotiva Internacional)
HALT - Highly Accelerated Life Test (Ensaios de Vida Acelerados)
MSA – Measurement System Analisys (Análise do Sistema de Medição)
PoF – Physics of Failure (Física das Falhas)
TTF – Time to Fail (Tempo até a Falha)
134ENGENHARIA DA CONFIABILIDADE
TABELAS
Tabela de Distribuição Normal Padronizada
135ENGENHARIA DA CONFIABILIDADE
Tabela para fatores construtivos de gráficos de variáveis
136ENGENHARIA DA CONFIABILIDADE
REFERÊNCIAS
AUTOMOTIVE INDUSTRY ACTION GROUP. 
ANÁLISE DO SISTEMA DE MEDIÇÃO - MSA: Ma-
nual de Referência. 4 ed. São Paulo: Iqa, 2010
AUTOMOTIVE INDUSTRY ACTION GROUP. 
CONTROLE ESTATÍSTICO DO PROCESSO - CEP: 
Manual de Referência. 2 ed. São Paulo: Iqa, 2005
AZARKHAIL, Mohammadreza; MODARRES, 
Mohammad. The Evolution and History of Reliability Engi-
neering: Rise of Mechanistic Reliability Modeling. Interna-
tional Journal Of Performability Engineering, Maryland, v. 
9, n. 1, p.1-13, jan. 2012.
FOGLIATTO, Flávio Sanson; RIBEIRO, José L. D. 
Confiabilidade e Manutenção Industrial. Rio de Janeiro: El-
sevier, 2009.
MOHAMMADZADEHL, Saeed; AHADI, Sodayf; 
NOURI, Mehrdad. Stress-based fatigue reliability analysis 
ofthe rail fastening spring clipunder traffic loads. Latin Ame-
rican Journal of Solids and Structures, V. 11. , nov. 2014.
PIAZZA, Gilberto. Introdução à Engenharia da Confia-
bilidade. Caxias do Sul: EDUCS, 2000.
SLACK, Nigel; CHAMBERS, Stuart; JOHNSTON, 
Robert. Administração da Produção. 3. ed. São Paulo: Atlas, 
2009. 
WALPOLE, Ronald E.; et al. Probabilidade e Estatística 
para Engenharia e Ciências. 8. ed. São Paulo: Pearson Prentice 
Hall, 2009
	O que é confiabilidade?
	História
	Conceitos
	Elementos de estatística associados
	Variáveis discretas X Variáveis contínuas
	Densidade
	População e amostra
	Regras e funções específicas
	Distribuições de probabilidade
	Cálculo da confiabilidade
	Medidas de confiabilidade
	Itens reparáveis e não reparáveis
	Análise da capacidade de processos
	Cálculo da capabilidade
	Probabilidade de falhas
	Confiabilidade de verificação por atributos
	Confiabilidade de sistemas de medição
	Análise de discriminação
	Repetibilidade e reprodutibilidade
	Repetibilidade e reprodutibilidade por atributo
	Confiabilidade de componentes e sistemas
	Sistemas em Série
	Sistemas em Paralelo
	Sistemas série-paralelo e mistos
	Confiabilidade geral de sistemas
	Curva da banheira
	Planejamento de experimentos com um único fator (ANOVA) e com vários fatores
	Execução de experimentos pelo método ANOVA
	Aceleração de vida útil de componentes
	Engenharia da Confiabilidade
	FMEA
	FTA
	Lista de siglas
	TABELAS

Mais conteúdos dessa disciplina