Buscar

Gerencia de Risco

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 171 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 171 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 171 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Brasília-DF. 
Gerência de risco
Elaboração
Paulo Rogério Albuquerque de Oliveira
Produção
Equipe Técnica de Avaliação, Revisão Linguística e Editoração
Sumário
APRESENTAÇÃO ................................................................................................................................. 5
ORGANIZAÇÃO DO CADERNO DE ESTUDOS E PESQUISA .................................................................... 6
INTRODUÇÃO.................................................................................................................................... 8
UNIDADE I
ESTATÍSTICA.......................................................................................................................................... 11
CAPÍTULO 1
ESTATÍSTICA DESCRITIVA .......................................................................................................... 11
CAPÍTULO 2
ESTATÍSTICA INFERENCIAL ........................................................................................................ 18
UNIDADE II
RISCOS, SISTEMAS E CONFIABILIDADE .................................................................................................. 32
CAPÍTULO 1
INTRODUÇÃO ........................................................................................................................ 32
CAPÍTULO 2
MAS, O QUE É RISCO? ........................................................................................................... 35
CAPÍTULO 3
DISPONIBILIDADE E CONFIABILIDADE ...................................................................................... 43
CAPÍTULO 4
ÁLGEBRA BOOLEANA ............................................................................................................. 48
CAPÍTULO 5
EVOLUÇÃO DAS AÇÕES PREVENCIONISTAS ............................................................................ 50
CAPÍTULO 6
A CONDIÇÃO INSEGURA DO ATO INSEGURO: O MITO ............................................................ 54
CAPÍTULO 7
ENGENHARIA DE SEGURANÇA DE SISTEMAS............................................................................ 62
CAPÍTULO 8
ASPECTOS CONCEITUAIS DA ANÁLISE DE ACIDENTES .............................................................. 65
CAPÍTULO 9
ASPECTOS FINANCEIROS E ECONÔMICOS DA GERÊNCIA DE RISCOS ..................................... 69
UNIDADE III
ANÁLISE DE RISCOS: REVISÃO SISTÊMICA ............................................................................................. 71
CAPÍTULO 1
SER HUMANO TEM AVERSÃO AO RISCO? ................................................................................ 76
CAPÍTULO 2
DIALÉTICA DO RISCO ............................................................................................................. 80
CAPÍTULO 3
AVALIAÇÃO E COMUNICAÇÃO DE RISCOS ............................................................................ 93
CAPÍTULO 4
PROCESSOS DE AVALIAÇÃO DE PERIGO ................................................................................. 99
UNIDADE IV
TÉCNICAS ATRIBUÍDAS ESPECIFICAMENTE A ENGENHARIA DE SEGURANÇA DO TRABALHO .................. 108
CAPÍTULO 1
ANÁLISE PRELIMINAR DE PERIGO (APR) .................................................................................. 108
CAPÍTULO 2
FAILURE MODESAND EFFECT ANALYSIS (FMEA) ..................................................................... 112
CAPÍTULO 3
ANÁLISE DE ÁRVORE DE FALHA ( AAF ) OU FAULT TREE ANALYSIS – ( FTA)................................. 127
CAPÍTULO 4
ANÁLISE DE ÁRVORE DE EVENTOS (AAE) EVENT TREE ANALYSIS (ETA) ....................................... 144
CAPÍTULO 5
ESTUDO DA OPERABILIDADE E PERIGO (HAZARDAND OPERABILITY STUDIES – HAZOP) ............. 150
CAPÍTULO 6
LIMITAÇÕES DA ANÁLISE DE RISCOS E RESUMO .................................................................... 161
PARA (NÃO) FINALIZAR ................................................................................................................... 165
REFERÊNCIAS ................................................................................................................................ 166
5
Apresentação
Caro aluno
A proposta editorial deste Caderno de Estudos e Pesquisa reúne elementos que se 
entendem necessários para o desenvolvimento do estudo com segurança e qualidade. 
Caracteriza-se pela atualidade, dinâmica e pertinência de seu conteúdo, bem como pela 
interatividade e modernidade de sua estrutura formal, adequadas à metodologia da 
Educação a Distância – EaD.
Pretende-se, com este material, levá-lo à reflexão e à compreensão da pluralidade 
dos conhecimentos a serem oferecidos, possibilitando-lhe ampliar conceitos 
específicos da área e atuar de forma competente e conscienciosa, como convém 
ao profissional que busca a formação continuada para vencer os desafios que a 
evolução científico-tecnológica impõe ao mundo contemporâneo.
Elaborou-se a presente publicação com a intenção de torná-la subsídio valioso, de modo 
a facilitar sua caminhada na trajetória a ser percorrida tanto na vida pessoal quanto na 
profissional. Utilize-a como instrumento para seu sucesso na carreira.
Conselho Editorial
6
Organização do Caderno 
de Estudos e Pesquisa
Para facilitar seu estudo, os conteúdos são organizados em unidades, subdivididas em 
capítulos, de forma didática, objetiva e coerente. Eles serão abordados por meio de textos 
básicos, com questões para reflexão, entre outros recursos editoriais que visam a tornar 
sua leitura mais agradável. Ao final, serão indicadas, também, fontes de consulta, para 
aprofundar os estudos com leituras e pesquisas complementares.
A seguir, uma breve descrição dos ícones utilizados na organização dos Cadernos de 
Estudos e Pesquisa.
Provocação
Textos que buscam instigar o aluno a refletir sobre determinado assunto antes 
mesmo de iniciar sua leitura ou após algum trecho pertinente para o autor 
conteudista.
Para refletir
Questões inseridas no decorrer do estudo a fim de que o aluno faça uma pausa e reflita 
sobre o conteúdo estudado ou temas que o ajudem em seu raciocínio. É importante 
que ele verifique seus conhecimentos, suas experiências e seus sentimentos. As 
reflexões são o ponto de partida para a construção de suas conclusões.
Sugestão de estudo complementar
Sugestões de leituras adicionais, filmes e sites para aprofundamento do estudo, 
discussões em fóruns ou encontros presenciais quando for o caso.
Praticando
Sugestão de atividades, no decorrer das leituras, com o objetivo didático de fortalecer 
o processo de aprendizagem do aluno.
7
Atenção
Chamadas para alertar detalhes/tópicos importantes que contribuam para a 
síntese/conclusão do assunto abordado.
Saiba mais
Informações complementares para elucidar a construção das sínteses/conclusões 
sobre o assunto abordado.
Sintetizando
Trecho que busca resumir informações relevantes do conteúdo, facilitando o 
entendimento pelo aluno sobre trechos mais complexos.
Exercício de fixação
Atividades que buscam reforçar a assimilação e fixação dos períodos que o autor/
conteudista achar mais relevante em relação a aprendizagem de seu módulo (não 
há registro de menção).
Avaliação Final
Questionário com 10 questões objetivas, baseadas nos objetivos do curso, 
que visam verificar a aprendizagem do curso (há registro de menção). É a única 
atividade do curso que vale nota, ou seja, é a atividade que o aluno fará para saber 
se pode ou não receber a certificação.
Para (não) finalizar
Texto integrador, ao final do módulo, que motiva o aluno a continuar a aprendizagem 
ou estimula ponderações complementares sobre o módulo estudado.
8
Introdução
Bem-vindo à disciplina Gerência de Risco –GR. Este é o nosso Caderno de Estudos e 
Pesquisa, material básico aos conhecimentos exigidos da Engenharia de Segurança do 
Trabalho – EST. Você já fez uma análise de risco?
 » Ao olhar o céu, decidir por levar ou não o guarda-chuva.
 » Ao comprar um imóvel ou um ônibus.
 » Ao decidir por autorizar ou não os filhos a viajar com os amigos.
 » Ao escolher entre tirar nota baixa e colar em uma prova.
 » Ao atravessar a rua.
 » Ao aceitar ou não uma proposta de emprego.
 » Ao encontrar um caminhão bastante lento em aclive sinuoso: ultrapassar 
ou frear forte?
 » Ao dizer sim no casamento!
 » Ao planejar uma viagem de férias
Faz-se análise de risco o tempo todo, porém de maneira aleatória. As decisões mudam e 
nem sempre todos os aspectos são considerados. Essa disciplina – mediante as técnicas 
de analise de risco – ajudará a decifrar, entender, avaliar o meio ambiente do trabalho 
sob a perspectiva da EST. 
A ênfase desse curso está na abordagem estatístico-probabilística juntamente às 
técnicas de análise de risco difundidas pela Engenharia de Segurança de Sistemas, 
assim entendida1a ciência que se utiliza de todos os recursos que a engenharia oferece, 
preocupando-se em detectar toda a probabilidade de incidentes críticos que possam 
inibir ou degradar um sistema de produção, com o objetivo de identificar esses 
incidentes críticos, controlar ou minimizar sua ocorrência e seus possíveis efeitos. 
1 Segundo De Cicco e Fantazzini (1977), a Engenharia de Segurança de Sistemas foi introduzida na América Latina pelo 
engenheiro Hernán Henriquez Bastias, sob a denominação de Engenharia de Prevenção de Perdas. Outra forma de denominar 
a Enga de Segurança do Trabalho.
9
Considerando que esse curso é especialização em nível superior, registre-se de pronto 
que esse material de estatística apenas introduz esse suporte teórico às análises e 
decisões que devem ser tomadas no âmbito da gerencia do risco. Por isso, o cursista 
deve procurar revisar livros de estatística básica para complementar o conteúdo aqui 
iniciado. 
Desejamos a você um trabalho proveitoso sobre os temas abordados! 
Objetivos
 » Apresentar e discutir aspectos teóricos e práticos sobre gerenciamento de 
riscos, utilizando ferramentas para análise de riscos e tomada de decisão 
voltada à engenharia de segurança do trabalho.
 » Conhecer e utilizar técnicas de análise de riscos como ferramentas para 
uma gestão de riscos.
 » Apropriar-se dos mecanismos de controle para intervenção ambiental.
 » Entender as definições básicas da EST ao classificar e identificar perigo, 
risco e fator de risco ambiental.
 » Capacitar-se para avaliação e gestão de riscos.
 » Conhecer e interpretar corretamente técnicas, métodos e testes estatísticos 
e probabilísticos que instrumentalizam a engenharia de segurança do 
trabalho.
11
UNIDADE IESTATÍSTICA
CAPÍTULO 1
Estatística descritiva
Estatística descritiva é a apresentação, organização, sumarização e descrição de um 
conjunto de dados. Esta relacionada com gráficos, tabelas e cálculos de medidas com 
base em uma coleção de dados numéricos. Encarrega-se de descrever um conjunto de 
dados desde a elaboração da pesquisa até o cálculo de determinada medida.
Figura 1.
Fonte: próprio autor
Estatística Inferencial é o método que torna possível a estimativa de características de 
uma população baseado nos resultados amostrais. Seu início deu-se sobre a formulação 
matemática da teoria da probabilidade em jogos de azar. 
Indivíduos são os objetos descritos por um conjunto de dados. Os indivíduos podem 
ser pessoas, mas podem também ser animais ou objetos.
Variável é qualquer característica de um indivíduo. Uma variável pode tomar valores 
diferentes para indivíduos distintos.
População é o conjunto de indivíduos, podendo ser finita ou não.
Amostra é a parte finita e representativa da população, capaz de reproduzir as 
características da população. Subconjunto da população. O processo de extração da 
amostra é chamado amostragem.
12
UNIDADE I │ ESTATÍSTICA
Variável categórica indica a qual de diversos grupos ou categorias um indivíduo 
pertence.
Variável quantitativa toma valores numéricos com os quais tem sentido efetuar 
operações aritméticas, como somar ou tomar médias.
Uma Amostra Aleatória Simples (AAS) de tamanho n consiste em n indivíduos, ou 
elementos, da população, escolhidos de maneira que qualquer conjunto de n indivíduos 
tenha a mesma chance de constituir a amostra extraída.
Teorema Central do Limite: Considere uma AAS de tamanho n extraída de uma 
população qualquer com média μ e desvio padrão finito σ. Quando n é grande, a 
distribuição amostral da média amostral x se aproxima da distribuição normal N(μ,σ/
1
i
x
x n
= ∑ ) com média μ e desvio padrão σ/
1
i
x
x n
= ∑ .
Valor P do teste é a probabilidade - supondo-se H0 (hipótese nula) verdadeira - 
de estatística de um teste assumir um valor no mínimo tão extremo quanto o valor 
efetivamente observado. Quanto menor for o valor P, mais forte será a evidência contra 
H0 fornecida pelos dados.
Nível de significância é o valor decisivo de P representado por α.
Medidas de tendência central
O objetivo de utilizar as medidas de tendência central é de caracterizar o centro de uma 
distribuição de uma variável. As principais medidas utilizadas são: Moda, Mediana e 
Média.
Moda
Quando a variável é qualitativa, a única medida que se pode utilizar é a moda. Essa 
medida é a categoria da variável mais frequente numa distribuição, ou seja, é o valor da 
variável mais comum.
Tabela 1. Distribuição de motoristas de ônibus segundo local de refeição, São Paulo. 1991.
Local No
No bar 169
No ônibus 125
Em casa 78
Não comeu 64
Outro 28
Total 464
Fonte: próprio autor
13
ESTATÍSTICA │ UNIDADE I
Nesse exemplo, a moda do local de refeição é “No bar”, pois esta é a categoria da 
variável que apresentou a maior frequência (f = 169), indicando que o mais comum é os 
motoristas fazerem suas refeições no bar.
Média
A medida mais comum das medidas de centro é a média aritmética, ou simplesmente 
média:
1
i
X x
n
= ∑
Tabela 2. Planilha dos números de benefícios por incapacidade pelo INSS.
Fonte: próprio autor
Deve ser utilizado em variáveis quantitativas. Essa medida sempre existe e quando 
calculada admite um único valor, porém, sofre grande influência de valores discrepantes, 
será atraída por este valor se houver uma baixa frequência dos dados.
Mediana
É o “valor do meio”. Divide a distribuição de frequências em duas partes, permanecendo 
50% abaixo e 50% acima do valor mediano. Utilizando-se o seguinte procedimento para 
encontrar a mediana:
a. verificar se os intervalos estão em ordem crescente;
b. construir a frequência acumulada;
c. encontrar a posição da mediana;
 › se n for par, a posição será: np=
2
14
UNIDADE I │ ESTATÍSTICA
 › se n for ímpar: (n+1)p=
2
a. quando a variável é contínua, deve-se aplicar a seguinte fórmula, baseando-
se nos valores da classe mediana:
2=
n f h
Md Li
Fmd
 − 
 +
∑
Li = limite inferior da classe mediana;
n = tamanho da amostra ou número de elementos;
Σf = soma das frequências anteriores à classe mediana
H = amplitude da classe mediana;
Fmd = frequência da classe mediana.
Tabela 3. Exposição a poeiras e fumos de chumbo.
Anos (x) F F acumulada
0 – 2 8 8
2 – 4 15 23
4 – 6 7 30
6 – 8 4 34
Fonte: próprio autor
Posição da Mediana: n=34, então p= 34/2 = 17 e o intervalo mediano é o segundo, 
pois antes deste na frequência acumulada há 8 elementos da distribuição e o valor 17 
está contido no intervalo que vai de 2 anos a 4 anos, assim, para utilizar a fórmula da 
mediana, trabalhamos com os valores deste intervalo:
Li = 2;
Σf= 8;
H = 4 – 2 =2;
Fmd= 15.34 8 2
2=2 3,2 anos
15
Md
 − 
 + =
15
ESTATÍSTICA │ UNIDADE I
Medidas de dispersão
Quartis
Os quartis delimitam a metade central dos dados. Fazendo a contagem na lista 
ordenada de observações, a partir da menor, o primeiro quartil está no primeiro quarto 
do caminho. O terceiro quartil está a três quartos do caminho. Em outras palavras, o 
primeiro quartil supera 25%, e o terceiro quartil supera 75% das observações, O segundo 
quartil é a mediana, que supera 50% das observações.
Para calcular os quartis:
Dispomos as observações em ordem crescente e localizamos a mediana Md na lista 
ordenada de observações. O primeiro quartil Q1 é a mediana das observações que estão 
à esquerda da mediana global na lista ordenada de observações. O terceiro quartil Q3 é 
a mediana das observações que estão à direita da mediana global na lista ordenada de 
observações.
A melhor representação para os quartis é o diagrama em caixa (box-plot), como se 
segue:
Figura 2.
Fonte: próprio autor
16
UNIDADE I │ ESTATÍSTICA
Variação amostral
Como se deseja medir a dispersão dos dados em relação à média, é interessante analisar 
os desvios de cada valor (xi) em relação à média x , isto é: di = (xi - x ). A variância, S2, 
de uma amostra de n medidas é igual à soma dos quadrados dos desvios dividida por 
(n-1), assim:
2 2
2 ( )=
1 1
i id x XS
n n
−
=
− −
∑ ∑
Desvio padrão amostral
Para melhor entender a dispersão de uma variável, calcula-se a raiz quadrada da 
variância, obtendo-se o desvio padrão que será expresso na unidade de medida original. 
Assim:
2
2 ( )=
1
ix XS S
n
−
=
−
∑
Regra empírica: para qualquer distribuição amostral com média x e desvio padrão S, 
tem-se:
 » O intervalo x± S contém entre 60% e 80% de todas as observações 
amostrais. A porcentagem aproxima-se de 70% para distribuições 
aproximadamente simétricas, chegando a 90% para distribuições 
fortemente assimétricas.
 » O intervalo x± 2S contém aproximadamente 95% das observações 
amostrais para distribuições simétricas e aproximadamente 100% para 
distribuições com assimetria elevada.
 » O intervalo x± 3S contém aproximadamente 100% das observações 
amostrais, para distribuições simétricas.
Teorema de Tchebycheff: Para qualquer distribuição amostral com média x e desvio 
padrão S, tem-se:
 » O intervalo x± 2S contém, no mínimo, 75% de todas as observações 
amostrais.
 » O intervalo x± 3S contém, no mínimo, 89% de todas as observações 
amostrais.
17
ESTATÍSTICA │ UNIDADE I
Coeficiente de variação de Pearson
Trata-se de uma medida relativa de dispersão. . .=
SC V 100
X
⋅
Eis algumas regras empíricas para interpretações do coeficiente de variação:
Se: C.V. < 10% tem-se baixa dispersão. 
Se: 10% ≤ C.V. < 20% tem-se média dispersão. 
Se: C.V. 20% ≤ C.V. < 30 tem-se alta dispersão. 
Se: C.V. > 30% tem-se muito alta dispersão.
Escore padronizado
Outra medida relativa de dispersão é o para uma medida xi. É dado por:
= ix XiZ S
−
Para detectar observações que fogem das dimensões esperadas (outliers), pode-se 
calcular o escore padronizado (Zi) considerar outliers as observações cujos escores, em 
valor absoluto (em módulo), sejam maiores do que 3. 
18
CAPÍTULO 2
Estatística inferencial
Antes de adentrar a inferência, é importante destacar a população e os conjuntos 
populacionais relacionados à EST. Usa-se a seguir um diagrama de Venn, conforme 
Figura 3, para melhor visualizar essas dimensões.
Figura 3. Diagrama de Venn com as populações externa, alvo, real e estudo.
Fonte: próprio autor
A População Economicamente Ativa – PEA2, área (2) do diagrama, também denominada 
de população alvo ou base populacional3 é constituída pela população ocupada e pela 
população desocupada. A população ocupada compreende as pessoas que trabalham – 
os indivíduos que têm patrão; os que exploram seu próprio negócio e os que trabalham 
sem remuneração em ajuda a membros da família – nos setores públicos e privados e 
nos serviços domésticos remunerados. 
A população desocupada compreende as pessoas que não têm ou efetivamente estão 
procurando ocupação, em um determinado período de referência e incorpora o conceito 
de disponibilidade para assumir o trabalho.
A População Real (3), normalmente alvo de estudos da EST, denominada universo 
amostral, censitária (N), em acinzentado no diagrama, está contida na PEA e é 
constituída por vínculos empregatícios que foram declarados mensalmente no Cadastro 
Nacional de Informações Sociais – CNIS4 pelas empresas por intermédio da Guia do 
Recolhimento do Fundo de Garantia por Tempo de Serviço – FGTS e Informação da 
Previdência Social – GFIP.
A População de Estudo (4) – amostral (n) –, subconjunto da população real, é constituída 
por vínculos empregatícios das empresas pertencentes a uma determinada Classificação 
Nacional de Atividades Econômicas – CNAE-Classe . O somatório das populações de 
estudo resulta na População Real. Essa é a mais importante para o EST, pois é aquela 
que normalmente está disponível, cujos números são compatíveis com as quantidades 
de empregados listadas no Programa de Prevenção dos Riscos Ambientais (PPRA) e 
Programa de Controle Médico de Saúde Ocupacional (PCMSO). 
19
ESTATÍSTICA │ UNIDADE I
Finalmente, há ainda a População Externa (1) formada pelos demais cidadãos Brasileiros 
cujos indivíduos não guardam conexão nem interesses afins com esse estudo, todavia é 
possível lhes fazer alguma extrapolação7. 
De volta à inferência, normalmente parte-se das características amostrais para inferi-las 
na população, daí o nome inferência. A estatística inferencial pode ser indutiva (da amostra 
para população) ou dedutiva (da população para amostra).
Distribuição normal
As distribuições normais são descritas por uma família especial de curvas de densidade 
simétricas, em forma de sino, chamadas curvas normais. A média μ e o desvio padrão 
σ especificam completamente uma distribuição normal N(μ,σ). A média é o centro da 
curva, e o σ é a distância de μ aos pontos de mudança da curvatura da curva de cada 
lado da média.
Todas as curvas normais são as mesmas, quando as medidas são tomadas em unidades 
de σ em torno da média. Tais medidas chamam-se observações padronizadas. O valor 
padronizado z de uma observação x é:
= xZ −µ
σ
Figura 4. Distribuição normal
Fonte: próprio autor
20
UNIDADE I │ ESTATÍSTICA
Em particular, todas as distribuições normais satisfazem a regra 68-95-99,7,que 
descreve as percentagens de observações que estão a um, dois ou três desvios padrões 
a contar da média.
Se x tem a distribuição N(μ,σ) com a média 0 e desvio padrão 1. A Tabela Probabilidades 
Normais Padronizadas dá as proporções de observações normais padronizadas que 
são menores que z, para diversos valores de z. Padronizando, podemos utilizar a Tabela 
Probabilidades Normais Padronizadas para qualquer distribuição normal.
Amostragem aleatória simples
Este método permite que cada elemento da população tenha a mesma chance de ser 
incluído na amostra. Amostragem aleatória simples é a mais elementar técnica de 
amostragem aleatória, nela n é usado para representar o tamanho da amostra e N 
representa o tamanho da população. Todo item ou pessoa na população é numerado 
de 1 a N. A chance de ser selecionado no primeiro sorteio é de 1/N. Pode-se utilizar 
também a tábua de números aleatórios para o sorteio dos elementos que irão compor 
a amostra.
Existem dois métodos básicos pelos quais as amostras são selecionadas: com reposição 
ou sem reposição. Na amostragem sem reposição a chance de qualquer indivíduo não 
previamente selecionado ser escolhido no segundo sorteio é de 1/N -1. 
Intervalo de confiança tem como objetivo estimar um parâmetro desconhecido, com 
uma identificação da previsão da estimativae de quão confiantes estamos na correção 
do resultado. Por exemplo, se escolhemos um grau de confiança de 95%, definimos que, 
estatisticamente, 95% de todas as amostras tomadas estarão dentro deste intervalo de 
confiança.
Qualquer intervalo de confiança compreende duas partes: um intervalo baseado nos 
dados e um nível de certeza. O intervalo em geral tem a formula:
Estimativa ± margem de erro.
O nível de confiança (C) indica a probabilidade de o método dar uma resposta correta. 
Isso é, se usarmos intervalos de 95% de confiança, em longo prazo, 95% dos nossos 
intervalos conterão o verdadeiro valor do parâmetro. Não sabemos se um intervalo de 
95% de confiança, calculado com base em determinado conjunto de dados, contém o 
verdadeiro valor do parâmetro.
21
ESTATÍSTICA │ UNIDADE I
Figura 5. Vinte e cinco amostras da mesma população originam esses intervalos de 95% de confiança.
Fonte: Pagano, 2004.
A longo prazo, 95% de todas as amostras dão um intervalo que contém a média 
populacional. Um intervalo de confiança de nível - C - para a média populacional μ de 
uma população normal com desvio padrão σ conhecido, baseado em AAS de tamanho 
n, é dado por:
zX
n
σ
± ∗
Em que:
x - média da amostra (estimativa);
σ – desvio padrão da população;
n
σ - Desvio padrão de x .
Não é realista supormos conhecido o desvio padrão da população. Mais a frente 
veremos como proceder quando σ é desconhecido. Aqui, z*é escolhido de modo que a 
curva normal padronizada tenha área C entre –z* e z*. Em virtude do teorema central 
do limite, esse intervalo é aproximadamente correto para grandes amostras quando a 
população não é normal. 
22
UNIDADE I │ ESTATÍSTICA
Figura 6. Probabilidade central C sob uma curva normal padronizada encontrada entre -z* e z.
Fonte: Pagano, 2004.
O número z* é chamado valor crítico p superior da distribuição normal padronizada 
para p= (1-C)/2. A tabela de distribuição t contém os valores críticos para vários níveis 
de confiança.
Figura 7. Curva de Probabilidade p.
Fonte: Pagano, 2004.
Mantidas sem alteração as outras condições, a margem de erro de um intervalo de 
confiança diminui quando:
o nível de confiança z* diminui;
o desvio padrão populacional σ diminui; o tamanho n da amostra aumenta.
O tamanho da amostra necessária para obter um intervalo de confiança com margem 
de erro especificada m para uma média normal é: 
2*zn
m
 σ
=  
  , em que z
* é o valor crítico 
para o nível de confiança desejado. Arredonde n sempre para cima quando aplicar esta 
fórmula.
23
ESTATÍSTICA │ UNIDADE I
Uma diretriz para um determinado intervalo de confiança é correta somente sob 
condições específicas. As condições mais importantes dizem respeito ao método para 
gerar os dados. Entretanto, são também importantes outros fatores, tais como a forma 
da distribuição da população.
A realização do teste de significância tem por objetivo avaliar a evidência proporcionada 
pelos dados contra uma hipótese nula H0 em favor de uma hipótese alternativa Ha.
As hipóteses são formuladas em termos de parâmetros populacionais. Em geral, H0 é 
uma afirmação de que não há efeitos presentes, e Ha afirma que um parâmetro difere do 
seu valor nulo em uma direção específica (alternativa unicaudal) ou em duas direções 
(alternativa bicaudal).
Essencialmente, o raciocínio de um teste de significância é o seguinte: suponha, por 
questão de argumento, que a hipótese nula seja verdadeira. Se repetirmos muitas vezes 
a nossa produção de dados e obtermos frequentemente dados inconsistentes com H0, 
há a observação de que a hipótese nula seja pouco provável, dando evidência contra Ho.
Para auxiliar uma decisão com base na inferência, utiliza-se um nível de significância - 
α. Por exemplo, se escolhermos α = 0,05, estamos impondo que os dados apresentem 
contra Ho uma evidência tão forte que o fato não ocorreria mais de 5% das vezes (5 em 
cada 100) quando Ho fosse verdadeiro. Se escolhermos α = 0,01, estamos impondo uma 
evidência ainda mais forte contra Ho, uma evidência tão forte que o fato só ocorreria 1% 
das vezes (1 em cada 100) no caso de Ho ser verdadeira.
Se o valor P é, no máximo, igual a um valor específico α, os dados são estatisticamente 
significantes no nível α de significância. O fato de ser “significante” no sentido estatístico 
não quer dizer “importante”, mas simplesmente “que é pouco provável ocorrer apenas 
por acaso”.
Os testes de significância para a hipótese H0: μ=μ0, relativa à media desconhecida μ de 
uma população, baseiam-se na estatística z:
0xz
n
− µ
=
σ
O teste z pressupõe uma AAS de tamanho n, um desvio padrão populacional σ conhecido, 
e uma população normal ou uma amostra grande. Os valores P são calculados a partir 
da distribuição normal (tabela de probabilidade normal padronizada). Nos testes com α 
fixo, utiliza-se tabela de valores críticos normais padronizados (linha inferior da tabela 
de valores críticos de distribuição t).
24
UNIDADE I │ ESTATÍSTICA
Eis o esboço do raciocínio de um teste de significância:
Formular as hipóteses: H0: μ=μ0, ou H0: μ≠μ0.
Calcular a estatística de teste z.
0xz
n
− µ
=
σ
Determinar o valor P (neste caso para um valor de P para um teste de H0 contra).
Ha: μ>μ0 → P(Z ≥ z);
Ha: μ<μ0 → P(Z ≤ z);
Ha: μ≠μ0→ 2P(Z ≥ |z|).
Exemplo de teste de significância
Um estudo foi realizado com 10 funcionários para avaliar se um programa de treinamento 
realizado por uma empresa estava tendo efeito positivo sobre a produção. Esquema de 
teste antes e depois. Para aplicar o teste deveremos formular as hipóteses:
H0: A produtividade média dos funcionários não se altera com o programa de 
treinamento;
Ha: A produtividade média dos funcionários aumenta com o programa de treinamento.
Ou seja: H0 :μantes = μdepois e Ha : μdepois>μantes;
Onde:
μantes: Produtividade média dos funcionários antes do treinamento; e
μdepois: Produtividade média dos funcionários depois do treinamento. Para colocar H0 à 
prova, vamos observar os n = 10 funcionários, antes e depois de receberem o programa 
de treinamento. Os dados estão na tabela a seguir:
Tabela 4. Planilha de produtividade por empregado - teste de significância.
Empregado
Produtividade
Antes Depois Diferença
João 22 25 3
Maria 21 28 7
José 28 26 -2
25
ESTATÍSTICA │ UNIDADE I
Empregado
Produtividade
Antes Depois Diferença
Pedro 30 36 6
Rita 33 32 -1
Joana 33 39 6
Flávio 26 28 2
Paulo 24 33 9
Catarina 31 30 -1
Felipe 22 27 5
Média 27 30,4 -
Fonte: próprio autor
Aplicando a fórmula: 0
xz
n
− µ
=
σ
 com um nível de 5% de significância e σ = 3,81 (não é 
realista supor conhecido o desvio padrão da população), teremos: 
27
1,645
3,81
10
x −
=
 
à 
→ x = 28,981.
Como a média está superior aos x = 28,981, então a hipótese H0 é falsa. Dessa 
forma, o aumento da produção é resultado do programa de treinamento estabelecido 
pela empresa. Uma alternativa para os testes de significância considera H0 e Ha como 
duas afirmativas de igual status, entre as quais devemos decidir. Esse ponto de vista 
de análise de decisão focaliza a inferência estatística, de modo geral, como fonte de 
regras para a tomada de decisões em presença da incerteza.
No caso de teste, H0 contra Ha, a análise de decisão escolhe uma regra de decisão com 
base nas probabilidades de dois tipos de erro. Ocorre um erro tipo I se rejeitarmos H0 
quando ela é, na verdade, verdadeira. Ocorre um erro tipo II se aceitarmos H0 quando 
Ha é verdadeira.
Verdade sobre a população
H0 verdadeira Ha verdadeira
Decisão baseada na amostra
Rejeitar H0 Erro tipo I Decisão correta
Aceitar H0 Decisão Correta Erro tipo II
Fonte: próprio autor
O nível α de significância de qualquerteste de nível fixo é a probabilidade de um erro 
tipo I. Ou seja, α é a probabilidade de o teste rejeitar a hipótese nula H0 quando ela é, 
26
UNIDADE I │ ESTATÍSTICA
na verdade, verdadeira. O poder de um teste de significância mede a sua capacidade 
de detectar uma hipótese alternativa. O poder contra uma alternativa específica é a 
probabilidade de este rejeitar H0 quando a alternativa é verdadeira.
Para um teste de significância de nível α, esse nível é a probabilidade de um erro tipo 
I, e o poder contra uma alternativa específica é 1 menos a probabilidade de um erro 
tipo II para essa alternativa. O aumento do tamanho da amostra acarreta aumento 
do poder (reduz a probabilidade de um erro tipo II) quando o nível de significância 
permanece fixo.
Teste de média
Uma importante aplicação para ele é o teste de média. Os testes e os intervalos de 
confiança para a média de uma população normal baseiam-se na média amostral x 
de uma AAS. Como consequência do teorema central do limite, os processos resultantes 
são aproximadamente corretos para outras distribuições populacionais quando a 
amostra é grande. A média amostral padronizada é a estatística z de uma amostra,
xz
n
− µ
=
σ
Quando conhecemos σ, utilizamos a estatística z e a distribuição normal padronizada. 
Na prática, não conhecemos o desvio padrão σ. Substituímos o desvio padrão pelo erro 
padrão /s n para obter a estatística t de uma amostra:
xt
s
n
− µ
=
A estatística t tem a distribuição t com n -1 grau de liberdade. Há uma distribuição t 
para cada número positivo k de graus de liberdade. Todas são simétricas e tem forma 
semelhante à da distribuição normal padronizada. A distribuição t(k) tende para a 
distribuição N(0,1) na medida em que k aumenta.
* sx t
n
±
É um intervalo de confiança exato de nível de confiança - C - para a média μ de uma 
população normal; t* é o valor crítico (1-C)/2 superior da distribuição t(n-1). Os testes 
de significância para H0: μ=μ0 baseiam-se na estatística t. Utilize valores P ou níveis 
fixos de significância da distribuição t(n-1). 
27
ESTATÍSTICA │ UNIDADE I
Aplique esses processos de uma amostra para analisar pares de dados tomando, 
primeiro, a diferença dentro de cada par para gerar uma única amostra. Os processos 
t são relativamente robustos quando a população é não-normal, especialmente para 
maiores tamanhos de amostra. Os processos t são úteis para dados não-normais quando 
n ≥ 15, a menos que os dados apresentam outliers ou assimetria acentuada.
Exemplo de teste de significância
Um estudo foi realizado com 10 funcionários para avaliar se um programa de treinamento 
realizado por uma empresa estava tendo efeito positivo sobre a produção. Esquema de 
teste antes e depois. Para aplicar o teste deveremos formular as hipóteses:
Ou seja: H0 :μantes = μdepois e Ha : μdepois>μantes;
Em que:
μantes: Produtividade média dos funcionários antes do treinamento. μdepois: Produtividade 
média dos funcionários depois do treinamento.
Conforme dados da Para colocar H0 à prova, vamos observar os n = 10 funcionários, antes 
e depois de receberem o programa de treinamento. Os dados estão na tabela a seguir:
Aplicando a fórmula: 0
xt
s
n
− µ
= com um nível de 5% de significância, 9 graus de 
liberdade e s = 3,81, teremos: 
27
1,833 29,208
3,81
10
xt x−= = → =
Como a média está superior aos x = 29,208, então a hipótese H0 é falsa. Dessa forma, 
o aumento da produção é resultado do programa de treinamento estabelecido pela 
empresa.
Comparação de duas médias
Os dados em um problema de duas amostras constituem duas AAS independentes, cada 
qual extraída de uma população normal separada. Os testes e intervalos de confiança 
para a diferença entre as médias μ1 e μ2 das duas populações partem da diferença 1 2x x− 
entre as duas médias amostrais. Em razão do teorema central do limite, os processos 
resultantes são aproximadamente corretos para outras distribuições populacionais, 
quando os tamanhos das amostras são grandes.
28
UNIDADE I │ ESTATÍSTICA
Extrai AASs independentes, de tamanhos n1 e n2, de duas populações normais com 
parâmetros μ1, σ1 e μ2, σ2. A estatística t de duas amostras é:
( ) ( )1 2 1 2
2 2
1 2
1 2
x x
t
s s
n n
− − µ − µ
=
+
A estatística t não tem precisamente uma distribuição t. A estatística de inferência 
conservadores para comparar μ1 e μ2, devemos utilizar a estatística t de duas amostras 
com distribuições t(k). O número k de graus de liberdade é o menor dos valores n1 – 1 ou 
n2 – 1. Para valores probabilísticos mais precisos, devemos utilizar a distribuição t(gl), 
com os graus de liberdade gl estimados com base nos dados. Esse é o procedimento 
usual nos pacotes estatísticos.
Intervalo de confiança para μ1 - μ2, dado por: 
2 2
* 1 2
1 2
1 2
( )
s sx x t
n n
− ± +
Tem nível de confiança ao menos C, se t* é o valor crítico (1-C)/2 superior para t(k), 
sendo k o menor dos valores n1 – 1 ou n2 – 1. Os testes de significância para H0: μ1 = μ2 
baseados em
1 2
2 2
1 2
1 2
x xt
s s
n n
−
=
+
têm um valor P verdadeiro não superior ao calculado a partir de t(k). As diretrizes 
para o uso prático dos processos t de duas amostras são análogas as diretrizes para os 
processos t para uma amostra. Recomendam-se tamanhos iguais de amostras.
Inferência para tabelas de dupla entrada
Os processos z de duas amostras permitem-nos comparar as proporções de sucessos 
em dois grupos, sejam eles duas populações ou dois grupos de tratamentos em um 
experimento. As tabelas de dupla entrada descrevem relações entre duas variáveis 
categóricas quaisquer.
O primeiro passo para um teste global para a comparação de várias proporções 
consiste em dispor os dados em uma tabela de dupla entrada que dê os número 
de sucessos e falhas. Eis uma tabela de dupla entrada para os dados referentes a 
usuários crônicos de cocaína que usaram antidepressivo por três anos para tentar 
livrar-se do vício:
29
ESTATÍSTICA │ UNIDADE I
Tabela 5. Recaída
Não Sim
Desipramina 14 10
Lítio 6 18
Placebo 4 20
Fonte: próprio autor
Pretende-se testar a hipótese nula de que não há diferença entre as proporções de 
sucessos para os viciados que recebem os três tratamentos (não há relação entre duas 
variáveis categóricas):
H0: p1 = p2 = p3.
A hipótese alternativa é que existe alguma diferença, ou seja, as três proporções não são 
todas iguais: Ha: p1, p2 e p3 não são todas iguais.
Para testar H0, comparamos os valores observados em uma tabela de dupla entrada 
com os valores esperados, isto é, os valores que esperaríamos se H0 fosse verdadeiro. Se 
os valores observados se revelam muito diferentes dos valores esperados, há evidência 
contra H0.
total da linha X total da coluna
Valor esperado
total da tabela
=
Eis os valores observados e esperados, lado a lado.
Tabela 6. 
Observados Esperados
Não Sim Não Sim
Desipramina 14 10 8 16
Lítio 6 18 8 16
Placebo 4 20 8 16
Fonte: próprio autor
Como 2/3 de todos os indivíduos sofreram recaídas, esperamos que 2/3 dos 24 indivíduos 
de cada grupo experimentem recaída se não há diferença entre os tratamentos. O teste 
estatístico que nos diz se essas diferenças são estatisticamente significantes não utiliza 
proporções amostrais, ele compara os valores observados e os valores esperados.
Qui-quadrado
( )22 valor observado - valor esperado
valor esperado
X = ∑
30
UNIDADE I │ ESTATÍSTICA
O somatório se estende a todas as r X c celas da tabela. Portanto:
( ) ( ) ( ) ( ) ( ) ( )2 2 2 2 2 22 14-8 10-16 6-8 18-16 4-8 20-16
8 16 8 16 8 16
X = + + + + +
2 4,500 2,250 0,500 0,250 2,000 1,000 10,5X = + + + + + =
Os valores do qui-quadrado como medida de distância entre valores sempre apresentará 
valores iguaisou superiores a zero, sendo que grandes valores indicam que os valores 
observados são muito distantes dos valores que deveríamos esperar e evidência que H0 
não é verdadeira. Os valores pequenos de X2 não constituem evidência contra H0. X
2 
apresenta (r-1) (c-1) graus de liberdade.
A distribuição qui-quadrado é uma aproximação da distribuição da estatística X2. 
Podemos aplicar com segurança essa aproximação quando os valores esperados das 
celas são superiores a 1, e não mais de 20% são inferiores a 5.
Se o teste qui-quadrado acusa uma relação estatisticamente significante entre variáveis 
linha e coluna em uma tabela de dupla entrada, prossiga a análise para descrever a 
natureza da relação. Uma análise informal compara percentagens bem escolhidas, 
compara valores observados com valores esperados, e procura os maiores componentes 
de qui-quadrado.
<http:<//www.somatematica.com.br/estat/basica/indice.php>
BUSSAB, Wilton O.: MORETTIN, Pedro A. Estatística Básica. 3. ed. São Paulo: 
Atual, 1986. 
HOFFMAN, Rodolfo. Estatística para Economistas. São Paulo: Livraria Pioneira 
Editora, 1980. 
NETO, Pedro Luiz de Oliveira Costa. Estatística. São Paulo: Edgard Blϋcher, 1977. 
NETO, Pedro Luiz de Oliveira Costa; CYMBALISTA, Melvin. Probabilidades: 
resumos teóricos, exercícios resolvidos, exercícios propostos. São Paulo: Edgard 
Blϋcher, 1974. 
MASON, Robert D.; DOUGLAS, Lind A. Statistical Techniques in Business And 
Economics.Boston: IRWIN, 1990. 
MEYER, Paul L. Probabilidade: aplicações à Estatística. Tradução do Prof. Ruy C. 
B. Lourenço Filho. Rio de Janeiro: Livros Técnicos e Científicos Editora S.A., 1978
31
ESTATÍSTICA │ UNIDADE I
PAGANO, Marcelo e Gauvreau, Kimberlle. Princípios de bioestatística. Ed 
Thomson,. 2004: p113-253.
STEVENSON, William J. Estatística Aplicada à Administração. São Paulo: Editora 
Harbra, 1981. 
WONNACOTT, Ronald J., WONNACOTT, Thomas. Fundamentos de Estatística. 
Rio de Janeiro: Livros Técnicos e Científicos Editora S. A., 1985.
32
UNIDADE IIRISCOS, SISTEMAS 
E CONFIABILIDADE
CAPÍTULO 1
Introdução
Nessa unidade, serão discutidos os riscos, sistemas, falhas e confiabilidade que de resto 
importam para notar o porquê da gerência de risco e da Engenharia de Segurança do 
Trabalho. Por isso, são dados os fatores que as determinam com vistas ao controle de 
perdas, a saber: tecnológicos; econômicos e sociais:
 » Tecnológicos: 
 › desenvolvimento de processos mais complexos; 
 › uso de novos materiais e produtos químicos; 
 › condições operacionais (pressão, temperatura, etc.) mais severas. 
 » Econômicos:aumento de escala das plantas industriais. 
 » Sociais:maior concentração demográfica próximo a áreas industriais;
 › organização da sociedade; 
 › preocupação quanto ao meio ambiente, a segurança e a saúde. 
 » Consequências: 
 › reformulação das práticas de gerenciamento de segurança; 
 › industrial; revisão de práticas tradicionais e de códigos, padrões e 
regulamentações obsoletas;
33
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
 › desenvolvimento de técnicas para a identificação e quantificação de 
perigos;
 › formulação de critérios de aceitabilidade de riscos; 
 › elaboração de modelos de gestão para o gerenciamento da sms; 
 › elaboração e implantação de sistemas de resposta para emergências.
Essas perdas, chamadas de desfalques, possuem várias naturezas, como a seguir se 
visualiza na Figura 8.
Figura 8. Natureza dos desfalques (perdas) e cenários de perigo, acidente, incidente e risco.
Fonte: Cicco, 1994.
Que por sua vez decorrem da probabilidade de consumação do perigo (risco), como se 
visualiza na Figura 9.
34
UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE
Figura 9. Cenários de perigo, acidente, incidente e risco.
Fonte: Cicco, 1994.
35
CAPÍTULO 2
Mas, o que é risco?
Risco, para um conjunto de eventos distintos, é dado por: Risco = (Fi∑ x 
Ci), expresso em Fatalidades/ Ano; dias parados/ mês; R$/ ano; mortes/ 
ano, etc. Em que: A frequência (F) pode ser expressa em: eventos/ ano; 
acidentes/ mês; etc. e a Consequência (C), decorrência direta do perigo, 
pode ser expressa em: fatalidades/ evento; morte/ acidente; R$/ evento; 
dias perdidos/ acidente; etc. 
Ambientação 1: Praticando – Aplicação do 
cálculo de risco
Se em uma estrada ocorrem 100 acidentes por ano, dos quais, em média, 1 morte 
a cada 10 acidentes. Tem-se: 
F = 100 acidentes/ ano.
Se ocorre, em média, 1 morte a cada 10 acidentes: 
C = 0,1 morte/ acidente.
O Risco Coletivo [Risco = (Fi∑ x Ci)], médio nesta estrada é: 
Rcol = 100 x 0,1 = 10 morte/ano.
Transitam-se pela estrada 100.000 pessoas por ano, o Risco Individual para cada 
pessoa é: 
Rind.=10/100.000=0,0001
Há algumas indicações de riscos de fatalidade para alguns riscos voluntários e 
involuntários, conforme apresentado na 7 e Tabela 8.
36
UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE
Tabela 7. Fatalidade para alguns riscos voluntários e involuntários.
Fonte: (CICCO, 1994)
Tabela 8. Ranking de riscos individuais de mortes.
Fonte: Souza, 1995
Como visto, é importante ter parâmetros de comparação para poder elaborar um estudo 
de análise de riscos. As formas de medir o grau de importância dos riscos são as mais 
variadas e dependem diretamente do objetivo das análises. 
37
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
Há vários padrões internacionais que podem ser adotados para se definir se um risco é 
aceitável ou não, passando, como sempre, pela avaliação da probabilidade de ocorrência 
de um evento acidental e pela extensão das suas consequências. A tabela 9 fornece uma 
ideia genérica dos limites de aceitabilidade dos riscos para diversas áreas.
Tabela 9. Limites de aceitabilidade dos riscos para diversas áreas. 
Riscos Probabilidade de 
ocorrência
Extensão das consequências
Risco social 1x10-4 (EUA) a
1x10-6 (Holanda)
Perda de vida humana
Risco aeronáutico 1 x 10-8 Perda da aeronave e de vidas humanas
Risco mecânico – Industrial 1x10-4 Perda do sistema ou acidente envolvendo vidas humanas
Seguros Riscos de alta frequência Riscos cuja perda acumulada ou unitária exceda o prêmio pago, já 
descontados os custos operacionais e comerciais
Fonte: Fao / Who, 1997.
O que determina a importância de um risco é a combinação dos fatores acima (F 
x C). Para seguros, por exemplo, se um determinado tipo de acidente é bastante 
frequente, mas traz perdas associadas muito pequenas, ele poderá ser melhor 
suportado pela seguradora do que um risco pouco frequente que traz consequências 
mais importantes. 
Portanto, avaliar esses parâmetros com a máxima cautela e critério é o segredo de um 
estudo de sucesso. O que é pior?
 » Alta frequência de ocorrência
 › Motores elétricos
 » Alta consequência (perigo)
 › Explosão de um botijão de gás
A percepção de risco inclina o ser humano, que se impressiona mais, às consequências 
(perigos), porém isso é um erro; eventos frequentes podem ser mais arriscados. Todavia 
o julgamento sempre dependerá dos critérios escolhidos de comparação. Observe o 
exemplo da Tabela 10.
38
UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE
Tabela 10. Cidades mais arriscadas pelo critério de acidente fatal
Fonte: Filipe, 1993.
Em qual cidade você gostaria de morar? Se você respondeu A, estará dentro da grande 
maioria, que acha “normal“ morrerem 1.000 pessoas por ano em acidentes de transito, 
mas não admitem. Na cidade B, um acidente único pode gerar 10.000 mortes, ele que 
sua probabilidade seja baixa.
Quando se analisa um determinado risco, a primeira ação a fazer é descobrir se há alguma 
estatística relacionada à ocorrência de eventos anteriores, seja no local em que esse risco 
ocorre ou em outros locais. Entendero porquê de sua ocorrência é fundamental para 
analistas de risco de várias áreas de atuação como forma de dimensionar probabilidades 
e Consequências. A experiência, ele que absorvida de outros, da literatura especializada, 
etc., é o primeiro instrumento da análise de riscos.
Mas, e quando não se dispõe de dados ou da experiência necessária? A solução é construir 
cenários acidentais e discutir com as outras pessoas envolvidas o grau de importância 
das possibilidades, vislumbrando se realmente se constituem em probabilidades. Em 
relação às Consequências, ocorre exatamente a mesma coisa. Pode-se aprender com 
outros eventos ou construir os cenários acidentais.
Em análises singelas, a construção de um ou dois cenários acidentais é bastante 
simples e geralmente não se precisa de maiores auxílios. As formas de medição da 
probabilidade de ocorrência e da magnitude das Consequências é que precisam ser 
melhor investigadas. A seguir, indica-se a amplitude das medições:
 » Probabilidade:
 › de falha; de ocorrer um evento indesejável; de algo dar errado; do risco 
se transformar em perigo. Consequências:
39
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
 › perda de vidas humanas; 
 › perda financeira;
 › perda patrimonial;
 › perda de imagem; perda de capacidade temporária.
O que é mais perigoso, viajar de ônibus ou de 
avião a jato?
Verifica-se na Figura 6 que o perigo é maior em avião, pois as energias (potencial e 
cinética) relacionadas ao deslocamento aéreo são milhares de vezes maiores que 
àquelas terrestres, situação que torna milagre a possibilidade de haver sobrevivente 
pós-acidente aeronáutico.
Figura 10. Teoria do Risco (perigo x probabilidade).
Fonte: próprio autor
Com base nos dados, e utilizando o sistema internacional de unidades SI, tem-se:
Avião Ônibus
Massa (t) 80 15
Velocidade (km/h) 860 80
Altura do passageiro ao nível chão(m) 11.000 2
40
UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE
Fonte: próprio autor
Percebe-se que a energia potencial gravitacional do avião é mais de 29.333,33 vezes 
maior que a do ônibus. É óbvio: o avião possui muito mais desprendimento de energia 
e, portanto, um potencial maior de destruição que o ônibus. 
Quando se compara a energia cinética de ambos, percebe-se que a bordo do avião a 
energia cinética é cerca de 616,42 vezes maior que a de um ônibus. Fechada essa etapa 
do cálculo, o avião é 2.729,23 vezes mais perigoso quando o critério é Energia Mecânica 
Total. Mas, quem é mais arriscado?
É fácil encontrar, pela internet: 
 » o risco de morrer em um acidente de avião é 29 vezes menor do que 
andar de ônibus, 10 vezes menor do que trabalhar, 8 vezes menor do que 
andar a pé8; 
 » a probabilidade de acidentes rodoviários é 266 vezes maior9 que a dos 
aéreos; 
 » o transporte aéreo registra 90 vezes10 menos vítimas que o de ônibus; 
 » ao menos nos EUA, o avião é 11 vezes11 mais seguro que o ônibus.
Com esse painel de dados probabilísticos, em uma primeira aproximação, baseado em 
números de mortes por viagens, chegou-se à conclusão que apesar de mais perigoso, 
avião é menos arriscado.
41
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
Conclusão essa, confirmada pelos dados válidos na Europa, que dizem sobre andar 
de ônibus implica risco equivalente a 0,7 fatalidades em 100 milhões de pessoas por 
quilômetro percorrido12. A aviação civil teria risco 20 vezes menor, enquanto ir a pé, o 
número é 9 vezes maior. 
Em outras palavras, nesse caso os dados probabilísticos decorrem do critério de 
acidentes fatais por quilômetros percorridos. Assim, o avião aparece facilmente como 
meio mais seguro, pois em uma viagem percorrem-se trechos que, por terra, poderiam 
significar horas ou dias de direção. Avaliando o risco deste jeito, nossos pés tornam-se 
um dos meios de transporte mais arriscados: quanto tempo passado nas ruas, a pé, é 
necessário para igualar 100 mil quilômetros percorridos de avião? 
Ponto inflexão. Utilizar quilômetros percorridos para medir riscos pode não fazer muito 
sentido no caso do avião, pois, a probabilidade de acidente depende mais do número de 
escalas do que da distância (mais de 90% dos acidentes acontecem no final ou no início 
do voo)13. Aprofundando agora essa questão, percebe-se que a resposta correta, do que 
é mais arriscado, é: depende! Depende do que se quer medir e qual valor é dado às 
diferentes opções, pois há estatísticas que afirmam exatamente o oposto. Especialistas 
garantem que viagem aérea tem frequência de acidente fatal quatro vezes maior que em 
um ônibus. (2,4 mortos a cada milhão de horas de exposição). (SOUZA,1995)
O fato de o ônibus causar mais vítimas não implica automaticamente que seja menos 
seguro do que avião, pois o tempo que um cidadão comum pode passar num avião é 
muito menor que o transcorrido ao se locomover por transporte terrestre. O critério 
correto não é quilômetro percorrido, mas sim, as vítimas por tempo de exposição. 
A pergunta, refeita, seria: há mais probabilidade de acidente fatal passando-se uma 
hora de viagem em um avião ou em um ônibus? 
Nesse caso, de acordo com os ele dados europeus, ônibus e trem se tornam os meios mais 
seguros (duas fatalidades por 100 milhões de pessoas por hora de viagem), enquanto 
que o avião seria 8 vezes mais frequente, desta feita, não tão mais seguro do que ir de 
ônibus ou a pé (que empatam, com 25 fatalidades por 100 milhões de pessoas por hora 
de viagem). 
Finalmente, considerando as energias mecânicas totais (perigo) do avião e do ônibus, 
percebem-se duas conclusões possíveis sobre o risco, a depender do critério utilizado: 
quilômetros percorridos ou tempo de exposição. Para o primeiro critério, avião é menos 
arriscado; para o segundo, o ônibus!
42
UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE
Esse exercício de raciocínio foi feito para que o cursista perceba, para além das 
obviedades, que, às vezes, trabalhar em banco (entidade financeira) é mais arriscado 
que trabalhar em construção civil, apesar desta última operar com energias mecânicas 
altas. Depende sempre do critério adotado!
Se o perigo do meio ambiente do trabalho foi identificado como forte stress e medo nas 
relações interpessoais, a consequência reflui para incapacidade laboral por transtornos 
mentais, cujas frequências relativas são grandes (alta probabilidades), ter-se-ia nesse 
cenário grandes riscos.
Julgue, explique o que é mais arriscado da perspectiva do empregado e quais 
medidas de controle a serem adotadas. Dados:
1. Obra de construção civil (CNAE 4210)
a. 5 x 10-4 probabilidade para transtorno mental (F22)
2. Agência dois bancária (CNAE 6422)
a. 50 x 10-4 probabilidade para transtorno mental (F22)
Ambientação 2: Praticando. Julgue o que é mais arriscado e quais medidas de 
controle o EST deve propor?
43
CAPÍTULO 3
Disponibilidade e confiabilidade
Por estarem inseridas em um ambiente dinâmico e mutável as organizações podem 
sofrer perdas associadas ao seu patrimônio, uma vez que o referido ambiente é permeado 
de riscos. Assim, faz-se necessário a identificação antecipada de todos os fatores que 
geram ameaças ao patrimônio organizacional, considerando que essa ação permite que 
sejam adotadas medidas preventivas visando evitar a ocorrência das possíveis perdas, 
principalmente humanas.
Em termos de evolução, porém, observa-se que parte das ações relativas à prevenção 
de perdas foi desenvolvida em virtude da grande incidência de infortúnios do trabalho, 
pois a severidade e a frequência das lesões nos trabalhadores, os danos às máquinas e 
aos equipamentos, às instalações e ao processo produtivo demandaram uma série de 
esforços que, de início, tinham como objetivo prevenir e controlar tais eventos. Nesse 
contexto, comparecem dois termos: disponibilidade e confiabilidade (SOUZA, 1995). 
Adisponibilidade definida como fração ou percentual do tempo em que um 
componente ou sistema encontra-se disponível para atender de forma satisfatória a 
uma demanda de funcionamento.
Já a confiabilidade é tida como a probabilidade de que o componente ou sistema 
desempenhe com sucesso suas funções, por um período de tempo e condições 
especificadas (possui natureza probabilística; apresenta dependência temporal; depende 
do critério de sucesso considerado e varia em função das condições de operação). 
Figura 11. Comparativo entre disponibilidade e confiabilidade.
44
UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE
Fonte: próprio autor
Qual o tempo até o primeiro defeito? Considerando N sistemas idênticos colocados 
em operação a partir do tempo t=0, mede-se o tempo de operação ti de cada um até 
apresentar defeito. O Mean Time to Failure ( MTTF) e o tempo médio de operação à
Figura 12. Fluxo Mean Time Between Failure (MTBF).
Fonte: próprio autor
45
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
A predição da confiabilidade é definida como um processo de estimar 
quantitativamente a probabilidade de falha de um sistema ou equipamento, tendo 
como objetivo verificar se o produto irá atender às metas de confiabilidade, definidas 
pela empresa. (SOTO, 1981)
Num sistema em série, a confiabilidade do sistema é igual ao produtório da 
confiabilidade (reability – R) de cada componente, chamada de Lei da Confiabilidade 
do Produto:
Q = R1 x R2 x R3 x R4
Em que:
Q = confiabilidade do sistema
Ri = confiabilidade do componente. Caso haja um sistema composto de 6 componentes, 
em que cada um possui uma confiabilidade de 90%, a confiabilidade do sistema será de 
0,96 = 0,5314, ou seja, a confiabilidade será de 53,14%. 
A Figura 13 (Curva de probabilidades – bacia de falhas ou curva da banheira) indica 
graficamente os três tipos de falhas, em função do tempo de ocorrência, que ocorrem 
em equipamentos e sistemas.
 » Falhas prematuras: ocorrem durante o período de depuração devido 
a montagens pobres (fracas) ou por possuírem componentes abaixo do 
padrão;
 » Falhas casuais: resultam de falhas complexas, incontroláveis e, 
algumas vezes, desconhecidas. O período durante o qual as falhas são 
devidas, principalmente a falhas casuais, é a vida útil do componente ou 
do sistema;
 » Falha por desgaste: iniciam-se quando os componentes tenham 
ultrapassado seus períodos de vida útil. A taxa de falha aumenta 
rapidamente devido ao tempo e a algumas falhas casuais.
46
UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE
Figura 13. Curva de probabilidades – bacia de falhas ou curva da banheira
Fonte: Bastias, 1977.
Geralmente as falhas prematuras não são consideradas na análise de confiabilidade, 
porque se admite que o equipamento foi “depurado”, e que as peças, inicialmente 
defeituosas, foram substituídas.
Com um pequeno aumento da confiabilidade de seus componentes, há um aumento 
considerável na confiabilidade do sistema, como, por exemplo, passarmos os 
componentes para uma confiabilidade de 90% para 95%. Esse aumento resulta numa 
confiabilidade do sistema de 53,14% para 73,51%, quando há 6 componentes.
Outro aspecto é quando há um sistema paralelo. Considerando a confiabilidade de um 
sistema em 81%, sua probabilidade de falha é de 19%. Por consequência, a confiabilidade 
do sistema composto por paralelismo será de 96,4%.
Falha = 1 – R
Falha = 1 – 0,81 = 0,19
Com paralelismo:
Q = 1 – Falha2
Q = 1 – 0,192 = 0,964
Outra solução possível de ser adotada para aumentar a confiabilidade é a utilização de 
componentes standby no sistema, que só entram em funcionamento quando a unidade 
47
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
falha. Para pleno efeito desta solução, a detecção da falha, que monitora o sistema e 
ativa o componente standby no momento correto, deve ter confiabilidade bem próxima 
de 100%, assim como o componente em standby. 
Sistemas standby são sistemas críticos tais como um grupo gerador elétrico de hospital, 
cuja confiabilidade deve ser extremamente alta.Um meio de melhorar a confiabilidade é 
melhorar as condições ambientais de operação como umidade, temperatura, vibrações, 
corrosão, erosão, radiação, atrito, pancadas.
48
CAPÍTULO 4
Álgebra Booleana
A álgebra Booleana foi desenvolvida pelo matemático George Boole para o 
estudo da lógica. Suas regras e expressões aclararam e simplificaram problemas 
complexos. Bastante útil em condições expressas por apenas dois valores: sim ou 
não, 0 ou 1 etc.
A lógica Booleana e aplicada em área como a de informática e montagens eletromecânicas 
que incorporam um grande número de liga e desliga. É também utilizada em análise de 
probabilidade, em estudos que envolvam decisões e em segurança de sistemas. Usam-se 
diagramas de Venn na matemática para simbolizar graficamente propriedades, axiomas 
e problemas relativos à teoria dos conjuntos, que podem ter operações representadas 
abaixo:
Figura 14. Diagramas com axiomas e problemas relativos à teoria dos conjuntos.
49
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
Várias outras identidades podem ser expressas pela lógica Booleana:
Identidade LEI Explicação
A·1=A
Conjunto complemento ou vazio
A única parte dentro de 1, que é 1 e A, é 
aquela dentro do próprio A.
A·0=0 Condição impossível; se esta dentro do 
conjunto, não pode estar fora dele.
A+0=A O elemento num conjunto, mais alguma 
coisa fora do conjunto, terá somente as 
características do subconjunto.
A+1=1 O todo expresso por 1, não pode ser 
ultrapassado.
A A= Lei de Involução
Complemento do complemento de A é o 
próprio A.
A·A=0
Relações complementares
Impossibilidade. A condição não pode ser A e A 
simultaneamente.
A+ A=1 Soma dos elementos de um conjunto e todos 
fora deste.
A·A=A
Lei de Idempotência
Postulado
A+A=A Postulado
A·B = B·A
Lei comutativa
Os elementos serão os eles independentes da 
ordem expressa.
A+B = B+A O total de elementos será o ele, independente 
da ordem.
A(B·C) = (A·B)C
Lei Associativa
Os elementos que têm todas as características 
A, B e C as terão em qualquer ordem expressa.
A+(B+C) = (A+B)+C O total de elementos será o ele, não 
importando a ordem na qual estão expressos.
A·(B+C) = (A·B) + (A·C)
Lei Distributiva
A interseção de um subconjunto com a união 
de dois outros também pode ser expressa 
como a união de suas intersecções
A+(B·C) = (A+B) · (A+C) A união de um subconjunto com a interseção 
de dois outros também pode ser expressa pela 
interseção das uniões do subconjunto comum 
com os outros dois.
A(A+B)=A
Lei de Absorção
A(A+B)=AA+AB=A+AB, desde que AA=A 
A+AB=A(1+B)=A, desde que B esteja incluído 
em 1.
A+(A·B)=A A+(A·B)=A+A·B= A(1+B)=A
A B A B⋅ = +
Lei de Dualização (de De Morgan)
O complemento de uma interseção é a união 
dos complementos individuais.
A B A B+ = ⋅
O complemento da união é a interseção dos 
complementos.
50
CAPÍTULO 5
Evolução das ações prevencionistas
Eis o início de tudo: possibilitar às empresas um conceito de segurança à prevenção 
e à eliminação dos riscos que poderiam afetar os trabalhadores. Todos os estudos e 
pesquisas realizados giravam em torno das lesões que poderiam ser produzidas por 
meio dos acidentes de trabalho. Uma empresa segura seria aquela na qual ocorresse o 
menor número de acidentes e estes eram enfocados segundo o custo que produziam, 
sem haver a ponderação das diversas perdas patrimoniais que estavam associadas à 
ocorrência desses acidentes.
Carvalho (1984), ao estudar as metodologias propostas para a investigação dos 
acidentes do trabalho e os riscos que os deflagraram, faz um apanhado histórico e relata 
a existência de quatro diferentes modelos, sintetizados no quadro a seguir.Tais métodos 
não são excludentes permitindo que, na prática, eles possam e devam ser utilizados de 
modo combinado.
COMPORTAMENTAL - Utiliza o comportamento humano e suas avaliações giram em torno do comportamento individual ou coletivo, 
possibilitando vários enfoques, dentre os quais se destacam: a susceptibilidade do indivíduo aos acidentes; e a concepção psicodinâmica, para 
a qual os acidentes decorrem de condições inseguras ambientais que levam ao erro humano.
EPIDEMIOLÓGICO - A ênfase recai sobre a procura das causas dos acidentes e, com esse intuito, são percorridas as condições inseguras que 
levam às falhas humanas etc., colhendo-se dados estatísticos gerais. Esse método sugere múltipla causalidade e age primariamente como 
elemento de seleção. 
SISTEMAS - Para esse modelo, o acidente seria causado pela produção anormal do sistema homem-máquina e tem as suas causas 
individuais estudadas dentro do conjunto do sistema trabalho, cujos fatores se entrelaçam e se autorregulam. O sistema completo de trabalho 
seria a execução da operação: indivíduo x material x tarefa x ambiente. 
INCIDENTES CRÍTICOS – Esse modelo estuda os quase-acidentes, ou os incidentes considerados críticos, que poderiam conduzir a um acidente. 
Assim, os acidentes são investigados por meio de uma metodologia na qual se realizam entrevistas (anônimas) com os indivíduos para a 
formulação de um relatório a ser processado, analisado e discutido pela EST a fim de que sejam tomadas as medidas preventivas necessárias.
Fonte: próprio autor
A primeira divisão das metodologias para identificação de riscos é decorrente da 
escolha do objeto central de análise. Nesse sentido, pode-se afirmar que os métodos 
cujo enfoque recai sobre a segurança nos locais de trabalho podem estar centrados no 
trabalho ou nos empregados, embora existam métodos que tentem combinar essas duas 
propostas.
Os métodos centrados nos empregados postulam que um ambiente seguro pode ser 
criado e mantido ele por eles, desde que sejam motivados a desempenharem as suas 
funções com segurança. O incentivo pode ser obtido por meio de maior participação 
51
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
nas decisões relativas à segurança, à melhoria da comunicação interna e à sensação de 
respeito com honestidade de abordagem. 
Nesse sentido, deve-se falar abertamente ao empregado, coisas do tipo: use este 
Equipamento de Proteção Individual (EPI) que não é eficaz, mas em 4 meses, conforme 
PPRA, entrará em funcionamento o captador de pó ou a empresa não implantará 
Equipamentos de Proteção Coletiva (EPC) e você usará EPI como paliativo. Essas 
ações visam a motivar os empregadores a reconhecerem o seu meio ambiente e as suas 
relações diante dos subalternos que não podem dizer não exposição. Trabalhador pode 
ser ignorante, mas não é bobo: sabe quando é tratado com respeito e honestidade.
Em relação aos métodos de abordagem centrados no trabalho, a literatura sobre 
segurança do trabalho diz que eles têm como ênfase a correção das deficiências nos 
locais de trabalho por meio da engenharia. Nesses métodos, é comum o emprego de 
técnicas como a supervisão severa, incentivos materiais, pecuniários ou a concessão 
de folgas. Também são usados treinamentos visando a dotarem os trabalhadores dos 
conhecimentos necessários para o reconhecimento de riscos de acidentes a que serão 
subordinados e para a operação correta dos equipamentos. 
Ainda, são usados avisos e outras formas de comunicação, mostrando e enfatizando 
os riscos de acidentes de trabalho e as suas consequências. Essa abordagem tem como 
objetivo definir a forma menos insegura para se realizar o trabalho, uma vez que a EST 
já sabe do nível de insegurança. Logo após, os trabalhadores são treinados de acordo 
com definições estabelecidas, e um rígido controle é exercido sobre a obediência às 
normas de segurança.
Deve-se realizar o estudo dos riscos por intermédio de levantamento de dados relativos 
às condições ambientais e as suas relações com os meios naturais, sociais e técnicos 
que envolvem o trabalhador e o relacionam com os demais agentes – o empregador 
e colegas – e com os instrumentos de trabalho. As condições de vida do funcionário 
também são levantadas por meio de entrevistas que abordam vários aspectos, inclusive 
a vida familiar.
Esse método permite tirar conclusões, tanto a respeito de como o trabalho e as 
condições de vida podem predispor o funcionário a doenças e a acidentes no trabalho, 
como possibilita o diagnóstico dos pontos críticos – ao nível de seção de trabalho – 
apontando a ordem de prioridades para o encaminhamento da solução dos problemas 
encontrados. Isso, levando em conta a possibilidade de implantação de soluções.
52
UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE
A filosofia de que os acidentes também poderiam gerar danos à propriedade (acidentes 
sem lesões) foi introduzida por Heinrich, a partir de 1931. Nos estudos que realizou, 
Heinrich conseguiu demonstrar que, para cada acidente com lesão incapacitante, havia 
29 acidentes que produziam lesões não incapacitantes (leves) e 300 acidentes sem lesões.
Durante o período de 1959 a 1966, o engenheiro Frank Bird Jr. empreendeu uma 
pesquisa na qual analisou mais de 90 mil acidentes ocorridos em uma empresa 
siderúrgica americana, e atualizou a relação estabelecida por Heinrich, desenvolvendo 
a proporção 1:100:500. Ou seja, para cada lesão incapacitante, existiam 100 lesões não 
incapacitantes e 500 acidentes com danos à propriedade (CICCO, 1994).
Os dados obtidos permitiram que Bird desenvolvesse a sua teoria intitulada de Controle 
de Danos. Um programa de Controle de Danos é aquele que requer a identificação, 
registro e investigação de todos os acidentes com danos à propriedade, e a determinação 
do seu custo para a empresa. Além disso, todas essas medidas deverão ser seguidas de 
ações preventivas.
Ao se implantar um programa de Controle de Danos, um dos primeiros passos a serem 
adotados é a revisão das regras convencionais de segurança, as quais estão voltadas 
apenas para a questão das lesões. Desse modo, as regras devem ser ampliadas com o 
objetivo de abranger os danos à propriedade, e essas alterações devem envolver desde 
a alta direção da empresa até o corpo funcional, pois todos deverão saber que regra foi 
mudada e qual a razão da mudança. 
Ainda, é importante que qualquer pessoa envolvida no programa compreenda que, 
para este ser bem-sucedido, será necessário um período, devidamente planejado, de 
comunicação e educação com o intuito de mostrar a gravidade de não se informar 
qualquer acidente com dano à propriedade que venha a ocorrer na empresa.
O Engº Bird ainda ampliou o seu referencial de estudo analisando acidentes ocorridos 
em 297 empresas, as quais representavam 21 grupos de indústria diferentes, com um 
total de 1.750.000 operários que trabalharam mais de 3 bilhões de horas durante o 
período de exposição.
Esses dados podem ser melhores visualizados observando a Figura 11. Para cada acidente 
com lesão incapacitante, havia 10 acidentes com lesões leves, 30 acidentes com danos 
à propriedade e 600 acidentes sem lesão ou danos visíveis (quase-acidentes), cuja dá 
1:10:30:600. 
53
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
Figura 15. Comparação entre Heinrich e BIRD
Fonte: Bastias, 1977.
Com tais evidenciações, nasceu assim a teoria prevencionista, todavia com um pseudo 
pressuposto – ato inseguro – que em muito atrapalha os sistemas de gestão e o 
desenvolvimento da engenharia de segurança do trabalho. Esse erro histórico do ato 
inseguro, ainda impregnado, aos poucos vem sendo varrido, como a seguir discorrido.
54
CAPÍTULO 6
A condição insegura do ato inseguro: o 
mito
Acidentes de trabalho são eventos influenciadospor aspectos relacionados à situação 
imediata de trabalho como o maquinário, a tarefa, o meio técnico ou material, e também 
pela organização do trabalho e pelas relações de trabalho. 
A obra de Almeida (2010), citando o trabalho de Reason, Carthey e de Leval (2001), 
demonstra que a visão obsoleta da EST leva a atribuição de culpa ao próprio acidentado, 
devido ao fato dos processos investigativos considerarem que algumas organizações 
são mais propensas a sofrer acidentes do que outras, devido ao que eles chamaram de 
Síndrome do Sistema Vulnerável. 
Essa Síndrome é composta por três elementos que interagem e que se autoperpetuam: 
a atribuição de culpa aos indivíduos da linha de frente, a negação da existência de erros 
sistêmicos provocando seu enfraquecimento e a perseguição cega (blinkeredpursuit) 
de indicadores financeiros e de produção.
A visão equivocada das reais causas dos acidentes do trabalho também provém da 
literatura técnica nacional que promove a cultura e a visão ultrapassada sobre o tema, 
como se pode ver em Ayres & Correa (2001), que demonstram este entendimento 
distorcido sobre acidente de trabalho ao mostrar as causas dos acidentes somente pelo 
enfoque legal, sem realmente abordar a complexidade do assunto. 
Destaque-se ao cursista sobre a armadilha ideológica da culpabilização da vítima, 
pois no meio técnico-industrial vigora uma visão reducionista e tendenciosa de que os 
acidentes do trabalho possuem uma ou poucas causas, decorrentes em sua maioria de 
falhas dos operadores (erro humano, ato inseguro, comportamento fora do padrão etc., 
ou falhas técnicas materiais, normalmente associadas ao descumprimento de normas e 
padrões de segurança). 
Ele profissionais que já incorporavam uma visão crítica a respeito da atribuição de 
culpa às vítimas, ainda operam com uma visão que reduz a análise do trabalho e de 
seus riscos à presença ou ausência de fatores de risco (exemplo: máquina desprotegida; 
trabalho em altura sem proteção, etc.) ou ainda pelo cumprimento ou descumprimento 
de normas ou padrões de segurança. 
55
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
Esta explicação “fatorial” é atrativa, mas igualmente impotente para explicar o processo 
causal dos acidentes. Estas abordagens afetam negativamente a prevenção uma vez que 
deixam intocados os determinantes desses eventos. 
Para compreender o acidente é necessário entender no que consiste o trabalho, sua 
variabilidade, como ele se organiza, quais as dificuldades para sua realização com sucesso 
pelos operadores, os mecanismos e o funcionamento das proteções, entre outros. Essa 
compreensão é impossível sem a cooperação e participação dos trabalhadores e equipe 
envolvida, o que implica em dificuldades adicionais quando se trata de ambientes 
autoritários de trabalho ou de acidentes fatais. Toda essa complexidade implica a 
necessidade de desenvolver competências e metodologias específicas tanto para a 
análise como para a intervenção de caráter preventivo (ALMEIDA, 2010).
A condição insegura que determina a insalubridade, a penosidade e a periculosidade 
decorre do meio ambiente do trabalho que foi pensado, estruturado, ou por qualquer 
outra contingência, foi dessa forma organizado. O trabalhador comparece nesse 
ambiente porque é obrigado, por força do estatuto jurídico (privado ou público), a 
se sujeitar a tais condições. O trabalhador, fora o autônomo, não faz o que quer, mas 
aquilo que mandam fazer. 
Diga-se, de passagem, que essas situações produtivas são artificiais e definidas pelo 
modo de produção, bem assim entendidas fazem parte do pacto social de admissibilidade 
da exceção, segundo o qual alguns sofrerão o perigo, o insalubre e o penoso em prol do 
conforto, sustentação e sobrevivência da maioria que outorga, em última análise, tal 
sentença: adoecer, matar ou admoestar.
Posta essa admissibilidade da exceção, tem-se que a equivocada doutrina trabalhista 
é uníssona em afirmar que existem dois tipos de situações que causam acidentes: a 
condição insegura (origem no meio ambiente do trabalho, natureza organizacional) e o 
ato inseguro (produzido pelo ser humano, natureza comportamental). 
Segundo essa doutrina, os atos e condições inseguras são fatores que, combinados 
ou não, desencadeiam os acidentes do trabalho. São, portanto, as causas diretas dos 
acidentes. Assim, pode-se entender que prevenir acidentes de trabalho, em síntese, é 
corrigir condições inseguras existentes nos locais de trabalho, não permitir que outras 
sejam criadas e evitar a pratica de atos inseguros por parte das pessoas. Tanto as 
condições como os atos inseguros têm origem mais remotas, em causas indiretas. Esses 
fatores indiretos, porém, podem ser atenuados ou eliminados, de modo a evitar que os 
últimos elos da cadeia – atos e condições inseguras – venham propiciar a ocorrência de 
acidentes ou pelo menos que essas ocorrências se tornem cada vez mais raras16.
56
UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE
Esse autor refuta peremptoriamente essa classificação. Sem dúvida imprópria, 
impertinente e ideologicamente enviesada. Nesse tópico, além de expor motivos para 
essa refutação, apresenta-se uma classificação substituta. (OLIVEIRA, 2011). Por 
definição, o ato praticado pelo empregado, em suas sãs faculdades mentais, é um ato 
subordinado ao empregador mediante sistema administrativo de poder, corroborado 
pela força coercitiva decorrente do contrato de trabalho, ou estatuto. Qualquer que seja 
a atitude do empregado, esta se insere nos domínios do empregador que o dirige.
Assim na listagem exemplificativa, segundo essa corrente equivocada dos atos inseguros, 
se colocam atitudes como descritos na Figura 16.
Figura 16. Condições Inseguras do Meio Ambiente do Trabalho e o Mito do Ato Inseguro.
Fonte: próprio autor
Ora, admitir que o trabalhador pratique ato inseguro é, pela via direta, assumir e 
configurar algum tipo de desvio por parte do patrão e seus prepostos. Todos os verbos 
levados a efeito pelo empregado na Figura 16, o são por alguma razão decorrente da 
vontade do empregador (e seus prepostos), inclusive por desídia, falta de vigilância, 
negligência, ausência de gerenciamento, descuido com a coisa privada, descaso com o 
lucro, periclitação com o patrimônio do patrão.
Admitir o ato inseguro do empregado é dizer que o patrão não manda nele. Um 
absurdo jurídico trabalhista. Seria equivalente a um furto no ambiente do trabalho no 
qual o trabalhador subtrai vários itens do estoque e a empresa não o adverte ou pune. 
Apenas classifica essa ocorrência de furto como ato inseguro do seu empregado! 
(OLIVEIRA, 2011)
57
RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II
Sim, a comparação com furto de produto da empresa não é à toa. Existe conexão 
entre os argumentos. O empregado que comete ato inseguro, segundo a doutrina 
de culpabilização do empregado – aquela mesma da epiização – furta a si ele sob a 
autorização do empregador. 
No bojo do argumento do absurdo, é inadmissível cogitar a existência do ato inseguro 
exatamente pela aberração da inversão dos polos segundo o qual o empregado é quem 
manda, define, estabelece, orienta o empregador. Este último é mero expectador, apesar 
de ser o proprietário e responsável último por tudo que acontece em seus domínios. 
Sem dúvida esse raciocínio, infelizmente dominante, só se sustenta pela perspectiva 
ideológica. Eis o viés. Eis o mito. 
Nessa conformação só há um único ato inseguro: aquele praticado (ação ou omissão) pelo 
empregador. O meio ambiente do trabalho pertence – é definido, explorado, negociado 
– ao proprietário cujas condições de operações são sempre de sua responsabilidade. 
Para isso que existe a organização, para assegurar recursos, meios, metas, objetivos 
aos desígnios e vontades dos proprietários do negócio.

Continue navegando