Baixe o app para aproveitar ainda mais
Prévia do material em texto
Brasília-DF. Gerência de risco Elaboração Paulo Rogério Albuquerque de Oliveira Produção Equipe Técnica de Avaliação, Revisão Linguística e Editoração Sumário APRESENTAÇÃO ................................................................................................................................. 5 ORGANIZAÇÃO DO CADERNO DE ESTUDOS E PESQUISA .................................................................... 6 INTRODUÇÃO.................................................................................................................................... 8 UNIDADE I ESTATÍSTICA.......................................................................................................................................... 11 CAPÍTULO 1 ESTATÍSTICA DESCRITIVA .......................................................................................................... 11 CAPÍTULO 2 ESTATÍSTICA INFERENCIAL ........................................................................................................ 18 UNIDADE II RISCOS, SISTEMAS E CONFIABILIDADE .................................................................................................. 32 CAPÍTULO 1 INTRODUÇÃO ........................................................................................................................ 32 CAPÍTULO 2 MAS, O QUE É RISCO? ........................................................................................................... 35 CAPÍTULO 3 DISPONIBILIDADE E CONFIABILIDADE ...................................................................................... 43 CAPÍTULO 4 ÁLGEBRA BOOLEANA ............................................................................................................. 48 CAPÍTULO 5 EVOLUÇÃO DAS AÇÕES PREVENCIONISTAS ............................................................................ 50 CAPÍTULO 6 A CONDIÇÃO INSEGURA DO ATO INSEGURO: O MITO ............................................................ 54 CAPÍTULO 7 ENGENHARIA DE SEGURANÇA DE SISTEMAS............................................................................ 62 CAPÍTULO 8 ASPECTOS CONCEITUAIS DA ANÁLISE DE ACIDENTES .............................................................. 65 CAPÍTULO 9 ASPECTOS FINANCEIROS E ECONÔMICOS DA GERÊNCIA DE RISCOS ..................................... 69 UNIDADE III ANÁLISE DE RISCOS: REVISÃO SISTÊMICA ............................................................................................. 71 CAPÍTULO 1 SER HUMANO TEM AVERSÃO AO RISCO? ................................................................................ 76 CAPÍTULO 2 DIALÉTICA DO RISCO ............................................................................................................. 80 CAPÍTULO 3 AVALIAÇÃO E COMUNICAÇÃO DE RISCOS ............................................................................ 93 CAPÍTULO 4 PROCESSOS DE AVALIAÇÃO DE PERIGO ................................................................................. 99 UNIDADE IV TÉCNICAS ATRIBUÍDAS ESPECIFICAMENTE A ENGENHARIA DE SEGURANÇA DO TRABALHO .................. 108 CAPÍTULO 1 ANÁLISE PRELIMINAR DE PERIGO (APR) .................................................................................. 108 CAPÍTULO 2 FAILURE MODESAND EFFECT ANALYSIS (FMEA) ..................................................................... 112 CAPÍTULO 3 ANÁLISE DE ÁRVORE DE FALHA ( AAF ) OU FAULT TREE ANALYSIS – ( FTA)................................. 127 CAPÍTULO 4 ANÁLISE DE ÁRVORE DE EVENTOS (AAE) EVENT TREE ANALYSIS (ETA) ....................................... 144 CAPÍTULO 5 ESTUDO DA OPERABILIDADE E PERIGO (HAZARDAND OPERABILITY STUDIES – HAZOP) ............. 150 CAPÍTULO 6 LIMITAÇÕES DA ANÁLISE DE RISCOS E RESUMO .................................................................... 161 PARA (NÃO) FINALIZAR ................................................................................................................... 165 REFERÊNCIAS ................................................................................................................................ 166 5 Apresentação Caro aluno A proposta editorial deste Caderno de Estudos e Pesquisa reúne elementos que se entendem necessários para o desenvolvimento do estudo com segurança e qualidade. Caracteriza-se pela atualidade, dinâmica e pertinência de seu conteúdo, bem como pela interatividade e modernidade de sua estrutura formal, adequadas à metodologia da Educação a Distância – EaD. Pretende-se, com este material, levá-lo à reflexão e à compreensão da pluralidade dos conhecimentos a serem oferecidos, possibilitando-lhe ampliar conceitos específicos da área e atuar de forma competente e conscienciosa, como convém ao profissional que busca a formação continuada para vencer os desafios que a evolução científico-tecnológica impõe ao mundo contemporâneo. Elaborou-se a presente publicação com a intenção de torná-la subsídio valioso, de modo a facilitar sua caminhada na trajetória a ser percorrida tanto na vida pessoal quanto na profissional. Utilize-a como instrumento para seu sucesso na carreira. Conselho Editorial 6 Organização do Caderno de Estudos e Pesquisa Para facilitar seu estudo, os conteúdos são organizados em unidades, subdivididas em capítulos, de forma didática, objetiva e coerente. Eles serão abordados por meio de textos básicos, com questões para reflexão, entre outros recursos editoriais que visam a tornar sua leitura mais agradável. Ao final, serão indicadas, também, fontes de consulta, para aprofundar os estudos com leituras e pesquisas complementares. A seguir, uma breve descrição dos ícones utilizados na organização dos Cadernos de Estudos e Pesquisa. Provocação Textos que buscam instigar o aluno a refletir sobre determinado assunto antes mesmo de iniciar sua leitura ou após algum trecho pertinente para o autor conteudista. Para refletir Questões inseridas no decorrer do estudo a fim de que o aluno faça uma pausa e reflita sobre o conteúdo estudado ou temas que o ajudem em seu raciocínio. É importante que ele verifique seus conhecimentos, suas experiências e seus sentimentos. As reflexões são o ponto de partida para a construção de suas conclusões. Sugestão de estudo complementar Sugestões de leituras adicionais, filmes e sites para aprofundamento do estudo, discussões em fóruns ou encontros presenciais quando for o caso. Praticando Sugestão de atividades, no decorrer das leituras, com o objetivo didático de fortalecer o processo de aprendizagem do aluno. 7 Atenção Chamadas para alertar detalhes/tópicos importantes que contribuam para a síntese/conclusão do assunto abordado. Saiba mais Informações complementares para elucidar a construção das sínteses/conclusões sobre o assunto abordado. Sintetizando Trecho que busca resumir informações relevantes do conteúdo, facilitando o entendimento pelo aluno sobre trechos mais complexos. Exercício de fixação Atividades que buscam reforçar a assimilação e fixação dos períodos que o autor/ conteudista achar mais relevante em relação a aprendizagem de seu módulo (não há registro de menção). Avaliação Final Questionário com 10 questões objetivas, baseadas nos objetivos do curso, que visam verificar a aprendizagem do curso (há registro de menção). É a única atividade do curso que vale nota, ou seja, é a atividade que o aluno fará para saber se pode ou não receber a certificação. Para (não) finalizar Texto integrador, ao final do módulo, que motiva o aluno a continuar a aprendizagem ou estimula ponderações complementares sobre o módulo estudado. 8 Introdução Bem-vindo à disciplina Gerência de Risco –GR. Este é o nosso Caderno de Estudos e Pesquisa, material básico aos conhecimentos exigidos da Engenharia de Segurança do Trabalho – EST. Você já fez uma análise de risco? » Ao olhar o céu, decidir por levar ou não o guarda-chuva. » Ao comprar um imóvel ou um ônibus. » Ao decidir por autorizar ou não os filhos a viajar com os amigos. » Ao escolher entre tirar nota baixa e colar em uma prova. » Ao atravessar a rua. » Ao aceitar ou não uma proposta de emprego. » Ao encontrar um caminhão bastante lento em aclive sinuoso: ultrapassar ou frear forte? » Ao dizer sim no casamento! » Ao planejar uma viagem de férias Faz-se análise de risco o tempo todo, porém de maneira aleatória. As decisões mudam e nem sempre todos os aspectos são considerados. Essa disciplina – mediante as técnicas de analise de risco – ajudará a decifrar, entender, avaliar o meio ambiente do trabalho sob a perspectiva da EST. A ênfase desse curso está na abordagem estatístico-probabilística juntamente às técnicas de análise de risco difundidas pela Engenharia de Segurança de Sistemas, assim entendida1a ciência que se utiliza de todos os recursos que a engenharia oferece, preocupando-se em detectar toda a probabilidade de incidentes críticos que possam inibir ou degradar um sistema de produção, com o objetivo de identificar esses incidentes críticos, controlar ou minimizar sua ocorrência e seus possíveis efeitos. 1 Segundo De Cicco e Fantazzini (1977), a Engenharia de Segurança de Sistemas foi introduzida na América Latina pelo engenheiro Hernán Henriquez Bastias, sob a denominação de Engenharia de Prevenção de Perdas. Outra forma de denominar a Enga de Segurança do Trabalho. 9 Considerando que esse curso é especialização em nível superior, registre-se de pronto que esse material de estatística apenas introduz esse suporte teórico às análises e decisões que devem ser tomadas no âmbito da gerencia do risco. Por isso, o cursista deve procurar revisar livros de estatística básica para complementar o conteúdo aqui iniciado. Desejamos a você um trabalho proveitoso sobre os temas abordados! Objetivos » Apresentar e discutir aspectos teóricos e práticos sobre gerenciamento de riscos, utilizando ferramentas para análise de riscos e tomada de decisão voltada à engenharia de segurança do trabalho. » Conhecer e utilizar técnicas de análise de riscos como ferramentas para uma gestão de riscos. » Apropriar-se dos mecanismos de controle para intervenção ambiental. » Entender as definições básicas da EST ao classificar e identificar perigo, risco e fator de risco ambiental. » Capacitar-se para avaliação e gestão de riscos. » Conhecer e interpretar corretamente técnicas, métodos e testes estatísticos e probabilísticos que instrumentalizam a engenharia de segurança do trabalho. 11 UNIDADE IESTATÍSTICA CAPÍTULO 1 Estatística descritiva Estatística descritiva é a apresentação, organização, sumarização e descrição de um conjunto de dados. Esta relacionada com gráficos, tabelas e cálculos de medidas com base em uma coleção de dados numéricos. Encarrega-se de descrever um conjunto de dados desde a elaboração da pesquisa até o cálculo de determinada medida. Figura 1. Fonte: próprio autor Estatística Inferencial é o método que torna possível a estimativa de características de uma população baseado nos resultados amostrais. Seu início deu-se sobre a formulação matemática da teoria da probabilidade em jogos de azar. Indivíduos são os objetos descritos por um conjunto de dados. Os indivíduos podem ser pessoas, mas podem também ser animais ou objetos. Variável é qualquer característica de um indivíduo. Uma variável pode tomar valores diferentes para indivíduos distintos. População é o conjunto de indivíduos, podendo ser finita ou não. Amostra é a parte finita e representativa da população, capaz de reproduzir as características da população. Subconjunto da população. O processo de extração da amostra é chamado amostragem. 12 UNIDADE I │ ESTATÍSTICA Variável categórica indica a qual de diversos grupos ou categorias um indivíduo pertence. Variável quantitativa toma valores numéricos com os quais tem sentido efetuar operações aritméticas, como somar ou tomar médias. Uma Amostra Aleatória Simples (AAS) de tamanho n consiste em n indivíduos, ou elementos, da população, escolhidos de maneira que qualquer conjunto de n indivíduos tenha a mesma chance de constituir a amostra extraída. Teorema Central do Limite: Considere uma AAS de tamanho n extraída de uma população qualquer com média μ e desvio padrão finito σ. Quando n é grande, a distribuição amostral da média amostral x se aproxima da distribuição normal N(μ,σ/ 1 i x x n = ∑ ) com média μ e desvio padrão σ/ 1 i x x n = ∑ . Valor P do teste é a probabilidade - supondo-se H0 (hipótese nula) verdadeira - de estatística de um teste assumir um valor no mínimo tão extremo quanto o valor efetivamente observado. Quanto menor for o valor P, mais forte será a evidência contra H0 fornecida pelos dados. Nível de significância é o valor decisivo de P representado por α. Medidas de tendência central O objetivo de utilizar as medidas de tendência central é de caracterizar o centro de uma distribuição de uma variável. As principais medidas utilizadas são: Moda, Mediana e Média. Moda Quando a variável é qualitativa, a única medida que se pode utilizar é a moda. Essa medida é a categoria da variável mais frequente numa distribuição, ou seja, é o valor da variável mais comum. Tabela 1. Distribuição de motoristas de ônibus segundo local de refeição, São Paulo. 1991. Local No No bar 169 No ônibus 125 Em casa 78 Não comeu 64 Outro 28 Total 464 Fonte: próprio autor 13 ESTATÍSTICA │ UNIDADE I Nesse exemplo, a moda do local de refeição é “No bar”, pois esta é a categoria da variável que apresentou a maior frequência (f = 169), indicando que o mais comum é os motoristas fazerem suas refeições no bar. Média A medida mais comum das medidas de centro é a média aritmética, ou simplesmente média: 1 i X x n = ∑ Tabela 2. Planilha dos números de benefícios por incapacidade pelo INSS. Fonte: próprio autor Deve ser utilizado em variáveis quantitativas. Essa medida sempre existe e quando calculada admite um único valor, porém, sofre grande influência de valores discrepantes, será atraída por este valor se houver uma baixa frequência dos dados. Mediana É o “valor do meio”. Divide a distribuição de frequências em duas partes, permanecendo 50% abaixo e 50% acima do valor mediano. Utilizando-se o seguinte procedimento para encontrar a mediana: a. verificar se os intervalos estão em ordem crescente; b. construir a frequência acumulada; c. encontrar a posição da mediana; › se n for par, a posição será: np= 2 14 UNIDADE I │ ESTATÍSTICA › se n for ímpar: (n+1)p= 2 a. quando a variável é contínua, deve-se aplicar a seguinte fórmula, baseando- se nos valores da classe mediana: 2= n f h Md Li Fmd − + ∑ Li = limite inferior da classe mediana; n = tamanho da amostra ou número de elementos; Σf = soma das frequências anteriores à classe mediana H = amplitude da classe mediana; Fmd = frequência da classe mediana. Tabela 3. Exposição a poeiras e fumos de chumbo. Anos (x) F F acumulada 0 – 2 8 8 2 – 4 15 23 4 – 6 7 30 6 – 8 4 34 Fonte: próprio autor Posição da Mediana: n=34, então p= 34/2 = 17 e o intervalo mediano é o segundo, pois antes deste na frequência acumulada há 8 elementos da distribuição e o valor 17 está contido no intervalo que vai de 2 anos a 4 anos, assim, para utilizar a fórmula da mediana, trabalhamos com os valores deste intervalo: Li = 2; Σf= 8; H = 4 – 2 =2; Fmd= 15.34 8 2 2=2 3,2 anos 15 Md − + = 15 ESTATÍSTICA │ UNIDADE I Medidas de dispersão Quartis Os quartis delimitam a metade central dos dados. Fazendo a contagem na lista ordenada de observações, a partir da menor, o primeiro quartil está no primeiro quarto do caminho. O terceiro quartil está a três quartos do caminho. Em outras palavras, o primeiro quartil supera 25%, e o terceiro quartil supera 75% das observações, O segundo quartil é a mediana, que supera 50% das observações. Para calcular os quartis: Dispomos as observações em ordem crescente e localizamos a mediana Md na lista ordenada de observações. O primeiro quartil Q1 é a mediana das observações que estão à esquerda da mediana global na lista ordenada de observações. O terceiro quartil Q3 é a mediana das observações que estão à direita da mediana global na lista ordenada de observações. A melhor representação para os quartis é o diagrama em caixa (box-plot), como se segue: Figura 2. Fonte: próprio autor 16 UNIDADE I │ ESTATÍSTICA Variação amostral Como se deseja medir a dispersão dos dados em relação à média, é interessante analisar os desvios de cada valor (xi) em relação à média x , isto é: di = (xi - x ). A variância, S2, de uma amostra de n medidas é igual à soma dos quadrados dos desvios dividida por (n-1), assim: 2 2 2 ( )= 1 1 i id x XS n n − = − − ∑ ∑ Desvio padrão amostral Para melhor entender a dispersão de uma variável, calcula-se a raiz quadrada da variância, obtendo-se o desvio padrão que será expresso na unidade de medida original. Assim: 2 2 ( )= 1 ix XS S n − = − ∑ Regra empírica: para qualquer distribuição amostral com média x e desvio padrão S, tem-se: » O intervalo x± S contém entre 60% e 80% de todas as observações amostrais. A porcentagem aproxima-se de 70% para distribuições aproximadamente simétricas, chegando a 90% para distribuições fortemente assimétricas. » O intervalo x± 2S contém aproximadamente 95% das observações amostrais para distribuições simétricas e aproximadamente 100% para distribuições com assimetria elevada. » O intervalo x± 3S contém aproximadamente 100% das observações amostrais, para distribuições simétricas. Teorema de Tchebycheff: Para qualquer distribuição amostral com média x e desvio padrão S, tem-se: » O intervalo x± 2S contém, no mínimo, 75% de todas as observações amostrais. » O intervalo x± 3S contém, no mínimo, 89% de todas as observações amostrais. 17 ESTATÍSTICA │ UNIDADE I Coeficiente de variação de Pearson Trata-se de uma medida relativa de dispersão. . .= SC V 100 X ⋅ Eis algumas regras empíricas para interpretações do coeficiente de variação: Se: C.V. < 10% tem-se baixa dispersão. Se: 10% ≤ C.V. < 20% tem-se média dispersão. Se: C.V. 20% ≤ C.V. < 30 tem-se alta dispersão. Se: C.V. > 30% tem-se muito alta dispersão. Escore padronizado Outra medida relativa de dispersão é o para uma medida xi. É dado por: = ix XiZ S − Para detectar observações que fogem das dimensões esperadas (outliers), pode-se calcular o escore padronizado (Zi) considerar outliers as observações cujos escores, em valor absoluto (em módulo), sejam maiores do que 3. 18 CAPÍTULO 2 Estatística inferencial Antes de adentrar a inferência, é importante destacar a população e os conjuntos populacionais relacionados à EST. Usa-se a seguir um diagrama de Venn, conforme Figura 3, para melhor visualizar essas dimensões. Figura 3. Diagrama de Venn com as populações externa, alvo, real e estudo. Fonte: próprio autor A População Economicamente Ativa – PEA2, área (2) do diagrama, também denominada de população alvo ou base populacional3 é constituída pela população ocupada e pela população desocupada. A população ocupada compreende as pessoas que trabalham – os indivíduos que têm patrão; os que exploram seu próprio negócio e os que trabalham sem remuneração em ajuda a membros da família – nos setores públicos e privados e nos serviços domésticos remunerados. A população desocupada compreende as pessoas que não têm ou efetivamente estão procurando ocupação, em um determinado período de referência e incorpora o conceito de disponibilidade para assumir o trabalho. A População Real (3), normalmente alvo de estudos da EST, denominada universo amostral, censitária (N), em acinzentado no diagrama, está contida na PEA e é constituída por vínculos empregatícios que foram declarados mensalmente no Cadastro Nacional de Informações Sociais – CNIS4 pelas empresas por intermédio da Guia do Recolhimento do Fundo de Garantia por Tempo de Serviço – FGTS e Informação da Previdência Social – GFIP. A População de Estudo (4) – amostral (n) –, subconjunto da população real, é constituída por vínculos empregatícios das empresas pertencentes a uma determinada Classificação Nacional de Atividades Econômicas – CNAE-Classe . O somatório das populações de estudo resulta na População Real. Essa é a mais importante para o EST, pois é aquela que normalmente está disponível, cujos números são compatíveis com as quantidades de empregados listadas no Programa de Prevenção dos Riscos Ambientais (PPRA) e Programa de Controle Médico de Saúde Ocupacional (PCMSO). 19 ESTATÍSTICA │ UNIDADE I Finalmente, há ainda a População Externa (1) formada pelos demais cidadãos Brasileiros cujos indivíduos não guardam conexão nem interesses afins com esse estudo, todavia é possível lhes fazer alguma extrapolação7. De volta à inferência, normalmente parte-se das características amostrais para inferi-las na população, daí o nome inferência. A estatística inferencial pode ser indutiva (da amostra para população) ou dedutiva (da população para amostra). Distribuição normal As distribuições normais são descritas por uma família especial de curvas de densidade simétricas, em forma de sino, chamadas curvas normais. A média μ e o desvio padrão σ especificam completamente uma distribuição normal N(μ,σ). A média é o centro da curva, e o σ é a distância de μ aos pontos de mudança da curvatura da curva de cada lado da média. Todas as curvas normais são as mesmas, quando as medidas são tomadas em unidades de σ em torno da média. Tais medidas chamam-se observações padronizadas. O valor padronizado z de uma observação x é: = xZ −µ σ Figura 4. Distribuição normal Fonte: próprio autor 20 UNIDADE I │ ESTATÍSTICA Em particular, todas as distribuições normais satisfazem a regra 68-95-99,7,que descreve as percentagens de observações que estão a um, dois ou três desvios padrões a contar da média. Se x tem a distribuição N(μ,σ) com a média 0 e desvio padrão 1. A Tabela Probabilidades Normais Padronizadas dá as proporções de observações normais padronizadas que são menores que z, para diversos valores de z. Padronizando, podemos utilizar a Tabela Probabilidades Normais Padronizadas para qualquer distribuição normal. Amostragem aleatória simples Este método permite que cada elemento da população tenha a mesma chance de ser incluído na amostra. Amostragem aleatória simples é a mais elementar técnica de amostragem aleatória, nela n é usado para representar o tamanho da amostra e N representa o tamanho da população. Todo item ou pessoa na população é numerado de 1 a N. A chance de ser selecionado no primeiro sorteio é de 1/N. Pode-se utilizar também a tábua de números aleatórios para o sorteio dos elementos que irão compor a amostra. Existem dois métodos básicos pelos quais as amostras são selecionadas: com reposição ou sem reposição. Na amostragem sem reposição a chance de qualquer indivíduo não previamente selecionado ser escolhido no segundo sorteio é de 1/N -1. Intervalo de confiança tem como objetivo estimar um parâmetro desconhecido, com uma identificação da previsão da estimativae de quão confiantes estamos na correção do resultado. Por exemplo, se escolhemos um grau de confiança de 95%, definimos que, estatisticamente, 95% de todas as amostras tomadas estarão dentro deste intervalo de confiança. Qualquer intervalo de confiança compreende duas partes: um intervalo baseado nos dados e um nível de certeza. O intervalo em geral tem a formula: Estimativa ± margem de erro. O nível de confiança (C) indica a probabilidade de o método dar uma resposta correta. Isso é, se usarmos intervalos de 95% de confiança, em longo prazo, 95% dos nossos intervalos conterão o verdadeiro valor do parâmetro. Não sabemos se um intervalo de 95% de confiança, calculado com base em determinado conjunto de dados, contém o verdadeiro valor do parâmetro. 21 ESTATÍSTICA │ UNIDADE I Figura 5. Vinte e cinco amostras da mesma população originam esses intervalos de 95% de confiança. Fonte: Pagano, 2004. A longo prazo, 95% de todas as amostras dão um intervalo que contém a média populacional. Um intervalo de confiança de nível - C - para a média populacional μ de uma população normal com desvio padrão σ conhecido, baseado em AAS de tamanho n, é dado por: zX n σ ± ∗ Em que: x - média da amostra (estimativa); σ – desvio padrão da população; n σ - Desvio padrão de x . Não é realista supormos conhecido o desvio padrão da população. Mais a frente veremos como proceder quando σ é desconhecido. Aqui, z*é escolhido de modo que a curva normal padronizada tenha área C entre –z* e z*. Em virtude do teorema central do limite, esse intervalo é aproximadamente correto para grandes amostras quando a população não é normal. 22 UNIDADE I │ ESTATÍSTICA Figura 6. Probabilidade central C sob uma curva normal padronizada encontrada entre -z* e z. Fonte: Pagano, 2004. O número z* é chamado valor crítico p superior da distribuição normal padronizada para p= (1-C)/2. A tabela de distribuição t contém os valores críticos para vários níveis de confiança. Figura 7. Curva de Probabilidade p. Fonte: Pagano, 2004. Mantidas sem alteração as outras condições, a margem de erro de um intervalo de confiança diminui quando: o nível de confiança z* diminui; o desvio padrão populacional σ diminui; o tamanho n da amostra aumenta. O tamanho da amostra necessária para obter um intervalo de confiança com margem de erro especificada m para uma média normal é: 2*zn m σ = , em que z * é o valor crítico para o nível de confiança desejado. Arredonde n sempre para cima quando aplicar esta fórmula. 23 ESTATÍSTICA │ UNIDADE I Uma diretriz para um determinado intervalo de confiança é correta somente sob condições específicas. As condições mais importantes dizem respeito ao método para gerar os dados. Entretanto, são também importantes outros fatores, tais como a forma da distribuição da população. A realização do teste de significância tem por objetivo avaliar a evidência proporcionada pelos dados contra uma hipótese nula H0 em favor de uma hipótese alternativa Ha. As hipóteses são formuladas em termos de parâmetros populacionais. Em geral, H0 é uma afirmação de que não há efeitos presentes, e Ha afirma que um parâmetro difere do seu valor nulo em uma direção específica (alternativa unicaudal) ou em duas direções (alternativa bicaudal). Essencialmente, o raciocínio de um teste de significância é o seguinte: suponha, por questão de argumento, que a hipótese nula seja verdadeira. Se repetirmos muitas vezes a nossa produção de dados e obtermos frequentemente dados inconsistentes com H0, há a observação de que a hipótese nula seja pouco provável, dando evidência contra Ho. Para auxiliar uma decisão com base na inferência, utiliza-se um nível de significância - α. Por exemplo, se escolhermos α = 0,05, estamos impondo que os dados apresentem contra Ho uma evidência tão forte que o fato não ocorreria mais de 5% das vezes (5 em cada 100) quando Ho fosse verdadeiro. Se escolhermos α = 0,01, estamos impondo uma evidência ainda mais forte contra Ho, uma evidência tão forte que o fato só ocorreria 1% das vezes (1 em cada 100) no caso de Ho ser verdadeira. Se o valor P é, no máximo, igual a um valor específico α, os dados são estatisticamente significantes no nível α de significância. O fato de ser “significante” no sentido estatístico não quer dizer “importante”, mas simplesmente “que é pouco provável ocorrer apenas por acaso”. Os testes de significância para a hipótese H0: μ=μ0, relativa à media desconhecida μ de uma população, baseiam-se na estatística z: 0xz n − µ = σ O teste z pressupõe uma AAS de tamanho n, um desvio padrão populacional σ conhecido, e uma população normal ou uma amostra grande. Os valores P são calculados a partir da distribuição normal (tabela de probabilidade normal padronizada). Nos testes com α fixo, utiliza-se tabela de valores críticos normais padronizados (linha inferior da tabela de valores críticos de distribuição t). 24 UNIDADE I │ ESTATÍSTICA Eis o esboço do raciocínio de um teste de significância: Formular as hipóteses: H0: μ=μ0, ou H0: μ≠μ0. Calcular a estatística de teste z. 0xz n − µ = σ Determinar o valor P (neste caso para um valor de P para um teste de H0 contra). Ha: μ>μ0 → P(Z ≥ z); Ha: μ<μ0 → P(Z ≤ z); Ha: μ≠μ0→ 2P(Z ≥ |z|). Exemplo de teste de significância Um estudo foi realizado com 10 funcionários para avaliar se um programa de treinamento realizado por uma empresa estava tendo efeito positivo sobre a produção. Esquema de teste antes e depois. Para aplicar o teste deveremos formular as hipóteses: H0: A produtividade média dos funcionários não se altera com o programa de treinamento; Ha: A produtividade média dos funcionários aumenta com o programa de treinamento. Ou seja: H0 :μantes = μdepois e Ha : μdepois>μantes; Onde: μantes: Produtividade média dos funcionários antes do treinamento; e μdepois: Produtividade média dos funcionários depois do treinamento. Para colocar H0 à prova, vamos observar os n = 10 funcionários, antes e depois de receberem o programa de treinamento. Os dados estão na tabela a seguir: Tabela 4. Planilha de produtividade por empregado - teste de significância. Empregado Produtividade Antes Depois Diferença João 22 25 3 Maria 21 28 7 José 28 26 -2 25 ESTATÍSTICA │ UNIDADE I Empregado Produtividade Antes Depois Diferença Pedro 30 36 6 Rita 33 32 -1 Joana 33 39 6 Flávio 26 28 2 Paulo 24 33 9 Catarina 31 30 -1 Felipe 22 27 5 Média 27 30,4 - Fonte: próprio autor Aplicando a fórmula: 0 xz n − µ = σ com um nível de 5% de significância e σ = 3,81 (não é realista supor conhecido o desvio padrão da população), teremos: 27 1,645 3,81 10 x − = à → x = 28,981. Como a média está superior aos x = 28,981, então a hipótese H0 é falsa. Dessa forma, o aumento da produção é resultado do programa de treinamento estabelecido pela empresa. Uma alternativa para os testes de significância considera H0 e Ha como duas afirmativas de igual status, entre as quais devemos decidir. Esse ponto de vista de análise de decisão focaliza a inferência estatística, de modo geral, como fonte de regras para a tomada de decisões em presença da incerteza. No caso de teste, H0 contra Ha, a análise de decisão escolhe uma regra de decisão com base nas probabilidades de dois tipos de erro. Ocorre um erro tipo I se rejeitarmos H0 quando ela é, na verdade, verdadeira. Ocorre um erro tipo II se aceitarmos H0 quando Ha é verdadeira. Verdade sobre a população H0 verdadeira Ha verdadeira Decisão baseada na amostra Rejeitar H0 Erro tipo I Decisão correta Aceitar H0 Decisão Correta Erro tipo II Fonte: próprio autor O nível α de significância de qualquerteste de nível fixo é a probabilidade de um erro tipo I. Ou seja, α é a probabilidade de o teste rejeitar a hipótese nula H0 quando ela é, 26 UNIDADE I │ ESTATÍSTICA na verdade, verdadeira. O poder de um teste de significância mede a sua capacidade de detectar uma hipótese alternativa. O poder contra uma alternativa específica é a probabilidade de este rejeitar H0 quando a alternativa é verdadeira. Para um teste de significância de nível α, esse nível é a probabilidade de um erro tipo I, e o poder contra uma alternativa específica é 1 menos a probabilidade de um erro tipo II para essa alternativa. O aumento do tamanho da amostra acarreta aumento do poder (reduz a probabilidade de um erro tipo II) quando o nível de significância permanece fixo. Teste de média Uma importante aplicação para ele é o teste de média. Os testes e os intervalos de confiança para a média de uma população normal baseiam-se na média amostral x de uma AAS. Como consequência do teorema central do limite, os processos resultantes são aproximadamente corretos para outras distribuições populacionais quando a amostra é grande. A média amostral padronizada é a estatística z de uma amostra, xz n − µ = σ Quando conhecemos σ, utilizamos a estatística z e a distribuição normal padronizada. Na prática, não conhecemos o desvio padrão σ. Substituímos o desvio padrão pelo erro padrão /s n para obter a estatística t de uma amostra: xt s n − µ = A estatística t tem a distribuição t com n -1 grau de liberdade. Há uma distribuição t para cada número positivo k de graus de liberdade. Todas são simétricas e tem forma semelhante à da distribuição normal padronizada. A distribuição t(k) tende para a distribuição N(0,1) na medida em que k aumenta. * sx t n ± É um intervalo de confiança exato de nível de confiança - C - para a média μ de uma população normal; t* é o valor crítico (1-C)/2 superior da distribuição t(n-1). Os testes de significância para H0: μ=μ0 baseiam-se na estatística t. Utilize valores P ou níveis fixos de significância da distribuição t(n-1). 27 ESTATÍSTICA │ UNIDADE I Aplique esses processos de uma amostra para analisar pares de dados tomando, primeiro, a diferença dentro de cada par para gerar uma única amostra. Os processos t são relativamente robustos quando a população é não-normal, especialmente para maiores tamanhos de amostra. Os processos t são úteis para dados não-normais quando n ≥ 15, a menos que os dados apresentam outliers ou assimetria acentuada. Exemplo de teste de significância Um estudo foi realizado com 10 funcionários para avaliar se um programa de treinamento realizado por uma empresa estava tendo efeito positivo sobre a produção. Esquema de teste antes e depois. Para aplicar o teste deveremos formular as hipóteses: Ou seja: H0 :μantes = μdepois e Ha : μdepois>μantes; Em que: μantes: Produtividade média dos funcionários antes do treinamento. μdepois: Produtividade média dos funcionários depois do treinamento. Conforme dados da Para colocar H0 à prova, vamos observar os n = 10 funcionários, antes e depois de receberem o programa de treinamento. Os dados estão na tabela a seguir: Aplicando a fórmula: 0 xt s n − µ = com um nível de 5% de significância, 9 graus de liberdade e s = 3,81, teremos: 27 1,833 29,208 3,81 10 xt x−= = → = Como a média está superior aos x = 29,208, então a hipótese H0 é falsa. Dessa forma, o aumento da produção é resultado do programa de treinamento estabelecido pela empresa. Comparação de duas médias Os dados em um problema de duas amostras constituem duas AAS independentes, cada qual extraída de uma população normal separada. Os testes e intervalos de confiança para a diferença entre as médias μ1 e μ2 das duas populações partem da diferença 1 2x x− entre as duas médias amostrais. Em razão do teorema central do limite, os processos resultantes são aproximadamente corretos para outras distribuições populacionais, quando os tamanhos das amostras são grandes. 28 UNIDADE I │ ESTATÍSTICA Extrai AASs independentes, de tamanhos n1 e n2, de duas populações normais com parâmetros μ1, σ1 e μ2, σ2. A estatística t de duas amostras é: ( ) ( )1 2 1 2 2 2 1 2 1 2 x x t s s n n − − µ − µ = + A estatística t não tem precisamente uma distribuição t. A estatística de inferência conservadores para comparar μ1 e μ2, devemos utilizar a estatística t de duas amostras com distribuições t(k). O número k de graus de liberdade é o menor dos valores n1 – 1 ou n2 – 1. Para valores probabilísticos mais precisos, devemos utilizar a distribuição t(gl), com os graus de liberdade gl estimados com base nos dados. Esse é o procedimento usual nos pacotes estatísticos. Intervalo de confiança para μ1 - μ2, dado por: 2 2 * 1 2 1 2 1 2 ( ) s sx x t n n − ± + Tem nível de confiança ao menos C, se t* é o valor crítico (1-C)/2 superior para t(k), sendo k o menor dos valores n1 – 1 ou n2 – 1. Os testes de significância para H0: μ1 = μ2 baseados em 1 2 2 2 1 2 1 2 x xt s s n n − = + têm um valor P verdadeiro não superior ao calculado a partir de t(k). As diretrizes para o uso prático dos processos t de duas amostras são análogas as diretrizes para os processos t para uma amostra. Recomendam-se tamanhos iguais de amostras. Inferência para tabelas de dupla entrada Os processos z de duas amostras permitem-nos comparar as proporções de sucessos em dois grupos, sejam eles duas populações ou dois grupos de tratamentos em um experimento. As tabelas de dupla entrada descrevem relações entre duas variáveis categóricas quaisquer. O primeiro passo para um teste global para a comparação de várias proporções consiste em dispor os dados em uma tabela de dupla entrada que dê os número de sucessos e falhas. Eis uma tabela de dupla entrada para os dados referentes a usuários crônicos de cocaína que usaram antidepressivo por três anos para tentar livrar-se do vício: 29 ESTATÍSTICA │ UNIDADE I Tabela 5. Recaída Não Sim Desipramina 14 10 Lítio 6 18 Placebo 4 20 Fonte: próprio autor Pretende-se testar a hipótese nula de que não há diferença entre as proporções de sucessos para os viciados que recebem os três tratamentos (não há relação entre duas variáveis categóricas): H0: p1 = p2 = p3. A hipótese alternativa é que existe alguma diferença, ou seja, as três proporções não são todas iguais: Ha: p1, p2 e p3 não são todas iguais. Para testar H0, comparamos os valores observados em uma tabela de dupla entrada com os valores esperados, isto é, os valores que esperaríamos se H0 fosse verdadeiro. Se os valores observados se revelam muito diferentes dos valores esperados, há evidência contra H0. total da linha X total da coluna Valor esperado total da tabela = Eis os valores observados e esperados, lado a lado. Tabela 6. Observados Esperados Não Sim Não Sim Desipramina 14 10 8 16 Lítio 6 18 8 16 Placebo 4 20 8 16 Fonte: próprio autor Como 2/3 de todos os indivíduos sofreram recaídas, esperamos que 2/3 dos 24 indivíduos de cada grupo experimentem recaída se não há diferença entre os tratamentos. O teste estatístico que nos diz se essas diferenças são estatisticamente significantes não utiliza proporções amostrais, ele compara os valores observados e os valores esperados. Qui-quadrado ( )22 valor observado - valor esperado valor esperado X = ∑ 30 UNIDADE I │ ESTATÍSTICA O somatório se estende a todas as r X c celas da tabela. Portanto: ( ) ( ) ( ) ( ) ( ) ( )2 2 2 2 2 22 14-8 10-16 6-8 18-16 4-8 20-16 8 16 8 16 8 16 X = + + + + + 2 4,500 2,250 0,500 0,250 2,000 1,000 10,5X = + + + + + = Os valores do qui-quadrado como medida de distância entre valores sempre apresentará valores iguaisou superiores a zero, sendo que grandes valores indicam que os valores observados são muito distantes dos valores que deveríamos esperar e evidência que H0 não é verdadeira. Os valores pequenos de X2 não constituem evidência contra H0. X 2 apresenta (r-1) (c-1) graus de liberdade. A distribuição qui-quadrado é uma aproximação da distribuição da estatística X2. Podemos aplicar com segurança essa aproximação quando os valores esperados das celas são superiores a 1, e não mais de 20% são inferiores a 5. Se o teste qui-quadrado acusa uma relação estatisticamente significante entre variáveis linha e coluna em uma tabela de dupla entrada, prossiga a análise para descrever a natureza da relação. Uma análise informal compara percentagens bem escolhidas, compara valores observados com valores esperados, e procura os maiores componentes de qui-quadrado. <http:<//www.somatematica.com.br/estat/basica/indice.php> BUSSAB, Wilton O.: MORETTIN, Pedro A. Estatística Básica. 3. ed. São Paulo: Atual, 1986. HOFFMAN, Rodolfo. Estatística para Economistas. São Paulo: Livraria Pioneira Editora, 1980. NETO, Pedro Luiz de Oliveira Costa. Estatística. São Paulo: Edgard Blϋcher, 1977. NETO, Pedro Luiz de Oliveira Costa; CYMBALISTA, Melvin. Probabilidades: resumos teóricos, exercícios resolvidos, exercícios propostos. São Paulo: Edgard Blϋcher, 1974. MASON, Robert D.; DOUGLAS, Lind A. Statistical Techniques in Business And Economics.Boston: IRWIN, 1990. MEYER, Paul L. Probabilidade: aplicações à Estatística. Tradução do Prof. Ruy C. B. Lourenço Filho. Rio de Janeiro: Livros Técnicos e Científicos Editora S.A., 1978 31 ESTATÍSTICA │ UNIDADE I PAGANO, Marcelo e Gauvreau, Kimberlle. Princípios de bioestatística. Ed Thomson,. 2004: p113-253. STEVENSON, William J. Estatística Aplicada à Administração. São Paulo: Editora Harbra, 1981. WONNACOTT, Ronald J., WONNACOTT, Thomas. Fundamentos de Estatística. Rio de Janeiro: Livros Técnicos e Científicos Editora S. A., 1985. 32 UNIDADE IIRISCOS, SISTEMAS E CONFIABILIDADE CAPÍTULO 1 Introdução Nessa unidade, serão discutidos os riscos, sistemas, falhas e confiabilidade que de resto importam para notar o porquê da gerência de risco e da Engenharia de Segurança do Trabalho. Por isso, são dados os fatores que as determinam com vistas ao controle de perdas, a saber: tecnológicos; econômicos e sociais: » Tecnológicos: › desenvolvimento de processos mais complexos; › uso de novos materiais e produtos químicos; › condições operacionais (pressão, temperatura, etc.) mais severas. » Econômicos:aumento de escala das plantas industriais. » Sociais:maior concentração demográfica próximo a áreas industriais; › organização da sociedade; › preocupação quanto ao meio ambiente, a segurança e a saúde. » Consequências: › reformulação das práticas de gerenciamento de segurança; › industrial; revisão de práticas tradicionais e de códigos, padrões e regulamentações obsoletas; 33 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II › desenvolvimento de técnicas para a identificação e quantificação de perigos; › formulação de critérios de aceitabilidade de riscos; › elaboração de modelos de gestão para o gerenciamento da sms; › elaboração e implantação de sistemas de resposta para emergências. Essas perdas, chamadas de desfalques, possuem várias naturezas, como a seguir se visualiza na Figura 8. Figura 8. Natureza dos desfalques (perdas) e cenários de perigo, acidente, incidente e risco. Fonte: Cicco, 1994. Que por sua vez decorrem da probabilidade de consumação do perigo (risco), como se visualiza na Figura 9. 34 UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE Figura 9. Cenários de perigo, acidente, incidente e risco. Fonte: Cicco, 1994. 35 CAPÍTULO 2 Mas, o que é risco? Risco, para um conjunto de eventos distintos, é dado por: Risco = (Fi∑ x Ci), expresso em Fatalidades/ Ano; dias parados/ mês; R$/ ano; mortes/ ano, etc. Em que: A frequência (F) pode ser expressa em: eventos/ ano; acidentes/ mês; etc. e a Consequência (C), decorrência direta do perigo, pode ser expressa em: fatalidades/ evento; morte/ acidente; R$/ evento; dias perdidos/ acidente; etc. Ambientação 1: Praticando – Aplicação do cálculo de risco Se em uma estrada ocorrem 100 acidentes por ano, dos quais, em média, 1 morte a cada 10 acidentes. Tem-se: F = 100 acidentes/ ano. Se ocorre, em média, 1 morte a cada 10 acidentes: C = 0,1 morte/ acidente. O Risco Coletivo [Risco = (Fi∑ x Ci)], médio nesta estrada é: Rcol = 100 x 0,1 = 10 morte/ano. Transitam-se pela estrada 100.000 pessoas por ano, o Risco Individual para cada pessoa é: Rind.=10/100.000=0,0001 Há algumas indicações de riscos de fatalidade para alguns riscos voluntários e involuntários, conforme apresentado na 7 e Tabela 8. 36 UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE Tabela 7. Fatalidade para alguns riscos voluntários e involuntários. Fonte: (CICCO, 1994) Tabela 8. Ranking de riscos individuais de mortes. Fonte: Souza, 1995 Como visto, é importante ter parâmetros de comparação para poder elaborar um estudo de análise de riscos. As formas de medir o grau de importância dos riscos são as mais variadas e dependem diretamente do objetivo das análises. 37 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II Há vários padrões internacionais que podem ser adotados para se definir se um risco é aceitável ou não, passando, como sempre, pela avaliação da probabilidade de ocorrência de um evento acidental e pela extensão das suas consequências. A tabela 9 fornece uma ideia genérica dos limites de aceitabilidade dos riscos para diversas áreas. Tabela 9. Limites de aceitabilidade dos riscos para diversas áreas. Riscos Probabilidade de ocorrência Extensão das consequências Risco social 1x10-4 (EUA) a 1x10-6 (Holanda) Perda de vida humana Risco aeronáutico 1 x 10-8 Perda da aeronave e de vidas humanas Risco mecânico – Industrial 1x10-4 Perda do sistema ou acidente envolvendo vidas humanas Seguros Riscos de alta frequência Riscos cuja perda acumulada ou unitária exceda o prêmio pago, já descontados os custos operacionais e comerciais Fonte: Fao / Who, 1997. O que determina a importância de um risco é a combinação dos fatores acima (F x C). Para seguros, por exemplo, se um determinado tipo de acidente é bastante frequente, mas traz perdas associadas muito pequenas, ele poderá ser melhor suportado pela seguradora do que um risco pouco frequente que traz consequências mais importantes. Portanto, avaliar esses parâmetros com a máxima cautela e critério é o segredo de um estudo de sucesso. O que é pior? » Alta frequência de ocorrência › Motores elétricos » Alta consequência (perigo) › Explosão de um botijão de gás A percepção de risco inclina o ser humano, que se impressiona mais, às consequências (perigos), porém isso é um erro; eventos frequentes podem ser mais arriscados. Todavia o julgamento sempre dependerá dos critérios escolhidos de comparação. Observe o exemplo da Tabela 10. 38 UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE Tabela 10. Cidades mais arriscadas pelo critério de acidente fatal Fonte: Filipe, 1993. Em qual cidade você gostaria de morar? Se você respondeu A, estará dentro da grande maioria, que acha “normal“ morrerem 1.000 pessoas por ano em acidentes de transito, mas não admitem. Na cidade B, um acidente único pode gerar 10.000 mortes, ele que sua probabilidade seja baixa. Quando se analisa um determinado risco, a primeira ação a fazer é descobrir se há alguma estatística relacionada à ocorrência de eventos anteriores, seja no local em que esse risco ocorre ou em outros locais. Entendero porquê de sua ocorrência é fundamental para analistas de risco de várias áreas de atuação como forma de dimensionar probabilidades e Consequências. A experiência, ele que absorvida de outros, da literatura especializada, etc., é o primeiro instrumento da análise de riscos. Mas, e quando não se dispõe de dados ou da experiência necessária? A solução é construir cenários acidentais e discutir com as outras pessoas envolvidas o grau de importância das possibilidades, vislumbrando se realmente se constituem em probabilidades. Em relação às Consequências, ocorre exatamente a mesma coisa. Pode-se aprender com outros eventos ou construir os cenários acidentais. Em análises singelas, a construção de um ou dois cenários acidentais é bastante simples e geralmente não se precisa de maiores auxílios. As formas de medição da probabilidade de ocorrência e da magnitude das Consequências é que precisam ser melhor investigadas. A seguir, indica-se a amplitude das medições: » Probabilidade: › de falha; de ocorrer um evento indesejável; de algo dar errado; do risco se transformar em perigo. Consequências: 39 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II › perda de vidas humanas; › perda financeira; › perda patrimonial; › perda de imagem; perda de capacidade temporária. O que é mais perigoso, viajar de ônibus ou de avião a jato? Verifica-se na Figura 6 que o perigo é maior em avião, pois as energias (potencial e cinética) relacionadas ao deslocamento aéreo são milhares de vezes maiores que àquelas terrestres, situação que torna milagre a possibilidade de haver sobrevivente pós-acidente aeronáutico. Figura 10. Teoria do Risco (perigo x probabilidade). Fonte: próprio autor Com base nos dados, e utilizando o sistema internacional de unidades SI, tem-se: Avião Ônibus Massa (t) 80 15 Velocidade (km/h) 860 80 Altura do passageiro ao nível chão(m) 11.000 2 40 UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE Fonte: próprio autor Percebe-se que a energia potencial gravitacional do avião é mais de 29.333,33 vezes maior que a do ônibus. É óbvio: o avião possui muito mais desprendimento de energia e, portanto, um potencial maior de destruição que o ônibus. Quando se compara a energia cinética de ambos, percebe-se que a bordo do avião a energia cinética é cerca de 616,42 vezes maior que a de um ônibus. Fechada essa etapa do cálculo, o avião é 2.729,23 vezes mais perigoso quando o critério é Energia Mecânica Total. Mas, quem é mais arriscado? É fácil encontrar, pela internet: » o risco de morrer em um acidente de avião é 29 vezes menor do que andar de ônibus, 10 vezes menor do que trabalhar, 8 vezes menor do que andar a pé8; » a probabilidade de acidentes rodoviários é 266 vezes maior9 que a dos aéreos; » o transporte aéreo registra 90 vezes10 menos vítimas que o de ônibus; » ao menos nos EUA, o avião é 11 vezes11 mais seguro que o ônibus. Com esse painel de dados probabilísticos, em uma primeira aproximação, baseado em números de mortes por viagens, chegou-se à conclusão que apesar de mais perigoso, avião é menos arriscado. 41 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II Conclusão essa, confirmada pelos dados válidos na Europa, que dizem sobre andar de ônibus implica risco equivalente a 0,7 fatalidades em 100 milhões de pessoas por quilômetro percorrido12. A aviação civil teria risco 20 vezes menor, enquanto ir a pé, o número é 9 vezes maior. Em outras palavras, nesse caso os dados probabilísticos decorrem do critério de acidentes fatais por quilômetros percorridos. Assim, o avião aparece facilmente como meio mais seguro, pois em uma viagem percorrem-se trechos que, por terra, poderiam significar horas ou dias de direção. Avaliando o risco deste jeito, nossos pés tornam-se um dos meios de transporte mais arriscados: quanto tempo passado nas ruas, a pé, é necessário para igualar 100 mil quilômetros percorridos de avião? Ponto inflexão. Utilizar quilômetros percorridos para medir riscos pode não fazer muito sentido no caso do avião, pois, a probabilidade de acidente depende mais do número de escalas do que da distância (mais de 90% dos acidentes acontecem no final ou no início do voo)13. Aprofundando agora essa questão, percebe-se que a resposta correta, do que é mais arriscado, é: depende! Depende do que se quer medir e qual valor é dado às diferentes opções, pois há estatísticas que afirmam exatamente o oposto. Especialistas garantem que viagem aérea tem frequência de acidente fatal quatro vezes maior que em um ônibus. (2,4 mortos a cada milhão de horas de exposição). (SOUZA,1995) O fato de o ônibus causar mais vítimas não implica automaticamente que seja menos seguro do que avião, pois o tempo que um cidadão comum pode passar num avião é muito menor que o transcorrido ao se locomover por transporte terrestre. O critério correto não é quilômetro percorrido, mas sim, as vítimas por tempo de exposição. A pergunta, refeita, seria: há mais probabilidade de acidente fatal passando-se uma hora de viagem em um avião ou em um ônibus? Nesse caso, de acordo com os ele dados europeus, ônibus e trem se tornam os meios mais seguros (duas fatalidades por 100 milhões de pessoas por hora de viagem), enquanto que o avião seria 8 vezes mais frequente, desta feita, não tão mais seguro do que ir de ônibus ou a pé (que empatam, com 25 fatalidades por 100 milhões de pessoas por hora de viagem). Finalmente, considerando as energias mecânicas totais (perigo) do avião e do ônibus, percebem-se duas conclusões possíveis sobre o risco, a depender do critério utilizado: quilômetros percorridos ou tempo de exposição. Para o primeiro critério, avião é menos arriscado; para o segundo, o ônibus! 42 UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE Esse exercício de raciocínio foi feito para que o cursista perceba, para além das obviedades, que, às vezes, trabalhar em banco (entidade financeira) é mais arriscado que trabalhar em construção civil, apesar desta última operar com energias mecânicas altas. Depende sempre do critério adotado! Se o perigo do meio ambiente do trabalho foi identificado como forte stress e medo nas relações interpessoais, a consequência reflui para incapacidade laboral por transtornos mentais, cujas frequências relativas são grandes (alta probabilidades), ter-se-ia nesse cenário grandes riscos. Julgue, explique o que é mais arriscado da perspectiva do empregado e quais medidas de controle a serem adotadas. Dados: 1. Obra de construção civil (CNAE 4210) a. 5 x 10-4 probabilidade para transtorno mental (F22) 2. Agência dois bancária (CNAE 6422) a. 50 x 10-4 probabilidade para transtorno mental (F22) Ambientação 2: Praticando. Julgue o que é mais arriscado e quais medidas de controle o EST deve propor? 43 CAPÍTULO 3 Disponibilidade e confiabilidade Por estarem inseridas em um ambiente dinâmico e mutável as organizações podem sofrer perdas associadas ao seu patrimônio, uma vez que o referido ambiente é permeado de riscos. Assim, faz-se necessário a identificação antecipada de todos os fatores que geram ameaças ao patrimônio organizacional, considerando que essa ação permite que sejam adotadas medidas preventivas visando evitar a ocorrência das possíveis perdas, principalmente humanas. Em termos de evolução, porém, observa-se que parte das ações relativas à prevenção de perdas foi desenvolvida em virtude da grande incidência de infortúnios do trabalho, pois a severidade e a frequência das lesões nos trabalhadores, os danos às máquinas e aos equipamentos, às instalações e ao processo produtivo demandaram uma série de esforços que, de início, tinham como objetivo prevenir e controlar tais eventos. Nesse contexto, comparecem dois termos: disponibilidade e confiabilidade (SOUZA, 1995). Adisponibilidade definida como fração ou percentual do tempo em que um componente ou sistema encontra-se disponível para atender de forma satisfatória a uma demanda de funcionamento. Já a confiabilidade é tida como a probabilidade de que o componente ou sistema desempenhe com sucesso suas funções, por um período de tempo e condições especificadas (possui natureza probabilística; apresenta dependência temporal; depende do critério de sucesso considerado e varia em função das condições de operação). Figura 11. Comparativo entre disponibilidade e confiabilidade. 44 UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE Fonte: próprio autor Qual o tempo até o primeiro defeito? Considerando N sistemas idênticos colocados em operação a partir do tempo t=0, mede-se o tempo de operação ti de cada um até apresentar defeito. O Mean Time to Failure ( MTTF) e o tempo médio de operação à Figura 12. Fluxo Mean Time Between Failure (MTBF). Fonte: próprio autor 45 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II A predição da confiabilidade é definida como um processo de estimar quantitativamente a probabilidade de falha de um sistema ou equipamento, tendo como objetivo verificar se o produto irá atender às metas de confiabilidade, definidas pela empresa. (SOTO, 1981) Num sistema em série, a confiabilidade do sistema é igual ao produtório da confiabilidade (reability – R) de cada componente, chamada de Lei da Confiabilidade do Produto: Q = R1 x R2 x R3 x R4 Em que: Q = confiabilidade do sistema Ri = confiabilidade do componente. Caso haja um sistema composto de 6 componentes, em que cada um possui uma confiabilidade de 90%, a confiabilidade do sistema será de 0,96 = 0,5314, ou seja, a confiabilidade será de 53,14%. A Figura 13 (Curva de probabilidades – bacia de falhas ou curva da banheira) indica graficamente os três tipos de falhas, em função do tempo de ocorrência, que ocorrem em equipamentos e sistemas. » Falhas prematuras: ocorrem durante o período de depuração devido a montagens pobres (fracas) ou por possuírem componentes abaixo do padrão; » Falhas casuais: resultam de falhas complexas, incontroláveis e, algumas vezes, desconhecidas. O período durante o qual as falhas são devidas, principalmente a falhas casuais, é a vida útil do componente ou do sistema; » Falha por desgaste: iniciam-se quando os componentes tenham ultrapassado seus períodos de vida útil. A taxa de falha aumenta rapidamente devido ao tempo e a algumas falhas casuais. 46 UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE Figura 13. Curva de probabilidades – bacia de falhas ou curva da banheira Fonte: Bastias, 1977. Geralmente as falhas prematuras não são consideradas na análise de confiabilidade, porque se admite que o equipamento foi “depurado”, e que as peças, inicialmente defeituosas, foram substituídas. Com um pequeno aumento da confiabilidade de seus componentes, há um aumento considerável na confiabilidade do sistema, como, por exemplo, passarmos os componentes para uma confiabilidade de 90% para 95%. Esse aumento resulta numa confiabilidade do sistema de 53,14% para 73,51%, quando há 6 componentes. Outro aspecto é quando há um sistema paralelo. Considerando a confiabilidade de um sistema em 81%, sua probabilidade de falha é de 19%. Por consequência, a confiabilidade do sistema composto por paralelismo será de 96,4%. Falha = 1 – R Falha = 1 – 0,81 = 0,19 Com paralelismo: Q = 1 – Falha2 Q = 1 – 0,192 = 0,964 Outra solução possível de ser adotada para aumentar a confiabilidade é a utilização de componentes standby no sistema, que só entram em funcionamento quando a unidade 47 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II falha. Para pleno efeito desta solução, a detecção da falha, que monitora o sistema e ativa o componente standby no momento correto, deve ter confiabilidade bem próxima de 100%, assim como o componente em standby. Sistemas standby são sistemas críticos tais como um grupo gerador elétrico de hospital, cuja confiabilidade deve ser extremamente alta.Um meio de melhorar a confiabilidade é melhorar as condições ambientais de operação como umidade, temperatura, vibrações, corrosão, erosão, radiação, atrito, pancadas. 48 CAPÍTULO 4 Álgebra Booleana A álgebra Booleana foi desenvolvida pelo matemático George Boole para o estudo da lógica. Suas regras e expressões aclararam e simplificaram problemas complexos. Bastante útil em condições expressas por apenas dois valores: sim ou não, 0 ou 1 etc. A lógica Booleana e aplicada em área como a de informática e montagens eletromecânicas que incorporam um grande número de liga e desliga. É também utilizada em análise de probabilidade, em estudos que envolvam decisões e em segurança de sistemas. Usam-se diagramas de Venn na matemática para simbolizar graficamente propriedades, axiomas e problemas relativos à teoria dos conjuntos, que podem ter operações representadas abaixo: Figura 14. Diagramas com axiomas e problemas relativos à teoria dos conjuntos. 49 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II Várias outras identidades podem ser expressas pela lógica Booleana: Identidade LEI Explicação A·1=A Conjunto complemento ou vazio A única parte dentro de 1, que é 1 e A, é aquela dentro do próprio A. A·0=0 Condição impossível; se esta dentro do conjunto, não pode estar fora dele. A+0=A O elemento num conjunto, mais alguma coisa fora do conjunto, terá somente as características do subconjunto. A+1=1 O todo expresso por 1, não pode ser ultrapassado. A A= Lei de Involução Complemento do complemento de A é o próprio A. A·A=0 Relações complementares Impossibilidade. A condição não pode ser A e A simultaneamente. A+ A=1 Soma dos elementos de um conjunto e todos fora deste. A·A=A Lei de Idempotência Postulado A+A=A Postulado A·B = B·A Lei comutativa Os elementos serão os eles independentes da ordem expressa. A+B = B+A O total de elementos será o ele, independente da ordem. A(B·C) = (A·B)C Lei Associativa Os elementos que têm todas as características A, B e C as terão em qualquer ordem expressa. A+(B+C) = (A+B)+C O total de elementos será o ele, não importando a ordem na qual estão expressos. A·(B+C) = (A·B) + (A·C) Lei Distributiva A interseção de um subconjunto com a união de dois outros também pode ser expressa como a união de suas intersecções A+(B·C) = (A+B) · (A+C) A união de um subconjunto com a interseção de dois outros também pode ser expressa pela interseção das uniões do subconjunto comum com os outros dois. A(A+B)=A Lei de Absorção A(A+B)=AA+AB=A+AB, desde que AA=A A+AB=A(1+B)=A, desde que B esteja incluído em 1. A+(A·B)=A A+(A·B)=A+A·B= A(1+B)=A A B A B⋅ = + Lei de Dualização (de De Morgan) O complemento de uma interseção é a união dos complementos individuais. A B A B+ = ⋅ O complemento da união é a interseção dos complementos. 50 CAPÍTULO 5 Evolução das ações prevencionistas Eis o início de tudo: possibilitar às empresas um conceito de segurança à prevenção e à eliminação dos riscos que poderiam afetar os trabalhadores. Todos os estudos e pesquisas realizados giravam em torno das lesões que poderiam ser produzidas por meio dos acidentes de trabalho. Uma empresa segura seria aquela na qual ocorresse o menor número de acidentes e estes eram enfocados segundo o custo que produziam, sem haver a ponderação das diversas perdas patrimoniais que estavam associadas à ocorrência desses acidentes. Carvalho (1984), ao estudar as metodologias propostas para a investigação dos acidentes do trabalho e os riscos que os deflagraram, faz um apanhado histórico e relata a existência de quatro diferentes modelos, sintetizados no quadro a seguir.Tais métodos não são excludentes permitindo que, na prática, eles possam e devam ser utilizados de modo combinado. COMPORTAMENTAL - Utiliza o comportamento humano e suas avaliações giram em torno do comportamento individual ou coletivo, possibilitando vários enfoques, dentre os quais se destacam: a susceptibilidade do indivíduo aos acidentes; e a concepção psicodinâmica, para a qual os acidentes decorrem de condições inseguras ambientais que levam ao erro humano. EPIDEMIOLÓGICO - A ênfase recai sobre a procura das causas dos acidentes e, com esse intuito, são percorridas as condições inseguras que levam às falhas humanas etc., colhendo-se dados estatísticos gerais. Esse método sugere múltipla causalidade e age primariamente como elemento de seleção. SISTEMAS - Para esse modelo, o acidente seria causado pela produção anormal do sistema homem-máquina e tem as suas causas individuais estudadas dentro do conjunto do sistema trabalho, cujos fatores se entrelaçam e se autorregulam. O sistema completo de trabalho seria a execução da operação: indivíduo x material x tarefa x ambiente. INCIDENTES CRÍTICOS – Esse modelo estuda os quase-acidentes, ou os incidentes considerados críticos, que poderiam conduzir a um acidente. Assim, os acidentes são investigados por meio de uma metodologia na qual se realizam entrevistas (anônimas) com os indivíduos para a formulação de um relatório a ser processado, analisado e discutido pela EST a fim de que sejam tomadas as medidas preventivas necessárias. Fonte: próprio autor A primeira divisão das metodologias para identificação de riscos é decorrente da escolha do objeto central de análise. Nesse sentido, pode-se afirmar que os métodos cujo enfoque recai sobre a segurança nos locais de trabalho podem estar centrados no trabalho ou nos empregados, embora existam métodos que tentem combinar essas duas propostas. Os métodos centrados nos empregados postulam que um ambiente seguro pode ser criado e mantido ele por eles, desde que sejam motivados a desempenharem as suas funções com segurança. O incentivo pode ser obtido por meio de maior participação 51 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II nas decisões relativas à segurança, à melhoria da comunicação interna e à sensação de respeito com honestidade de abordagem. Nesse sentido, deve-se falar abertamente ao empregado, coisas do tipo: use este Equipamento de Proteção Individual (EPI) que não é eficaz, mas em 4 meses, conforme PPRA, entrará em funcionamento o captador de pó ou a empresa não implantará Equipamentos de Proteção Coletiva (EPC) e você usará EPI como paliativo. Essas ações visam a motivar os empregadores a reconhecerem o seu meio ambiente e as suas relações diante dos subalternos que não podem dizer não exposição. Trabalhador pode ser ignorante, mas não é bobo: sabe quando é tratado com respeito e honestidade. Em relação aos métodos de abordagem centrados no trabalho, a literatura sobre segurança do trabalho diz que eles têm como ênfase a correção das deficiências nos locais de trabalho por meio da engenharia. Nesses métodos, é comum o emprego de técnicas como a supervisão severa, incentivos materiais, pecuniários ou a concessão de folgas. Também são usados treinamentos visando a dotarem os trabalhadores dos conhecimentos necessários para o reconhecimento de riscos de acidentes a que serão subordinados e para a operação correta dos equipamentos. Ainda, são usados avisos e outras formas de comunicação, mostrando e enfatizando os riscos de acidentes de trabalho e as suas consequências. Essa abordagem tem como objetivo definir a forma menos insegura para se realizar o trabalho, uma vez que a EST já sabe do nível de insegurança. Logo após, os trabalhadores são treinados de acordo com definições estabelecidas, e um rígido controle é exercido sobre a obediência às normas de segurança. Deve-se realizar o estudo dos riscos por intermédio de levantamento de dados relativos às condições ambientais e as suas relações com os meios naturais, sociais e técnicos que envolvem o trabalhador e o relacionam com os demais agentes – o empregador e colegas – e com os instrumentos de trabalho. As condições de vida do funcionário também são levantadas por meio de entrevistas que abordam vários aspectos, inclusive a vida familiar. Esse método permite tirar conclusões, tanto a respeito de como o trabalho e as condições de vida podem predispor o funcionário a doenças e a acidentes no trabalho, como possibilita o diagnóstico dos pontos críticos – ao nível de seção de trabalho – apontando a ordem de prioridades para o encaminhamento da solução dos problemas encontrados. Isso, levando em conta a possibilidade de implantação de soluções. 52 UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE A filosofia de que os acidentes também poderiam gerar danos à propriedade (acidentes sem lesões) foi introduzida por Heinrich, a partir de 1931. Nos estudos que realizou, Heinrich conseguiu demonstrar que, para cada acidente com lesão incapacitante, havia 29 acidentes que produziam lesões não incapacitantes (leves) e 300 acidentes sem lesões. Durante o período de 1959 a 1966, o engenheiro Frank Bird Jr. empreendeu uma pesquisa na qual analisou mais de 90 mil acidentes ocorridos em uma empresa siderúrgica americana, e atualizou a relação estabelecida por Heinrich, desenvolvendo a proporção 1:100:500. Ou seja, para cada lesão incapacitante, existiam 100 lesões não incapacitantes e 500 acidentes com danos à propriedade (CICCO, 1994). Os dados obtidos permitiram que Bird desenvolvesse a sua teoria intitulada de Controle de Danos. Um programa de Controle de Danos é aquele que requer a identificação, registro e investigação de todos os acidentes com danos à propriedade, e a determinação do seu custo para a empresa. Além disso, todas essas medidas deverão ser seguidas de ações preventivas. Ao se implantar um programa de Controle de Danos, um dos primeiros passos a serem adotados é a revisão das regras convencionais de segurança, as quais estão voltadas apenas para a questão das lesões. Desse modo, as regras devem ser ampliadas com o objetivo de abranger os danos à propriedade, e essas alterações devem envolver desde a alta direção da empresa até o corpo funcional, pois todos deverão saber que regra foi mudada e qual a razão da mudança. Ainda, é importante que qualquer pessoa envolvida no programa compreenda que, para este ser bem-sucedido, será necessário um período, devidamente planejado, de comunicação e educação com o intuito de mostrar a gravidade de não se informar qualquer acidente com dano à propriedade que venha a ocorrer na empresa. O Engº Bird ainda ampliou o seu referencial de estudo analisando acidentes ocorridos em 297 empresas, as quais representavam 21 grupos de indústria diferentes, com um total de 1.750.000 operários que trabalharam mais de 3 bilhões de horas durante o período de exposição. Esses dados podem ser melhores visualizados observando a Figura 11. Para cada acidente com lesão incapacitante, havia 10 acidentes com lesões leves, 30 acidentes com danos à propriedade e 600 acidentes sem lesão ou danos visíveis (quase-acidentes), cuja dá 1:10:30:600. 53 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II Figura 15. Comparação entre Heinrich e BIRD Fonte: Bastias, 1977. Com tais evidenciações, nasceu assim a teoria prevencionista, todavia com um pseudo pressuposto – ato inseguro – que em muito atrapalha os sistemas de gestão e o desenvolvimento da engenharia de segurança do trabalho. Esse erro histórico do ato inseguro, ainda impregnado, aos poucos vem sendo varrido, como a seguir discorrido. 54 CAPÍTULO 6 A condição insegura do ato inseguro: o mito Acidentes de trabalho são eventos influenciadospor aspectos relacionados à situação imediata de trabalho como o maquinário, a tarefa, o meio técnico ou material, e também pela organização do trabalho e pelas relações de trabalho. A obra de Almeida (2010), citando o trabalho de Reason, Carthey e de Leval (2001), demonstra que a visão obsoleta da EST leva a atribuição de culpa ao próprio acidentado, devido ao fato dos processos investigativos considerarem que algumas organizações são mais propensas a sofrer acidentes do que outras, devido ao que eles chamaram de Síndrome do Sistema Vulnerável. Essa Síndrome é composta por três elementos que interagem e que se autoperpetuam: a atribuição de culpa aos indivíduos da linha de frente, a negação da existência de erros sistêmicos provocando seu enfraquecimento e a perseguição cega (blinkeredpursuit) de indicadores financeiros e de produção. A visão equivocada das reais causas dos acidentes do trabalho também provém da literatura técnica nacional que promove a cultura e a visão ultrapassada sobre o tema, como se pode ver em Ayres & Correa (2001), que demonstram este entendimento distorcido sobre acidente de trabalho ao mostrar as causas dos acidentes somente pelo enfoque legal, sem realmente abordar a complexidade do assunto. Destaque-se ao cursista sobre a armadilha ideológica da culpabilização da vítima, pois no meio técnico-industrial vigora uma visão reducionista e tendenciosa de que os acidentes do trabalho possuem uma ou poucas causas, decorrentes em sua maioria de falhas dos operadores (erro humano, ato inseguro, comportamento fora do padrão etc., ou falhas técnicas materiais, normalmente associadas ao descumprimento de normas e padrões de segurança). Ele profissionais que já incorporavam uma visão crítica a respeito da atribuição de culpa às vítimas, ainda operam com uma visão que reduz a análise do trabalho e de seus riscos à presença ou ausência de fatores de risco (exemplo: máquina desprotegida; trabalho em altura sem proteção, etc.) ou ainda pelo cumprimento ou descumprimento de normas ou padrões de segurança. 55 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II Esta explicação “fatorial” é atrativa, mas igualmente impotente para explicar o processo causal dos acidentes. Estas abordagens afetam negativamente a prevenção uma vez que deixam intocados os determinantes desses eventos. Para compreender o acidente é necessário entender no que consiste o trabalho, sua variabilidade, como ele se organiza, quais as dificuldades para sua realização com sucesso pelos operadores, os mecanismos e o funcionamento das proteções, entre outros. Essa compreensão é impossível sem a cooperação e participação dos trabalhadores e equipe envolvida, o que implica em dificuldades adicionais quando se trata de ambientes autoritários de trabalho ou de acidentes fatais. Toda essa complexidade implica a necessidade de desenvolver competências e metodologias específicas tanto para a análise como para a intervenção de caráter preventivo (ALMEIDA, 2010). A condição insegura que determina a insalubridade, a penosidade e a periculosidade decorre do meio ambiente do trabalho que foi pensado, estruturado, ou por qualquer outra contingência, foi dessa forma organizado. O trabalhador comparece nesse ambiente porque é obrigado, por força do estatuto jurídico (privado ou público), a se sujeitar a tais condições. O trabalhador, fora o autônomo, não faz o que quer, mas aquilo que mandam fazer. Diga-se, de passagem, que essas situações produtivas são artificiais e definidas pelo modo de produção, bem assim entendidas fazem parte do pacto social de admissibilidade da exceção, segundo o qual alguns sofrerão o perigo, o insalubre e o penoso em prol do conforto, sustentação e sobrevivência da maioria que outorga, em última análise, tal sentença: adoecer, matar ou admoestar. Posta essa admissibilidade da exceção, tem-se que a equivocada doutrina trabalhista é uníssona em afirmar que existem dois tipos de situações que causam acidentes: a condição insegura (origem no meio ambiente do trabalho, natureza organizacional) e o ato inseguro (produzido pelo ser humano, natureza comportamental). Segundo essa doutrina, os atos e condições inseguras são fatores que, combinados ou não, desencadeiam os acidentes do trabalho. São, portanto, as causas diretas dos acidentes. Assim, pode-se entender que prevenir acidentes de trabalho, em síntese, é corrigir condições inseguras existentes nos locais de trabalho, não permitir que outras sejam criadas e evitar a pratica de atos inseguros por parte das pessoas. Tanto as condições como os atos inseguros têm origem mais remotas, em causas indiretas. Esses fatores indiretos, porém, podem ser atenuados ou eliminados, de modo a evitar que os últimos elos da cadeia – atos e condições inseguras – venham propiciar a ocorrência de acidentes ou pelo menos que essas ocorrências se tornem cada vez mais raras16. 56 UNIDADE II │ RISCOS, SISTEMAS E CONFIABILIDADE Esse autor refuta peremptoriamente essa classificação. Sem dúvida imprópria, impertinente e ideologicamente enviesada. Nesse tópico, além de expor motivos para essa refutação, apresenta-se uma classificação substituta. (OLIVEIRA, 2011). Por definição, o ato praticado pelo empregado, em suas sãs faculdades mentais, é um ato subordinado ao empregador mediante sistema administrativo de poder, corroborado pela força coercitiva decorrente do contrato de trabalho, ou estatuto. Qualquer que seja a atitude do empregado, esta se insere nos domínios do empregador que o dirige. Assim na listagem exemplificativa, segundo essa corrente equivocada dos atos inseguros, se colocam atitudes como descritos na Figura 16. Figura 16. Condições Inseguras do Meio Ambiente do Trabalho e o Mito do Ato Inseguro. Fonte: próprio autor Ora, admitir que o trabalhador pratique ato inseguro é, pela via direta, assumir e configurar algum tipo de desvio por parte do patrão e seus prepostos. Todos os verbos levados a efeito pelo empregado na Figura 16, o são por alguma razão decorrente da vontade do empregador (e seus prepostos), inclusive por desídia, falta de vigilância, negligência, ausência de gerenciamento, descuido com a coisa privada, descaso com o lucro, periclitação com o patrimônio do patrão. Admitir o ato inseguro do empregado é dizer que o patrão não manda nele. Um absurdo jurídico trabalhista. Seria equivalente a um furto no ambiente do trabalho no qual o trabalhador subtrai vários itens do estoque e a empresa não o adverte ou pune. Apenas classifica essa ocorrência de furto como ato inseguro do seu empregado! (OLIVEIRA, 2011) 57 RISCOS, SISTEMAS E CONFIABILIDADE │ UNIDADE II Sim, a comparação com furto de produto da empresa não é à toa. Existe conexão entre os argumentos. O empregado que comete ato inseguro, segundo a doutrina de culpabilização do empregado – aquela mesma da epiização – furta a si ele sob a autorização do empregador. No bojo do argumento do absurdo, é inadmissível cogitar a existência do ato inseguro exatamente pela aberração da inversão dos polos segundo o qual o empregado é quem manda, define, estabelece, orienta o empregador. Este último é mero expectador, apesar de ser o proprietário e responsável último por tudo que acontece em seus domínios. Sem dúvida esse raciocínio, infelizmente dominante, só se sustenta pela perspectiva ideológica. Eis o viés. Eis o mito. Nessa conformação só há um único ato inseguro: aquele praticado (ação ou omissão) pelo empregador. O meio ambiente do trabalho pertence – é definido, explorado, negociado – ao proprietário cujas condições de operações são sempre de sua responsabilidade. Para isso que existe a organização, para assegurar recursos, meios, metas, objetivos aos desígnios e vontades dos proprietários do negócio.
Compartilhar