Baixe o app para aproveitar ainda mais
Prévia do material em texto
CÉSAR AUGUSTO COSTA Probabilidade e Estatística Aplicada à Engenharia 1ª edição Universidade Braz Cubas - UBC Mogi das Cruzes 2015 Reitor: Prof. Maurício Chermann DIRETORIA DE UNIDADES EDUCACIONAIS Coordenação Geral Acadêmica - EaD: Prof.ª Dra. Mara Yáskara Paiva Cardoso Assessoria Administrativa: Adriane Aparecida Carvalho Coordenação de Produção: Diego de Castro Alvim Revisão de Textos: Adrielly Rodrigues, Taciana da Paz Edição de Arte: Michelle Carrete Diagramação: Amanda Holanda, Vanessa Lopes Ilustração: Noel Oliveira Gonçalves, Everton Arcanjo Impressão: Grupo VLS / Jet Cópias / MogiPress Banco de Imagens: Fotolia Av. Francisco Rodrigues Filho, 1233 - Mogilar CEP 08773-380 - Mogi das Cruzes - SP 1ª edição 2015 O autor dos textos presentes neste material didático assume total responsabilidade sobre os conteúdos e originalidade. Proibida a reprodução total e/ou parcial. © Copyright UBC 2015 César Augusto Costa1* * César Augusto Costa possui graduação em Matemática pela Universidade do Planalto Catarinense (1999), mes- trado (2002) e doutorado em Astrofísica pelo Instituto Nacional de Pesquisas Espaciais (2005). Tem experiência nas áreas de Física e Matemática, com ênfase em Modelagem Matemática, Análise e Aquisição de Dados e Estatística Aplicada. Realizou Pós-Doutoramento no LIGO (Laser Interferometric Gravitational Observatory) e na LSU (Loui- siana State University) em Baton Rouge, LA, EUA, trabalhando na caracterização instrumental e análise de dados. 5 Su m ár io SUMÁRIO APRESENTAÇÃO 9 INTRODUÇÃO 11 UNIDADE 1 1FREQUÊNCIA E PROBABILIDADE 13 1.1 INTRODUÇÃO À ESTATÍSTICA APLICADA À ENGENHARIA 14 1.1.1 CONCEITOS BÁSICOS 16 1.1.2 MAU USO DA ESTATÍSTICA 19 1.2 FREQUÊNCIA E PROBABILIDADE 20 1.2.1 MEDIDAS DE POSIÇÃO 21 1.2.1.1 MÉDIA 21 1.2.1.2 MEDIANA 22 1.2.1.3 MODA 23 1.2.2 MEDIDAS DE VARIABILIDADE 23 1.2.2.1 AMPLITUDE 23 1.2.2.2 VARIÂNCIA 24 1.2.2.3 DESVIO PADRÃO 24 1.2.3 ESPAÇO AMOSTRAL E EVENTOS 25 1.2.4 FREQUÊNCIA E PROBABILIDADE 26 1.2.5 PROPRIEDADES DA PROBABILIDADE 27 1.3 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA 30 1.3.1 PROBABILIDADE CONDICIONAL 30 1.3.2 INDEPENDÊNCIA 33 1.3.3 LEI DA PROBABILIDADE TOTAL 34 1.3.4 TEOREMA DE BAYES 35 6 Sum ário 1.4 VARIÁVEIS ALEATÓRIAS 37 1.4.1 DISTRIBUIÇÃO DE PROBABILIDADE 38 1.4.2 DISTRIBUIÇÃO DE PROBABILIDADE CUMULATIVA 40 1.5 CONSIDERAÇÕES DA UNIDADE I 42 UNIDADE 2 2DISTRIBUIÇÃO DE PROBABILIDADE 47 2.1 DISTRIBUIÇÕES DE PROBABILIDADE DISCRETAS 48 2.1.1 VALOR ESPERADO 48 2.1.2 DISTRIBUIÇÃO BINOMIAL 51 2.1.3 DISTRIBUIÇÃO HIPERGEOMÉTRICA 56 2.1.4 DISTRIBUIÇÃO BINOMIAL NEGATIVA 60 2.1.5 DISTRIBUIÇÃO DE POISSON 62 2.2 DISTRIBUIÇÕES CONTÍNUAS DE PROBABILIDADE 65 2.2.1 DISTRIBUIÇÃO UNIFORME 67 2.2.2 DISTRIBUIÇÃO NORMAL 69 2.2.3 DISTRIBUIÇÃO EXPONENCIAL 72 2.2.4 DISTRIBUIÇÃO GAMMA 75 2.2.5 DISTRIBUIÇÃO DE WEIBULL 76 2.3 DISTRIBUIÇÕES DE PROBABILIDADES CONJUNTAS 79 2.4 CONSIDERAÇÕES DA UNIDADE II 84 UNIDADE 3 3INFERÊNCIA ESTATÍSTICA E APLICAÇÕES DE PROBABILIDADES 87 3.1 INFERÊNCIA ESTATÍSTICA 88 3.1.1 CONSTRUINDO HISTOGRAMAS DOS DADOS 91 3.1.2 ESTIMATIVA DE PARÂMETROS 92 7 Su m ár io 3.1.2.1 ESTIMADORES SEM VIÉS 93 3.1.2.2 MÉTODO DOS MOMENTOS 94 3.1.2.3 MÉTODO DA MÁXIMA VEROSSIMILHANÇA 96 3.1.3 INTERVALOS DE CONFIANÇA 98 3.1.4 INTERVALO DE PREDIÇÃO E TOLERÂNCIA 104 3.2 TESTES DE HIPÓTESES 106 3.2.1 USO DO VALOR-P 109 3.2.2 RAZÃO DE VEROSSIMILHANÇA 112 3.2.3 CRITÉRIOS DE ESCOLHA 115 3.3 CONSIDERAÇÕES DA UNIDADE III 117 UNIDADE 4 4ANÁLISE DE VARIÂNCIA E REGRESSÃO LINEAR 121 4.1 ANÁLISE DE VARIÂNCIA (ANOVA) 122 4.1.1 TABELA ANOVA 126 4.2 REGRESSÃO LINEAR 134 4.2.1 REGRESSÃO LINEAR SIMPLES 134 4.2.2 AVALIAÇÃO DA REGRESSÃO LINEAR 139 4.2.3 AVALIAÇÃO DOS COEFICIENTES ANGULAR E LINEAR 141 4.2.4 REGRESSÃO LINEAR MÚLTIPLA 144 4.3 CONSIDERAÇÕES DA UNIDADE IV 148 REFERÊNCIAS 153 9 A pr es en ta çã o APRESENTAÇÃO Prezado aluno, A Estatística está se tornando uma ferramenta indispensável na análise de muitas tarefas contemporâneas em engenharia. A Estatística trabalha com a coleta, processamento, conden- sação, análise e interpretação de dados. Por sua vez, a Engenharia trabalha com a solução de problemas de produção, uso efetivo de ma- teriais e mão de obra, desenvolvimento de novos produtos, melhora na qualidade e confiabilidade de produtos e em pesquisa básica. A partir da década de 1980, um grande esforço foi aplicado para se elevar a qualidade da indústria americana. Mas, já nos meados do século XX, muito se ouvia falar do milagre industrial japonês. Muito do sucesso japonês no desenvolvimento de técnicas e procedimentos industriais, veio da aplicação de métodos estatísticos e da implantação de um pensamento estatístico junto aos responsáveis pela gestão, pla- nejamento e supervisão nas indústrias japonesas. Poucas áreas sentiram tanto o impacto do crescimento da esta- tística moderna quanto a engenharia e a gestão industrial. Na realidade é difícil estimar a contribuição que a aplicação da estatística tem na resolução de problemas de produção, uso efetivo de matéria-prima e trabalho, e no desenvolvimento de novos produtos. As respostas obtidas pela abordagem estatísticas pode fornecer base para a tomada de uma decisão e escolha de uma ação, que, em geral, levam a otimização do trabalho do engenheiro. Neste livro didático iremos introduzir conceitos e aplicações da Estatística que serão úteis no desenvolvimento das atividades cotidianas 10 A presentação de um engenheiro. Com os exemplos da aplicação desses conceitos, conduziremos você a refletir como estender tais exemplos e aplicá-los à solução de outros problemas similares. Que tal começarmos? Bons estudos! 11 In tr od uç ão INTRODUÇÃO Neste livro didático, vamos abordar a estatística de forma a auxiliar na solução de problemas cotidianos de um engenheiro. Eventualmente, iremos utilizar também outras áreas do conhecimento, a fim de fornecer uma visão mais geral das aplicações da Estatística. Não é nossa intenção aqui demonstrar teoremas e ser muito rigoroso com os conceitos ligados à Estatística e Probabilidade, mas sim, fornecer a você um ponto de início para a utilização da estatística como uma ferramenta fundamental no desempenho das atividades de engenharia. Na Unidade I, veremos alguns conceitos básicos relacionados à Estatística e Probabilidade. Iniciaremos com uma visão geral do método estatístico e partiremos para as noções de frequência e probabilidade, que dão nome à unidade. No decorrer da Unidade 2, descreveremos as principais funções de densidade de probabilidade e como aplicá-las em problemas cotidia- nos da engenharia. Na Unidade 3 apresentaremos a metodologia de inferência esta- tística. Apreenderemos como utilizar a probabilidade para inferir e che- gar a conclusões sobre determinadas características de uma população, o que auxiliará na tomada de decisões e a solução de problemas de engenharia. Por fim, na Unidade 4, veremos como relacionar conjuntos dis- tintos de dados através da regressão linear e do estudo de correlações. Boa leitura! un id ad e 1 13 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de OBJETIVOS DA UNIDADE • Elencar conceitos básicos de Estatística e Probabilidade; • Fornecer uma visão geral de Estatística Descritiva; • Introduzir a noção de distribuição de probabilidades para variáveis aleatórias. HABILIDADES E COMPETÊNCIAS • Compreensão dos fundamentos da Estatística e Probabilidade; • Determinação de parâmetros de localização e variabilidade de eventos; • Cálculo de frequência de ocorrência de eventos; • Relação entre frequência e probabilidade; • Entendimento da Distribuição de Probabilidade. 1Frequência e Probabilidade 14 U nid. 1 - Frequência e Probabilidade 1.1 INTRODUÇÃO À ESTATÍSTICA APLICADA À ENGENHARIA A necessidade da estatística vem da variabilidade dos resultadosobservados em fenômenos ou objetos em estudo pela engenharia. Ela ajuda a entender os fenômenos sujeitos a variabilidade e como efetiva- mente predizer e controlar tal variabilidade. As leis de probabilidade interferem em todos os fenômenos naturais, sociais, econômicos e pessoais, sendo algumas vezes superior às componentes determinísticas. Por componentes determinísticas, você pode entender as leis físicas que regem um processo. Por exemplo, no jogar de moedas ou dados, a Física que domina o fenômeno é bem conhecida, como torque, gravidade, forças de atrito, momento de inér- cia, etc. Mas, o fenômeno em si é tão suscetível a pequenas variações dos parâmetros físicos que o regem, como a força aplicada pelos dedos do jogador, o atrito entre o objeto e as rugas da pele, imperfeições da simetria do objeto (moeda ou dado), condições iniciais do lançamento, rugosidade da superfície onde a moeda ou dado aterrissa, etc., que se torna impossível prever o resultado. No entanto, o conhecimento das leis de probabilidade pode nos fornecer indícios sobre as chances de cada um determinado resultado acontecer. Não existe estatística com uma única observação. Então, para se realizar um estudo estatístico precisamos coletar dados ou infor- mações sobre o fenômeno em estudo. Não existe algo como “dados suficientes”, que é uma frase comum entre os estatísticos. O impor- tante é saber utilizar bem os dados disponíveis. Toda a informação ajuda o estudo estatístico. Assim, um estudo estatístico deve basear-se em quatro passos básicos, que são: 15 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de (1) Definir claramente os objetivos da investigação; (2) Planejar quais dados serão coletados e como coletá-los; (3) Aplicar o método estatístico apropriado para extrair as infor- mações dos dados; (4) Interpretar os resultados e traçar conclusões. O uso da estatística como uma ferramenta para solucionar os problemas de engenharia pode ser mais bem entendido se pensarmos em exemplos práticos. Imagine que as autoridades de saneamento de uma determinada cidade desejam saber se os níveis de um determinado metal pesado (por exemplo, chumbo) no suprimento de água estão dentro dos limites reco- mendados pela Organização Mundial de Saúde. Como nem toda a água da cidade pode ser checada, a tomada de decisão sobre o tratamento, ou mesmo interrupção do fornecimento, pode ser baseada em uma análise parcial de certas quantidades de água retidas de certos locais. Considere agora uma situação em que um engenheiro tem que determinar se certa liga metálica será capaz de suportar os geradores de uma usina de energia. Estudando vários pedaços diferentes de diferen- tes materiais, ele obtém valores que poderão indicar qual liga e mesmo qual fornecedor é capaz de suprir as especificações do seu projeto, no que diz respeito às possibilidades de falha, por exemplo. Para saber como fazer e responder às perguntas, encontrar a resposta correta e interpretar corretamente essas respostas, é preciso que conheçamos certos conceitos básicos. 16 U nid. 1 - Frequência e Probabilidade 1.1.1 CONCEITOS BÁSICOS É fácil observar pelas situações descritas que certas etapas devem ser cumpridas para se obter respostas que servirão de solução ao pro- blema proposto. O trabalho de se traçar um estudo estatístico baseia-se em quatro passos. Podemos aplicar esses passos a um estudo estatístico seguindo o roteiro representado na Figura 1.1. Figura 1.1 Passo para a realização de um estudo estatístico. Fonte: Elaborada pelo autor. O método estatístico tenta descrever a característica de uma população por meio da coleta de dados. Por dado você pode entender como sendo a informação sobre a característica de interesse, pode ser uma medida (ou quantidade) ou uma qualidade que provém da popula- ção. À tomada de dados chamaremos de experimento. População é, então, o conjunto de todas as possibilidades, su- jeitos ou objetos com certa característica de interesse, a qual apresenta variabilidade intrínseca. Para se determinar a propriedade global de uma característica de uma população é preciso avaliá-la em todos os membros da população. Censo é a coleção de todos os dados característicos de todos os membros de uma determinada população. Nem sempre é possível cole- tar todos os dados de uma dada população. Muitas vezes, a população é hipotética ou conceitual, como quando vamos analisar as propriedades de resistência de uma peça que ainda será produzida. 17 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de Como mencionamos anteriormente, nem sempre é possível co- letar dados de toda a população, e essa situação é a mais comum. Na verdade, não é necessário coletar a informação sobre a característica de interesse para descrever uma população, basta uma amostra da mesma. Amostra é um subconjunto (parcela com tamanho n de uma população de tamanho N) da população selecionada para ser representativa, ou seja, que apresente, pelo menos aproximadamente, as mesmas caracte- rísticas globais da população. Com os dados obtidos por meio da amostragem da população podemos descrever características da amostra, usando a Estatística Descritiva. Com ela podemos estimar parâmetros que caracterizem a amostra, como média, dispersão, etc. Juntamente com a utilização de gráficos podemos descrever as características dos dados da amostra e traçar um modelo de probabilidade. E finalmente, por meio desse mo- delo de probabilidade, podemos fazer inferências estatísticas sobre a população e esboçar conclusões sobre suas características globais. Os dados coletados sobre a característica de interesse serão armaze- nados em uma entidade matemática para que possamos analisá-los global- mente, chamaremos essa entidade de variável. Variável é um atributo ou medida numérica que descreve certa característica de interesse. A variável representa o resultado do experimento. Por exemplo, se o experimento é medir o diâmetro de um vergalhão que será utilizado na armação de uma viga de concreto, nossa variável representará os valores medidos. Normalmente, representamos esta variável por uma letra, i.e. x. Os dados são então armazenados na variável e ordenados segundo a amostragem, ou seja, cada amostra será representada por uma letra e um número, i.e x1, que representa a primeira amostra; x2, que representa a segunda amostra e assim por diante. De forma geral, podemos repre- sentar o conjunto ou série de amostras como: x = {x1, x2, x3, …, xn} (1.1) 18 U nid. 1 - Frequência e Probabilidade A Figura 1.2 mostra que as variáveis podem ser classificadas se- gundo suas propriedades. As variáveis que transportam informação não numérica são chamadas qualitativas. Podemos citar como exemplos de variáveis qualitativas: cor do cabelo ou olhos, raça, religião, sexo, etc. Figura 1.2 Propriedades das variáveis. Fonte: Elaborada pelo autor. Características às quais possam ser atribuídos valores numéricos serão chamadas variáveis quantitativas. Estas por sua vez podem ser classificadas como discretas, se o valor numérico atribuído for constituí- do de números inteiros; ou contínuas, se o valor numérico atribuído for constituído de números reais. Como exemplo de variáveis discretas, podemos citar: a soma do resultado de dois dados (jogo), o número de pessoas em uma sala, número de peças que correspondem a uma especificação, etc. Já as variáveis contínuas podem assumir qualquer valor real, ou qualquer valor em um intervalo real, por exemplo: a altura de jovens de 18 anos, o diâmetro de um furo em uma peça, o tempo de funcionamento de uma linha de produção, etc. Quando analisamos a relação entre mais de uma variável, essas variáveis poderão apresentar algum tipo de relação, por exemplo, linear (x = ay + b). Quando tal relação é observada dizemos que as variáveis são dependentes. Ou, as variáveis podemser completamente despro- vidas de qualquer tipo de relação, neste caso, diremos que elas são independentes. Esses são conceitos importantes para as aplicações em engenharia e olharemos com mais detalhes à frente. 19 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de Mas, conhecer bem tais conceitos, não garante a boa aplicação e interpretação de resultados estatísticos. 1.1.2 MAU USO DA ESTATÍSTICA Muitas vezes, a falta de conhecimento faz com que os resultados obtidos de um estudo estatístico sejam mal interpretados, ou mesmo, mal utilizados. É muito comum vermos a manipulação e o uso indevido de resultados estatísticos na TV, como em comerciais, jornais e campa- nhas políticas. Entre os exemplos mais comuns de mau uso podemos citar: • Pequenas amostras; • Descarte de dados desfavoráveis; • Amostragem com viés; • Supergeneralização; • Perguntas tendenciosas; • Uso errado de estimativas de erro; • Causalidade falsa; • Significância estatística mal interpretada; • Manipulação de dados. 20 U nid. 1 - Frequência e Probabilidade DICA DE LEITURA Há uma infinidade de artigos e livros disponíveis na internet mencionando como a estatística é manipulada em campanhas políticas, comerciais de TV, apresentação de relatórios, etc. Vale a pena pesquisar! Uma boa leitura sobre o assunto é: HUFF, Darrel. Como mentir com estatísticas. Rio de Janeiro: Editoras Financeiras S.A., 1968. 1.2 FREQUÊNCIA E PROBABILIDADE Muito do estudo da estatística se baseia na teoria de conjuntos. É fácil imaginar que quando estamos analisando uma característica po- demos classificá-la e arranjá-la em conjuntos. Assim, um conjunto será uma coleção de objetos únicos com características similares. Os objetos podem ser coisas concretas (alunos em uma sala de aula, peças em uma esteira) ou abstratas (cores, números). Podemos definir conjuntos na forma A= {3, 5, 8, 31} ou B= {maçã, laranjas, peras}. A ordem com que os elementos aparecem dentro do conjunto não importa, ou seja, {8, 3, 31, 5} = {3, 5, 8, 31}. Quando um dado elemento x encontra-se em um conjunto A, dizemos que x pertence a A, ou x ∈ A. Caso contrário, dizemos que x não pertence a A, ou x ∉ A. Um conjunto com nenhum elemento é chamado vazio, ou representado como ∅ ={}. Nossos conjuntos podem representar uma infinidade de coisas, como características propriamente ditas ou mesmo intervalos de valores numéricos. Da mesma forma, os valores dos elementos de um determi- nado conjunto podem estar localizados ou posicionados em torno de um determinado valor do intervalo, e ainda estarem “espalhados” em torno desse valor. 21 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de 1.2.1 MEDIDAS DE POSIÇÃO Este valor, em torno do qual os demais valores de um conjunto estão em torno, pode caracterizar uma população ou amostra. Todos os estudantes estão acostumados com pelo menos uma dessas medidas de posição. 1.2.1.1 MÉDIA O professor avalia seus alunos com vários testes e trabalhos, no final do semestre as notas referentes a cada um deles é somada e dividida pelo número de avaliações, a média das notas. Ao fazer isto, o professor está caracterizando uma amostra (notas do aluno) para sumarizar seu desempenho. A média é um parâmetro que descreve uma população ou amos- tra quanto a sua localização. E é definida como: População Amostra Observe que os valores da média da população μ e a média da amostra , podem ter valores diferentes, o que é normalmente o caso. Da mesma forma que duas amostras diferentes de uma mesma população poderão ter valores diferentes para a média. Mas, ambas aproximam-se quando o tamanho da amostra é grande ou comparável à população. A média é um bom caracterizador de uma população, contudo ela é bastante suscetível a valores extremos dentro do conjunto de dados. Em outras palavras, se a amostra contiver um valor muito alto, ou muito 22 U nid. 1 - Frequência e Probabilidade pequeno, o cálculo da média é bastante afetado. Assim, como quando o aluno obtém uma nota muito alta, ou muito baixa, com relação às demais, isto tem bastante efeito sobre a média de forma geral. Exemplos: - A média da amostra {1, 2, 3, 2, 2} é . - A média da amostra {1, 2, 3, 2, 10} é . 1.2.1.2 MEDIANA A mediana é um parâmetro descritivo populacional ou amostral menos suscetível a valores extremos. Para obter o valor da mediana, ordenamos os elementos de um conjunto. A mediana é o valor do meio do conjunto, se o número de elementos for ímpar, e é o valor médio entre os dois elementos do meio se o número de elementos for par. Exemplos: - A mediana da amostra {1, 2, 3, 2, 2} é 2, pois ordenando a amostra temos {1, 2, 2, 2, 3}. E dois encontra-se no meio do conjunto. - A mediana da amostra {1, 2, 3, 2, 10} é ainda 2, pois ordenando a amostra temos {1, 2, 2, 2, 10}. E dois encontra-se no meio do conjunto. 23 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de 1.2.1.3 MODA Outra medida de posição bastante útil na estatística descritiva é a moda. A moda é o valor que mais aparece dentro de um conjunto de dados. Exemplo: - A moda da amostra {1, 2, 3, 2, 2} é 2, pois ela aparece 3 vezes na amostra. 1.2.2 MEDIDAS DE VARIABILIDADE Uma vez determinados o ponto em torno do qual os elementos de um conjunto amostral se encontram, é necessário quantificar o “es- palhamento” ou dispersão desses elementos em torno de tal ponto. Isso nos dará uma medida de variabilidade do conjunto. 1.2.2.1 AMPLITUDE A amplitude é dada pela diferença entre o maior e o menor valor dos elementos de um conjunto. É a medida mais simples de variabilidade e dá ideia da extensão. Exemplo: - A amplitude da amostra {1, 2, 3, 2, 2} é 2, pois é a diferença entre o maior e o menor valor, 3 - 1 = 2. 24 U nid. 1 - Frequência e Probabilidade 1.2.2.2 VARIÂNCIA Outra medida de dispersão envolve medir os desvios com relação à média. A variância é uma medida quadrática desses desvios. Assim, conhecida a média populacional ou a média amostral definimos a va- riância como: População Amostra Observe o denominador n - 1, no caso da variância amos- tral. Apesar de existirem n elementos na amostra, existirão apenas n - 1 graus de liberdade. O cálculo de s2 baseia-se em n quantidades , cuja soma é sempre zero. Isto quer dizer que n - 1 quantidades determinam a quantidade restante. Exemplo: - A variância da amostra {1, 2, 3, 2, 2}, uma vez conhecida sua média, é . 1.2.2.3 DESVIO PADRÃO A variância é uma quantidade quadrática e, portanto, para manter a unidade de medida original da quantidade amostrada é comum repre- sentar sua variabilidade pela raiz quadrada da variância, tal quantidade é conhecida como desvio padrão. 25 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de População Amostra O desvio padrão fornece uma ideia sobre o raio em torno da média em que se encontra a maior parte dos valores. Exemplo: - Sendo variância da amostra {1, 2, 3, 2, 2}, , o desvio padrão da amostra será . É comum descrever uma população ou amostra por uma medida de localização seguida de uma medida de variabilidade. Por exemplo, podemos descrever a amostra {1, 2, 3, 2, 2} por +s, ou seja, . Tais medidas de posição e variabilidade descrevem parâmetros que caracterizam uma população ou amostra, e auxiliam na construção de um modelo de probabilidade para as mesmas, tornando indispensá- veis para a inferência estatística. 1.2.3 ESPAÇO AMOSTRAL E EVENTOS Um espaço amostral representa o conjunto de todos os valores possíveis em um dado experimento. Denotaremos o espaço amostral por Ω. Assim, se o experimento é lançar uma moeda, definiremos o espaço amostral Ω = {H, T}, sendo H=CARA e T=COROA, das palavras do inglês head e tail. Já se lançarmos um dado, o espaço amostral será Ω = {1, 2, 3, 4, 5, 6}. Um espaço amostral pode também representar um intervalo de valores possíveis e ter infinitosvalores, por exemplo, Ω = {x ∈ R , 0 ≤ x ≤ 1}, ou seja x pertencente aos reais tal que x está entre 0 e 1, inclusive. 26 U nid. 1 - Frequência e Probabilidade Chamaremos de evento X um subconjunto do espaço amostral Ω de um experimento. Em outras palavras, é um ou mais elementos do espaço amostral sobre o qual se deposita o interesse de nosso estudo estatístico. Por exemplo, ao rolarmos dois dados, os resultados possíveis para a soma dos resultados representam o espaço amostral Ω = {2, 3, 4, …, 10, 11, 12}. Podemos estar interessados num único elemento deste espaço amostral, por exemplo, quando a soma dá 2 (ambos os dados mostram 1). Neste caso, o evento será representado por X = 2. 1.2.4 FREQUÊNCIA E PROBABILIDADE Observe que existe uma única possibilidade para que a soma dos dados seja 2, que ambos apresentem a face com o número 1. No entanto, existem várias possibilidades de se obter a soma igual a 4, as faces dos dados podem apresentar os números, 1-3, 2-2 e 3-1. Assim, o número de ocorrências (frequência absoluta) de um dado evento dentro de um espaço amostral pode variar. Chamaremos de frequência relativa o número de vezes (nx) que um evento (X) dentro de um espaço amostral ocorre dividido pelo número de vezes que o experimento é repetido (N), ou seja, (1.2) Suponha que nossa amostra seja composta por 200 observações da variável x, que representa o número de disciplinas em que o aluno da universidade está matriculado em um semestre. Se 70 desses valores de x é igual a 3, então a frequência absoluta de x é 70, e a frequência relativa é . 27 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de Quando o número de repetições é grande, a frequência relativa fornece uma medida satisfatória da probabilidade de ocorrência de um evento específico, P(X). Isso é conhecido como Lei dos Grandes Números da Teoria da Probabilidade. É fácil perceber, pelo exemplo do lançamento dos dados, que a frequência e a probabilidade diferem para pequenos números de repetições do experimento. Podemos lançar os dados algumas dezenas de vezes e não termos nenhuma ocorrência de ambos os dados mostrarem 1, F (X = 2) = 0. No entanto, é fácil mostrar que a probabilidade de se obter a soma igual a 2 com o lançamento de dois dados é de 1/36, ou seja, P (X = 2) = 1/36. O conceito de probabilidade é abstrato e ocorre no limite quando o número de repetições do experimento tende ao infinito. Em termos matemáticos, (1.3) A Equação 1.3 nos indica que se o número de repetições de um experimento for grande, a frequência de um dado evento fornecerá informações sobre sua probabilidade de ocorrência. As probabilidades têm valores relacionados a resultados elemen- tares dentro do espaço amostral. A probabilidade de um evento pode ser encontrada pela adição dos resultados simples que foram o evento. Por exemplo, a probabilidade de se obter um número par em uma rolagem de um dado é 3/6 (1/6+1/6+1/6), que é a soma das probabilidades de se obter um 2, um 4 ou um 6. 1.2.5 PROPRIEDADES DA PROBABILIDADE Os seguintes axiomas se aplicam aos números que chamamos probabilidade: 28 U nid. 1 - Frequência e Probabilidade 1. P(A) ≥ 0. 2. P(Ω) = 1. 3. Se A1, A2, A3,… é uma coleção infinita de eventos disjuntos, então P(A1 A2 A3 …) = ∑ P(Ai). Antes de falarmos das propriedades vamos relembrar algumas propriedades das operações de conjuntos, utilizando diagramas de Venn. A Figura 1.3 mostra algumas operações básicas entre conjuntos A e B, que podem ser considerados como eventos, em um espaço amostral Ω. Figura 1.3 Operações básicas entre conjuntos. (a) A ΩB (b) A ΩB (c) A’ Ω A (d) A ΩB Fonte: Elaborada pelo autor. A Figura 1.3a representa a união (A B), que pode ser entendida como A “ou” B ocorreram. A Figura 1.3b mostra a intersecção (A∩B), que pode ser entendida como A “e” B ocorreram. A Figura 1.3c mostra o complementar de A, AC, também chamado de não A. E a Figura 1.3d mostra eventos disjuntos (ou mutuamente exclusivos), ou seja, A∩B=Ø. Isso pode ser entendido como “ou” A “ou” B ocorreram, ou seja, apenas um dos dois ocorreu, não os dois simultaneamente. As propriedades 1 e 2 nos dizem que o valor da probabilidade de um evento A é um número entre 0 e 1. Da propriedade 2, podemos 29 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de deduzir que P(A) + P(Ac ) = 1, ou seja, a probabilidade do evento A adicionada à probabilidade dos eventos complementares de A é igual a 1. Isso leva à regra do complementar para probabilidades P(A) = 1-P (Ac) (1.4) Para dois eventos A e B dentro de um espaço amostral Ω, temos que: P(A B) = P(A) + P(B) - P(A∩B) (1.5) Esta Equação (1.4) é conhecida como regra da adição. Observe que pela Equação 1.4, se dois eventos são mutuamente exclusivos, ou que não ocorrem simultaneamente, P(A∩B) = 0, logo P(A B) = P(A) + P(B), o que recai sobre o axioma 3. Isso previne que even- tos que não sejam mutuamente exclusivos sejam contados duplamente. Veja o exemplo: Em um bairro, 60% dos residentes utilizam o serviço de internet de uma dada operadora, 80% dos residentes utilizam o serviço de TV a cabo dessa mesma operadora, e 50% utilizam ambos os serviços da operadora. Se escolher um morador daquele bairro a esmo, qual a pro- babilidade de que ele utilize pelo menos um dos dois serviços? Resposta: Sendo P(A) = 0,6 {tem serviço de internet}, P(B) = 0,8 {tem serviço de TV} e P(A∩B) = 0,5 {tem ambos os serviços}, a probabilidade do mo- rador ter pelo menos um dos serviços será: P(A B) = P(A) + P(B) - P(A∩B) P(A B)= 0,6 + 0,8 - 0,5 = 0,9 30 U nid. 1 - Frequência e Probabilidade Ou seja, se você falar com um morador daquele bairro há 90% de chances que ele possua pelo menos um dos dois serviços. Se dois eventos distintos têm a mesma probabilidade de ocor- rência dentro de um espaço amostral, ou seja, P(A) = P(B), dizemos que eles são igualmente prováveis. Por exemplo, a probabilidade de ter cara ou coroa é igualmente provável no lançamento de uma moeda não viciada, P(H) = P(T) = 1/2. 1.3 PROBABILIDADE CONDICIONAL E INDEPENDÊNCIA Em geral, quando um evento tem uma probabilidade não nula de ocorrer dentro de um espaço amostral, tal probabilidade é dependente das condições com que o experimento foi conduzido. Qualquer infor- mação adicional sobre o experimento pode fazer com que venhamos a reconsiderar a probabilidade de ocorrência de um evento. 1.3.1 PROBABILIDADE CONDICIONAL É interessante avaliar como a ocorrência de um evento B pode afetar a probabilidade de ocorrência de outro evento A. A probabilidade condicional de um evento B é a probabilidade de que o evento irá ocorrer dado o conhecimento de que o evento A já ocorreu. Denotamos tal probabilidade com P(B|A), e lê-se probabilidade de B dado A, e é dada pela regra da multiplicação P(A∩B)=P(A)P(B│A) (1.6a) 31 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de ou (1.6b) Veja o exemplo: Um professor realizou dois testes em sua disciplina. Vinte e cinco por cento dos alunos passaram em ambos os testes e 42% passaram no primeiro teste. Qual a porcentagem dos alunos que passaram no primeiro teste e também passaram no segundo teste? Resposta: Considere os eventos PRIMEIRO= {passou no primeiro teste} e SEGUNDO= {passou no segundo teste}. Temos que: Portanto, 60% dos alunos que passaram no segundo teste, pas- saram também no primeiro. Para calcular a probabilidade de intersecção de mais de dois eventos, a probabilidade condicional de todos os eventos precedentes deve ser considerada. No caso de três eventos, A,B e C, a probabilidade de intersecção é: P(A∩B∩ C) = P(A)P(B|A)P(C|A∩B) (1.7) Essa equação é conhecida como regra dacadeia para as proba- bilidades. Veja o exemplo: 32 U nid. 1 - Frequência e Probabilidade Considere um candidato à universidade que têm 0.8 de probabi- lidade de ser aceito, porém apenas 60% dos estudantes aprovados irão ter vagas no dormitório universitário. Oitenta por cento dos estudantes no dormitório dividem o quarto com pelo menos outro estudante. A probabilidade de o candidato ser aprovado, conseguir uma vaga no dormitório e ficar sozinho no quarto é calculada por: P(Aprovado∩Dormitório∩Sozinho)= = P(Aprovado)P(Dormitório│Aprovado)P(Sozinho│Dormitório∩ Aprovado) = (0.80)*(0.60)*(0.20) = 0.096. Ou seja, o candidato tem 9,6% de chances de ficar sozinho em um quarto do dormitório universitário, caso seja aprovado. Devemos então identificar se o evento B é dependente da ocor- rência do evento A. No problema da probabilidade condicional se a ocorrência do evento A reduz o espaço amostral de B, dizemos que B é dependente de A, como mostra a Figura 1.4. Figura 1.4 Redução do espaço amostra de B dada a ocorrência de um evento A. B ΩA A ∩ B Fonte: Elaborada pelo autor. Veja o exemplo: Retirando duas cartas de um baralho (52 cartas) para determinar a probabilidade de a primeira carta ser um ás (A) e da segunda carta ser 33 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de um rei (K), precisamos considerar duas situações: com ou sem reposição da primeira carta. Tabela 1.1 Probabilidades de se retirar um A e um K de um baralho em sequência, com e sem reposição da primeira carta. Carta Com reposição Sem reposição 1ª P(A) = 4/52 P(K) = 4/52 P(A) = 4/52 P(K) = 4/52 2ª P(K|A)=4/52 P(K|A)=4/51 1ª e 2ª P(K∩A) = 4/52 * 4/52 = 0,0059 P(K∩A) = 4/52 * 4/51 = 0,006 Fonte: Elaborada pelo autor. Observe que a forma como experimento é conduzido tem impli- cações na probabilidade de ocorrência dos eventos. 1.3.2 INDEPENDÊNCIA No caso da reposição da primeira carta, a probabilidade de P(B∩A) = P(B) * P(A), então dizemos que os eventos são estatistica- mente independentes, ou simplesmente independentes. Outra forma de determinarmos se dois eventos são independen- tes é calcularmos a probabilidade condicional. Quando a probabilidade de P(B│A) = P(B), isto quer dizer que a ocorrência do evento A não têm nenhuma influência no evento B e, portanto, A e B são independentes, como no caso da reposição das cartas. Por simetria P(A│B) = P(A), uma vez que P(A∩B) = P(B∩A). Já se P(B│A) ≠ P(B), a ocorrência de A afeta a probabilidade de B e os eventos são dependentes, como no caso da não reposição das cartas. 34 U nid. 1 - Frequência e Probabilidade Se dois eventos são disjuntos (correspondendo a eventos mutua- mente exclusivos), P(B∩A) = P(Ø) = 0 e, portanto, P(B|A) = 0, apesar da probabilidade de A e de B serem não nulas. Isso parece um pouco contraintuitivo, mas na verdade está ligado ao próprio conceito de mu- tuamente exclusivo, se A ocorre, B não pode ocorrer e vice-versa. Note que os conceitos de independência e mútua exclusividade são distintos. 1.3.3 LEI DA PROBABILIDADE TOTAL Imagine agora que nosso espaço amostral permite-se “ser par- tido” em eventos disjuntos B1, B2, B3,…, Bk, como mostra a Figura 1.5. Figura 1.5. Partição do espaço amostral. Ω A B1 B2 B6 B3 B7 B8 B5B4 Fonte: Elaborada pelo autor. Que tal forma que A = (A∩B1) (A∩B2 ) … (A∩Bk). E, portanto, pela regra da adição temos que: P(A) = P(A∩B1) + P(A∩B2 ) + ... + P(A∩Bk) (1.8a) Recordando-se da regra da multiplicação, podemos dizer que: P(A) = P(A|B1)P(B1) + P(A|B2)P(B2) + ... + P(A|Bk) P(Bk) (1.8b) 35 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de A Equação 1.8b é conhecida como Lei da Probabilidade Total e relaciona a probabilidade de A com as probabilidades condicionais, dado a ocorrência de cada partição Bj do espaço amostral. Por exemplo, imagine um maço de cartas bem embaralhadas e que duas cartas são retiradas. Considere os eventos A1 = {Primeira carta é um ás} e, portanto, A = {Primeira carta não é um ás}. Qual é a probabilidade P(A2) de a segunda carta ser um ás? Considerando a situação temos: 1.3.4 TEOREMA DE BAYES Note que em geral P(A│B) ≠ P(B|A), e eles só serão iguais se P(A) = P(B). Ambas as quantidades se relacionam pelo chamado Teorema de Bayes. O teorema de Bayes (pronuncia-se “beis”, do reverendo inglês Thomas Bayes) não é mais que uma generalização dos conceitos de pro- babilidade condicional e a lei da probabilidade total. Ele é normalmente representado por: (1.9a) ou na forma mais geral, (1.9b) Agora, se usarmos a Lei da Probabilidade Total no denominador chegamos a 36 U nid. 1 - Frequência e Probabilidade (1.10) Observe que P(Bj) representa a priori a melhor estimativa da probabilidade que estamos procurando P(Bj|A), por isso ela é chamada probabilidade a priori. Logo, P(Bj|A) é chamada de probabilidade posterior. Dessa forma, o teorema de Bayes nos ajuda a entender como uma probabilidade é afetada pela presença de uma nova evidência ou informação. Veja o exemplo: Considere um sistema que testa se componentes de um compu- tador estão funcionando ou estão defeituosos, baseado na temperatura em que eles rodam quando estão funcionando. Suponha, por exemplo, que 99,5% dos componentes falham quando estão acima de 50º C. Agora, se você pegar um componente a esmo e testá-lo, e se a tempe- ratura for 53º C, quão provável é que este componente esteja falhando? O que queremos saber é a probabilidade de um componente fa- lhar, dado que está rodando muito quente, ou seja, P(FALHA|QUENTE). Mas, o que sabemos é a probabilidade do componente estar quente, dado que ele falhou, ou seja, P(QUENTE|FALHA). As duas probabilida- des relacionam-se pelo teorema de Bayes, assim teremos: Suponha que a priori que 1% dos componentes falha rodando quente ou frio, P(FALHA) = 0,01, e que 5% dos componentes rodam quente, falhando ou não, P(QUENTE) = 0,05. Isto nos dá: Então de fato, sob tais circunstâncias, se um componente é testa- do com base em sua temperatura, a probabilidade de ele estar falhando 37 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de é de somente 20% e não 99,5%, como seria de se imaginar. Isso pode ter profundas consequências se você estiver utilizando este teste para determinar quais componentes vender e quais descartar. 1.4 VARIÁVEIS ALEATÓRIAS Vimos até agora em nossos experimentos, que retirávamos cartas a esmo e escolhíamos peças sem nenhum procedimento específico. Esses resultados eram então armazenados em variáveis aleatórias. A palavra aleatória significa que é impossível conhecer o valor da variável previamente, somente após a medida ser realizada. O resultado de um experimento não precisa necessariamente ser um número, como no lançamento de uma moeda, em que os resultados podem ser cara (H) ou coroa (T). Mas, o valor de uma variável aleatória varia de experimento para experimento, por exemplo, o número de caras que se tira em uma sequência de lançamentos. Uma variável aleatória é então uma característica numérica de cada evento em um espaço amostral, ou equivalentemente de cada indivíduo de uma população. Como exemplos podemos citar o número de caras em quatro lançamentos consecutivos de uma moeda, ou a altura de indivíduos em um grande população. As variáveis aleatórias podem ser discretas ou contínuas, depen- dendo se suas características (veja seção 1.1). As variáveis aleatórias discretas são contagens de valores distintos. Por exemplo, o número de caras em quatro lançamentos de uma moeda (com resultados possíveis: 0, 1, 2, 3, 4), ou o número de aulas em que você faltou na semana passada (com resultados possíveis: 0, 1, 2, 3, 4, até um número máxi- mo). Já para as variáveis aleatórias contínuas, os valores pertencem a 38 U nid. 1 - Frequência e Probabilidade intervalos de números reais,com a altura de indivíduos ou o tempo para terminar uma prova. Na prática, não medimos com tanta precisão para monitorarmos todos os valores reais possíveis para uma variável aleatória contínua, e costumamos arredondar valores. Por exemplo, se alguém se exercita 2,14543... horas por semana, provavelmente arredondaremos para 2,1, ou mesmo, 2, mas o tempo de exercício continua sendo uma variável aleatória contínua. Embora seja impossível determinar o valor de uma variável aleatória antes de realizar a medida, podemos caracterizar as variáveis aleatórias pelo seu conjunto de valores possíveis através de suas pro- babilidades de ocorrências. Quando conhecemos todos os possíveis valores de uma variável aleatória com suas respectivas probabilidades de ocorrência, temos uma distribuição de probabilidades. 1.4.1 DISTRIBUIÇÃO DE PROBABILIDADE Para uma dada variável aleatória, sua distribuição de probabilida- de (também chamada de função de distribuição de probabilidade) é qualquer tabela, gráfico ou fórmula que dê a probabilidade associada a um determinado valor da variável aleatória. Por exemplo, vamos analisar o espaço amostral de 4 lançamentos consecutivos de uma moeda, como mostra a Tabela 1.1. As cores mais escuras representam maior número de caras no resultado X= {0, 1, 2, 3, 4}. 39 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de Tabela 1.1. Possíveis resultados de 4 lançamentos consecutivos de uma moeda. Lembre-se da notação: H=cara e T=coroa. HHHH HHHT HHTH HHTT THHH HTHT THHT HTTT HTHH HTTH THTH THTT TTHH TTTH TTHT TTTT Fonte: Elaborada pelo autor. Podemos, então, construir uma tabela com a distribuição de probabilidades para o número de caras obtidas em 4 lançamentos de uma moeda, representada na Tabela 1.2. Por exemplo, o número de re- sultados com nenhuma cara é 1 de um todas de 16 resultados possíveis, portanto, P(0) = 1/16. E assim por diante. Tabela 1.2. Distribuição de probabilidades para o número de caras obtidas em 4 lançamen- tos de uma moeda. Nº de caras 0 1 2 3 4 Probabilidade 1/16 4/16 6/16 4/16 1/16 Probabilidade Cumulativa 1/16 5/16 11/16 15/16 1 Fonte: Elaborada pelo autor. Note que a soma de todas as probabilidade ao longo da distribui- ção deve ser 1, e que o valor das probabilidades individuais deve estar entre 0 e 1. Comumente, desejaremos saber qual a probabilidade de que a variável seja menor ou igual a um valor, isto é chamado de probabili- dade cumulativa. 40 U nid. 1 - Frequência e Probabilidade 1.4.2 DISTRIBUIÇÃO DE PROBABILIDADE CUMULATIVA Suponha que desejamos saber qual é a probabilidade de que o número de cara obtido em quatro lançamentos consecutivos de uma moeda seja 1 ou menos. Assim, P(X ≤ 1) = P(X = 0) + P(X = 1) = (1/16) + (4/16) = 5/16 . A distribuição de probabilidades cumulativa é uma listagem de todos os valores possíveis da probabilidade cumulativa, para cada um dos valores da variável, como mostrado na Tabela 1.1. Outra forma de representar a função de distribuição de probabili- dades é através de um gráfico. O gráfico mais comum para essa represen- tação é um histograma. Um histograma nada mais é do que um gráfico contendo barras, onde a altura dessas barras representa a ocorrência de valores em um determinado intervalo representado pela largura. Esses intervalos são chamados de classes. Por exemplo, podemos representar a tabela 1.1 na forma de um histograma, como mostra a Figura 1.6. Figura 1.6. Histograma das probabilidades de se obter X caras em quatro lançamentos de uma moeda. Fonte: Elaborada pelo autor. 41 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de O uso de gráficos como um histograma para representar funções de distribuição de probabilidades no leva a intuir que certas variáveis possuirão funções analíticas que descrevem seu comportamento probabilístico, evidenciado pelo formato da função de distribuição de probabilidades. No caso de variáveis aleatórias contínuas, que possuem infinitos possíveis valores, não podemos atribuir uma probabilidade associada a um único valor específico. Se o fizermos a probabilidade total seria infinita, ao invés de 1, como ele deve ser. Para descrever probabilidade para uma variável aleatória contí- nua, usamos a função de densidade de probabilidade. A função de densidade de probabilidade é uma função p(x), cuja área sob a curva dentro de um intervalo de valores é a probabilidade do valor da variável dentro do intervalo centrado. A Figura 1.7 mostra uma função de densidade de probabilidade da velocidade dos carros em um determinado ponto de uma estrada. Figura 1.7. Função de densidade de probabilidade da velocidade dos carros em um determinado ponto de uma estrada. Fonte: Elaborada pelo autor. 42 U nid. 1 - Frequência e Probabilidade Se desejarmos saber, por exemplo, a probabilidade de um carro passar por aquele ponto da estrada, com uma velocidade entre 67 e 70 km/h, devemos integrar a curva sobre o intervalo (representado em vermelho) para determinar a área, portanto, . As funções de densidade de probabilidade têm unidades iguais ao inverso da unidade de medida da variável, por exemplo, se a medida da variável é metro (m), a unidade de densidade de probabilidade será m-1. Essas funções de densidade de probabilidades são normalmente parametrizadas por quantidades relacionadas à posição e/ou à variabili- dade das variáveis, normalmente a média e a variância. 1.5 CONSIDERAÇÕES DA UNIDADE I Nesta unidade introduzimos alguns conceitos básicos em Esta- tística e Probabilidade. Tratamos basicamente de uma parte conhecida como Estatística Descritiva. Os conceitos e nomenclaturas ajudarão a organizar os problemas de forma a encontrar a melhor metodologia para sua solução. Vimos que as variáveis podem ser representadas segundo parâ- metros que denotam sua localização e variabilidade. Vimos também que podemos contar a frequência com que um dado evento ocorre dentro de um espaço amostral. Assim, o entendimento da frequência levou aos conceitos de probabilidade e distribuição de probabilidades. As funções de densidade de probabilidade são uma ferramenta importantíssima para se traçar um modelo probabilístico sobre uma população e suas características. 43 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de É importante lembrar que os conceitos vistos nesta unidade estão resumidos e que você deve continuar sua pesquisa para aprofundar ain- da mais seu conhecimento. Lembre-se de acessar a plataforma e assistir à teleaula, de resolver as atividades propostas e de participar dos fóruns de discussão e dúvidas. Na próxima unidade veremos como os modelos probabilísticos para distribuições discretas e contínuas serão aplicáveis á vários fenôme- nos observados no cotidiano de um engenheiro. 44 U nid. 1 - Frequência e Probabilidade TESTE SEU CONHECIMENTO 1. Um dado experimento apresentou o espaço amostral com as respectivas probabilidades representado na figura. Qual a probabilidade de B dado que A ocorreu? B ΩA 0,4 0,3 0,2 0,1 a) 0,43 b) 0,50. c) 0,71. d) 0,90. e) 0,0. 2. Um programa de controle de qualidade, em uma linha de produção de motores elétrico, constatou um ruído excessivo nos motores produzidos. Após alguma investigação, considerou-se que a culpa seria de eixos de rotação fora das especificações. Uma amostra das medidas do eixo de motores elétricos, em mm, é apresenta na tabela. Qual seria a média e desvio padrão que melhor representa essa amostra? amostra 1 2 3 4 5 6 7 8 9 10 medida 20,24 20,38 20,3 20,48 20,4 20,2 20,36 20,7 20,44 20,08 a) 22,62±21,66 mm. b) 20,36±0,57 mm. c) 22,62±0,17 mm. d) 20,36±0,17 mm. e) 22,62±0,57 mm. 45 U ni d. 1 - F re qu ên ci a e Pr ob ab ili da de 3. Em uma caixa de 12 lâmpadas, há 3 itens com defeito. Um inspetor seleciona 3 lâmpadas aleatoriamente e sem reposição. Qual a probabilidade de haverexatamente 3 lâmpadas defeituosas em sua amostra? a) 0,0791. b) 0,0045. c) 0,026. d) 0,7. e) 0,122. un id ad e 2 47 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e OBJETIVOS DA UNIDADE • Introduzir o conceito de distribuição de probabilidades para variáveis aleatórias discretas e contínuas; • Elencar algumas das principais distribuições de probabili- dades para variáveis aleatórias discretas e contínuas; • Fornecer a noção de vida útil e falha em equipamentos; • Iniciar o estudo de distribuições de probabilidades conjuntas. HABILIDADES E COMPETÊNCIAS • Modelagem probabilística de processos aleatórios; • Determinação de probabilidades de ocorrência; • Cálculo de vida útil. 2Distribuição de Probabilidade 48 U nid. 2 - D istribuição de Probabilidade 2.1 DISTRIBUIÇÕES DE PROBABILIDADE DISCRETAS Vimos que em um experimento envolvendo eventos aleatórios é impossível prever o resultado. Podemos tentar várias vezes repetir o mesmo experimento, mas, geralmente, esperamos uma observação de diferentes resultados. Por exemplo, no experimento de lançar uma moeda quatro vezes, cada vez que o repetimos teremos um resultado diferente, assim como cada uma das células da Tabela 1.1 apresenta um resultado possível e com uma probabilidade associada. Obviamente, esperamos que esses valores observados em diferen- tes resultados apresentem certo nível de concentração em torno de um valor central (a menos que os resultados sejam igualmente prováveis). Um valor central de importância fundamental é o valor esperado. 2.1.1 VALOR ESPERADO O valor esperado ou esperança de uma variável aleatória X é a média ponderada dos possíveis valores de X, ponderada pelas probabi- lidades correspondentes. É o valor de X que se espera após observações repetidas de experimentos aleatórios e é representada por: (2.1) onde N é o número de valores possíveis de X. Não confunda o valor esperado com a média dos valores de um conjunto de observações, elas são duas quantidades diferentes, apesar de estarem relacionadas. A média, como definida na subunidade 1.2.1, é a média ordinária de um conjunto de valores de X. Agora, o valor esperado leva em consideração a distribuição desses valores através de 49 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e suas probabilidades, dando pesos diferentes (probabilidade) para cada valor. Certos valores terão pesos maiores se são mais prováveis que outros. O valor esperado aproxima-se em muitos casos da média da população, enquanto a média ordinária refere-se à média da amostra. Veja um exemplo A distribuição de probabilidade do número de carros vermelhos () que João encontra a caminho do trabalho é dada por: X 0 1 2 3 4 P(X) 0,41 0,37 0,16 0,05 0,01 Quantos carros vermelhos João deve encontrar cada manhã a caminho do trabalho? Resposta: A questão está nos perguntando sobre o número esperado de carros vermelhos que João deve encontrar a caminho do trabalho. Isso difere da média ordinária, pois o número de carros vermelhos observados têm probabilidades diferentes, como mostradas na tabela. Assim, temos: E(X) = 0 * (0,41) + 1 * (0,37) + 2 * (0,16) + 3 * (0,05) + 4 * (0,01) E(X)=0,88 É claro que 0,88 não é sequer um carro, isto indica que em média, João deve encontrar menos de um carro vermelho no caminho para o trabalho. Observe que isto representa apenas um valor médio, obviamente ele não encontrará 88% de um carro, apenas indica que na média ele encontrará menos de um carro. Outra quantidade importante relacionada a uma dada variável aleatória é sua variância. Vimos anteriormente, que a variância é uma 50 U nid. 2 - D istribuição de Probabilidade descrição numérica do espalhamento de uma variável em torno de um valor central. Isto é, a variância de uma variável aleatória X é uma medida de quão espalhados os valores de X estão, uma vez que sabemos quão prováveis eles são de serem observados em um experimento aleatório. Conhecidas as probabilidades dos valores de uma variável discreta X, definimos sua variância como: (2.2) sendo N o número de valores possível para X. E consequentemente, o desvio padrão é a raiz quadrada da variância: (2.3) Observe que a variância de uma distribuição é sempre um valor po- sitivo. E que como o valor esperado, a variância é uma média ponderada de valores observados e calculados, sendo o valor esperado da diferença quadrática entre os valores de X e o valor esperado de X. Ou seja, (2.4) Se o número de repetições for grande o valor esperado tende para a média da população. Essa é uma afirmação importante sobre a qual veremos as implicações mais adiante. Observe que o conhecimento da distribuição de probabilidade da va- riável é importante para se determinar o valor esperado de um experimento. Na prática as funções de distribuição de probabilidades podem ter qualquer forma de função. Normalmente, essas funções são regidas por parâmetros que são relacionados às Medidas de Posição e Variabilidade. Quando se trata de variáveis discretas existem algumas funções de distribuição de probabilidades muito úteis para representar variáveis aleatórias. 51 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e 2.1.2 DISTRIBUIÇÃO BINOMIAL A Distribuição de Probabilidades Binomial modela algumas variáveis discretas aleatórias. Tipicamente, uma variável aleatória que apresenta uma distribuição binomial refere-se a experimentos que possuem apenas dois resultados possíveis: SUCESSO e FALHA. Esse tipo de experimento é conhecido por Experimento de Bernoulli. Por exemplo, o número de “caras” ocorridas (SUCESSO) quando lançamos uma moeda 50 vezes segue uma distribuição Binomial. A distribuição Binomial é apropriada para sumarizar um grupo de observações independentes que apresenta um dos dois resultados possíveis. Em outras palavras, a distribuição binomial representa a dis- tribuição de probabilidade de uma série de experimentos de Bernoulli. Dizemos que uma variável aleatória discreta segue uma distribui- ção Binomial com parâmetros n e p, simbolizada por X~B(x|n,p), se ela tem distribuição de probabilidade dada por: (2.5) Onde: n = 1, 2, 3, … é o número de observações; x = 0, 1, 2, 3, …, n é o número de sucessos; 0 < p < 1 é a probabilidade de sucesso; é a combinação de n observações agrupadas em sucessos. Esse fator é conhecido como coeficiente Binomial. Ele representa o número de formas possíveis de se combinar x sucessos em n observações. 52 U nid. 2 - D istribuição de Probabilidade n! representa o fatorial de n, ou seja, n! = n. (n-1).(n-2). ... .3.2.1. Por exemplo, 5! = 5.4.3.2.1 = 120. OUTRAS MÍDIAS Há vários vídeos na internet sobre fatoriais, por exemplo: https://www.youtube.com/watch?v=D0OF22xbs0Q. Vale a pena ver para entender um pouco mais sobre como calculá-lo. DICA DE LEITURA Para entender um pouco mais sobre a relação entre análise combinatória e probabilidades, sugiro a leitura de “Análise Combinatória e Probabilidade”, Augusto C. O. Morgado et. al., 9.ed, Editora SBM. Para se aplicar uma distribuição Binomial, é preciso que os se- guintes requisitos sejam cumpridos: 1. O número total de observações n deve ser fixado primeira- mente (isto garante 0 < p < 1); 2. Somente dois resultados devem ser possíveis em cada obser- vação: SUCESSO e FALHA (portanto, cada observação será ou SUCESSO ou FALHA); 3. Os resultados devem ser estatisticamente independentes (uma observação não afeta a observação seguinte); 4. Todas as observações tem a mesma probabilidade de SUCESSO. 53 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e Veja o exemplo: Uma moeda viciada é lançada 6 vezes. Se a probabilidade de obter CARA em um lançamento é 0,3, qual a probabilidade de se obter 2 CARAS nos 6 lançamentos? Solução: Se chamarmos CARA de SUCESSO, entãoX =número de caras, segue uma distribuição Binomial com n = 6 e p = 0,3, ou seja, X~B(x|6,0.3). Assim, Ou seja, a probabilidade de se tirar 2 CARAS com esta moeda viciada é de 32,4%. De forma geral, poderíamos sumarizar os resultados pela Tabela 2.1. A tabela representa a probabilidade P(X) de se obter X em 6 lan- çamentos desta moeda viciada. Esses valores seguem uma distribuição Binomial, como mostrada na Equação 2.5. A tabela também mostra a função de probabilidade cumulativa F(X). Tabela 2.1 Probabilidades de se obter X ={ nº de CARAS} em seis lançamentos de uma moeda viciada . X 0 1 2 3 4 5 6 P(X) 0.1176 0.3025 0.3241 0.1852 0.0595 0.0102 0.0007 F(X) 0.1176 0.4201 0.7443 0.9295 0.9891 0.9993 1 Fonte: Elaborada pelo autor. 54 U nid. 2 - D istribuição de Probabilidade A distribuição Binomial também é muito útil quando se deseja checar se um produto de uma linha de produção está defeituoso (FA- LHA) ou não (SUCESSO). Veja o exemplo: Um engenheiro de controle de qualidade está encarregado de testar se 90% dos tocadores de DVD, produzidos pela sua fábrica, estão dentro das especificações. Para fazer isso, o engenheiro seleciona 12 tocadores de DVD da linha de montagem a cada dia. Na produção diá- ria, é preciso que não mais que 1 tocador de DVD falhe no teste, caso contrário toda a produção do dia todo deve ser testada. Qual a proba- bilidade de que o engenheiro aprove incorretamente a produção do dia, se apenas 80% dos tocadores de DVD estão dentro das especificações? Solução: Vamos tomar X como sendo o número de tocadores de DVD que falham no teste. Então, o engenheiro realizará n = 12 testes (observa- ções), com probabilidade de falha de p = 0,2 (20% dos tocadores de DVD estão fora de especificação). Assim, temos que: Ou seja, o engenheiro terá 27,5% de chance de aprovar erro- neamente uma produção diária onde 20% dos tocadores de DVD estão defeituosos. A Figura 2.1 mostra a função de distribuição de probabilidades para esse problema. 55 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e Figura 2.1 - Função de distribuição de probabilidades para o problema dos tocadores de DVD defeituosos. Fonte: Elaborada pelo autor. Observe pela Figura 2.1 que as probabilidades são diferentes para cada número de tocadores de DVD defeituosos. Então, existe um valor central que define o número de DVDs defeituosos que serão encontra- dos no teste, o valor esperado. A distribuição Binomial tem valor esperado E(X) = np e variância VAR(X) = np (1 - p). Assim, o valor esperado para o problema dos toca- dores de DVD é E(X )= 12.0,2 = 2,4 e a variância VAR(X)= 12.0,2(1-0,2)= 1,92, ou seja, desvio padrão . Portanto, no caso de 20% da produção diária estar defeituosa, 2,4 ± 1,38 tocadores de DVD serão encontrados no teste usado pelo engenheiro. A distribuição Binomial funciona bem quando os eventos tem a mesma probabilidade de ocorrência em todas as repetições do ex- perimento (requisito 4). Como quando queremos saber quantas vezes podemos obter o número 2 em lançamentos consecutivos de um dado. A probabilidade de se obter um 2 é sempre 1/6, para cada lançamento. Mas, ela não funciona bem se a probabilidade não é a mesma em cada repetição. Como quando tiramos uma carta de um baralho, mas não a 56 U nid. 2 - D istribuição de Probabilidade repomos, a probabilidade de se tirar um rei, por exemplo, será diferente para cada carta retirada do baralho. Nos casos em que o requisito 4 não é satisfeito, deveremos utilizar outra distribuição de probabilidades. 2.1.3 DISTRIBUIÇÃO HIPERGEOMÉTRICA Analogamente à distribuição Binomial, a distribuição Hiper- geométrica modela experimentos que têm somente dois resultados possíveis: SUCESSO ou FALHA (experimentos de Bernoulli). A diferença encontra-se nos requisitos 3 e, consequentemente, no 4 da distribuição Binomial. Uma distribuição Hipergeométrica se aplicará aos experimen- tos de Bernoulli em que a probabilidade de ocorrência dos eventos é estatisticamente dependente, ou seja, a ocorrência de SUCESSO ou FALHA em um experimento afetará a probabilidade de SUCESSO ou FALHA no experimento subsequente. Por exemplo, imagine que você está retirando uma carta do baralho e quer saber a probabilidade de se tirar um rei (K), que será de 4/52, num primeiro experimento. Se a carta retirada não for reposta, em um segundo experimento com o mesmo baralho, a probabilidade será de 3/51 se houver SUCESSO no primeiro, e 4/51 se houver FALHA, no primeiro, e assim por diante. A ocorrência do primeiro evento altera a probabilidade do segundo. A distribuição Hipergeométrica descreve a probabilidade de x SUCESSOS em n observações, sem reposição, de uma população finita de tamanho N que contém exatamente k SUCESSOS. Então, X tem distribuição hipergeométrica, ou X~Hi (x|N,k,n), sendo: 57 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e (2.6) Onde: n = 1,2,3,…, N é o número de observações (tamanho da amostra); x = 0, 1, 2, 3, … , n é o número de sucessos (na amostra); 0 ≤ k ≤ N é o número de sucessos na população; N é o tamanho da população. São características de uma distribuição Hipergeométrica: 1. A população tem tamanho finito N; 2. Uma amostra n < N é aleatoriamente selecionada; 3. Os resultados admitem apenas SUCESSO ou FALHA (experi- mentos de Bernoulli); 4. Haverá 0 ≤ k ≤ N, SUCESSOS na população, e portanto N -k FALHAS. Veja o exemplo Qual é a probabilidade de se tirar 3 ases (A) em uma mão de 13 cartas, tiradas de um baralho de 52 cartas? Solução: Temos para este problema que: N = 52, pois há 52 cartas no baralho (população); 58 U nid. 2 - D istribuição de Probabilidade N = 13, correspondendo às 13 cartas da mão; k = 4, número de ases no baralho (sucessos na população); x = 3, número de sucessos para os quais queremos obter a pro- babilidade. Assim, Ou seja, a probabilidade de se tirar 3 ases em uma mão de 13 cartas é de um pouco mais de 4 em cada 100. O valor esperado para uma variável aleatória X que segue uma distribuição Hipergeométrica é e a variância é . Observe que no limite de , portanto a distribuição Hipergeométrica tende para a distribuição Binomial quando a população é grande. A distribuição Hipergeométrica é muito utilizada na engenharia em testes de controle de qualidade. Veja o exemplo Suponha que uma indústria compra 500 parafusos de um fornece- dor. O engenheiro, responsável pela linha de montagem, deve decidir se aceita ou não o carregamento que acaba de chegar. Para isso ele deve de- terminar se os mesmos estão dentro das especificações. Ele aleatoriamente seleciona 12 parafusos. Se nenhum dos parafusos selecionados é classifi- cado como defeituoso, ele conclui que o carregamento deve ser aceito. Se 10% dos parafusos entregues são defeituosos, qual a probabilidade de que 12 parafusos selecionados aleatoriamente não sejam defeituosos? 59 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e Solução: Podemos modelar este problema com uma distribuição Hiper- geométrica, onde N = 500 parafusos, N = 12 parafusos amostrados e k = 50 (10% de parafusos defeituosos na população). E, o número de parafusos defeituosos na amostra poderá ser x = 0, 1, 2, 3, ... ,12, e estamos interessados em (nenhum parafuso defeituoso). Logo, há menos de 30% de chances de se obter uma amostra de 12 parafusos de 500, onde 10% deles são defeituosos, e não retirar nenhum parafuso defeituoso. A Figura 2.2 mostra a distribuição de probabilidades Hipergeométrica para esse exemplo. Note que a proba- bilidade de se obter pelo menos 4 parafusos defeituosos é de cerca de 99,6%, ou seja, P(X ≤ 4) = P(X=0)+P(X=1)+ ... +P(X=4) = 0,9962. Figura 2.2 Função de distribuição de probabilidades para o problema dos parafusos defeituosos em um carregamento. Fonte: Elaborada pelo autor. 60 U nid. 2 - D istribuição de ProbabilidadeObserve (deixo o cálculo para você) também que o valor esperado é E(X) = 1,2 e σX = 1,02, então não obter nenhum parafuso defeituoso mesmo que 10% deles sejam defeituosos é bastante provável. 2.1.4 DISTRIBUIÇÃO BINOMIAL NEGATIVA Algumas vezes estamos interessados em saber a probabilidade de se obter certo número r de SUCESSOS após x repetições de um expe- rimento de Bernoulli. Diferentemente da distribuição Binomial em que conhecíamos o número de observações previamente, agora, o número de observações para obter r SUCESSOS é a variável aleatória X. Neste caso, teríamos uma distribuição Binomial Negativa, também conhecida como distribuição de Pascal (em homenagem ao físico e matemático francês Blaise Pascal). Uma variável aleatória discreta segue uma distribuição Binomial Negativa se X~NBi(x|p,r), sendo (2.7) Onde: x é o número de repetições necessário para obter sucessos; r é o número de sucessos requerido; p é a probabilidade de se obter um sucesso individual. Veja o exemplo Oscar é um jogador de basquete com 70% de aproveitamento no lançamento livre de bolas ao cesto. Durante um jogo, qual a probabili- dade de Oscar fazer sua terceira cesta em seu quinto arremesso? 61 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e Solução: Neste exemplo temos a probabilidade de sucesso p = 0,7, o núme- ro de observações x = 5, e o número de sucessos r = 3. Assim, aplicando a distribuição binomial Negativa tem-se: Logo, a probabilidade de Oscar fazer sua terceira cesta no quinto arremesso é 0,185. A distribuição Binomial Negativa é usada complementarmente à distribuição Binomial. O valor esperado para uma variável que segue uma distribuição Binomial Negativa é e a variância é . Veja outro exemplo: Uma companhia petrolífera conduziu um estudo geológico de uma região e foi constatado que a probabilidade de haver petróleo seria de 20%. Qual a probabilidade de se encontrar petróleo após 3 perfurações? Solução: Observe que nesse problema a variável é o número de repetições, portanto, podemos modelar o problema por uma distribuição Binomial Negativa, onde r = 1 é o número de sucessos, p = 0,2 é a probabilidade de sucesso em cada perfuração e x = 3 é o número de repetições. Assim, temos: Logo, há cerca de 13% de chance de se encontrar petróleo na ter- ceira perfuração. O valor esperado será perfurações. 62 U nid. 2 - D istribuição de Probabilidade Um caso especial da distribuição Binomial Negativa é quando se deseja a probabilidade de se ter r = 1 sucesso em x observações. Nesse caso, temos uma distribuição Geométrica, dada por: Geom(x|p) = p(1-p)x-1 (2.8) O exemplo anterior é um caso de distribuição Geométrica. Tente refazer as contas usando a Equação 2.8. Em geral, a distribuição Bino- mial Negativa é aplicada também em controle de qualidade quando os “planos de amostragem são inversos” aos de uma distribuição Bi- nomial, ou seja, a amostragem continua até que r itens defeituosos sejam encontrados e o lote seja rejeitado, ou até que r itens dentro das especificações sejam encontrados e o lote aceito. Lembre-se de que na distribuição Binomial o número de amostras era fixo. 2.1.5 DISTRIBUIÇÃO DE POISSON Comumente, um engenheiro se depara com problemas em que a informação de interesse está relacionada com a taxa de ocorrência de um evento em um intervalo de tempo ou intervalo espacial. Por exem- plo, o número de chamadas recebidas pelo Serviço de Atendimento ao Consumidor (SAC) da empresa em um dia, ou a ocorrência de defeitos em uma viga de concreto em um determinado comprimento. Nesse caso utilizaremos uma distribuição de Poisson (em homenagem ao mate- mático francês Simèon Denis Poisson) para modelar a variável aleatória. Considere uma taxa de ocorrência de eventos λ > 0 (número de eventos por unidade de tempo ou unidade de espaço) como sendo constante. Assim, uma variável aleatória discreta que segue uma distri- buição de Poisson (pronuncia-se “pôasson” com o “a” bem breve), ou seja, X~Poiss(x|λ), tem probabilidade de ocorrência dada por: 63 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e (2.9) onde x = 0,1,2, ... é o número de ocorrências do evento. Uma distribuição de Poisson apresentará as seguintes caracterís- ticas: a) O intervalo de tempo ou dimensão observado é fixo, e.g. 5 min ou 1 km; b) A taxa de ocorrência é constante; c) O número de eventos que ocorre em intervalos disjuntos é estatisticamente independente. Por exemplo, o número de carros que passa em um posto policial em um dado minuto, independe do número de carros que passaram nos minutos subsequentes. A distribuição de Poisson tem valor esperado E(X) = λ e a variância VAR(X) = λ. O fato de que μ = σ é uma característica fundamental da distribuição de Poisson. Veja o exemplo O SAC de uma empresa recebe certo número de chamadas te- lefônicas a cada 5 minutos, cujo valor esperado (médio) é 2 chamadas. Qual a probabilidade de pelo menos 3 chamadas serem recebidas nos próximos 5 minutos? Solução: Nesse caso, teríamos λ = 2, e a probabilidade de serem recebidas pelo menos 3 chamadas é: 64 U nid. 2 - D istribuição de Probabilidade Ou seja, a probabilidade de se receber 3 chamadas em 5 minutos é de 0,857. E o valor esperado é E(X) = 2. Isso pode ajudar a calcular quantos atendentes contratar, por exemplo. A Figura 2.3 mostra a dis- tribuição de probabilidades para esse exemplo. Figura 2.3 Função de distribuição de probabilidades para o problema dos telefonemas recebidos pelo SAC de uma empresa. Fonte: Elaborada pelo autor. A distribuição de Poisson pode ser usada algumas vezes para aproximar a distribuição Binomial. Quando o número de observações é grande e a probabilidade de sucesso é pequena Bi(x|n,p) → Poiss(x|λ), sendo E(X )= λ = np. Isso pode ser bastante útil em alguns casos, pois facilita em muito o cálculo das probabilidades. A distribuição de Poisson cobre uma infinidade de aplicações, incluindo a contagem de partículas em Física (por exemplo, o número de 65 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e fótons absorvidos por um fotodetector), a distribuição espacial de plan- tas e de animais na agricultura e em ecologia, a contagem de células/ bactérias em biologia, contagem de vítimas fatais de uma determinada doença na medicina e a demanda de produtos no gerenciamento de negócios. É também de muito interesse na confiabilidade de sistemas em engenharia, cujos componentes tendem a falhar com certa taxa. A distribuição de Poisson modela o número de componentes que falham por período de tempo e podem ajudar a prever a compra de peças de reposição, determinar a necessidade de um recall, etc. Quando a alea- toriedade das falhas não é comprovada, é bom considerar uma outra alternativa, como a distribuição Binomial Negativa. A ocorrência de eventos com uma taxa constante pode ser mo- delada através da distribuição de Poisson. Em certas ocasiões as próprias taxas de ocorrência podem ser modeladas por outras distribuições. 2.2 DISTRIBUIÇÕES CONTÍNUAS DE PROBABILIDADE Várias das quantidades medidas no dia a dia de um engenheiro ou cientista admitem um intervalo contínuo de valores. Tais valores podem ser representados por variáveis aleatórias contínuas com valores x que podem ocorrer dentro de um espaço amostral contínuo Ω. Essas variáveis podem representar, por exemplo, o tempo até a falha de um equipamento, o custo de um projeto com relação aos propósitos e complexidade, a pressão dentro de um tubo em relação à resistência do material do mesmo, etc. A incerteza na ocorrência de um determinado valor de pode ser medida pela probabilidade. Vimos na subunidade 1.4.1 que para variá- 66 U nid. 2 - D istribuição de Probabilidade veis aleatórias contínuas as probabilidades são modeladas por funções de densidade de probabilidadep(x), de tal forma que: (2.11) A probabilidade de se ter um valor X ≤ x0, é dada pela distribuição cumulativa F(x), tal que: (2.12) Da mesma forma, para se calcular a probabilidade de um valor estar no intervalo x1 ≤ x ≤ x2, temos que integrar a função de distribuição de probabilidades no intervalo, ou seja: (2.13) Analogamente às variáveis contínuas, o valor esperado de uma variável aleatória contínua será dado por: (2.14) E a variância será: (2.15) As funções de densidade de probabilidade são, então, indexadas por um conjunto de parâmetros θ. Esses parâmetros determinam loca- lização, escala e formato dessas funções. Tais parâmetros comumente estão relacionados à média, variância, ou mesmo ao intervalo de valores possíveis para a variável aleatória. Em engenharia, a análise de distribuições contínuas é utilizada em uma variedade imensa de aplicações. Por exemplo, num conjunto de dados é possível estimar a probabilidade de uma medida (temperatura, pressão, taxa de escoamento) cair dentro de um determinado intervalo 67 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e de valores, e consequentemente determinar a confiabilidade de um instrumento ou componente de um equipamento. Também, calibrar um instrumento (e.g. sensor de temperatura) de um fornecedor e usar uma função de distribuição de probabilidades para determinar o comporta- mento dele ao longo do tempo. 2.2.1 DISTRIBUIÇÃO UNIFORME Se os valores de uma variável são igualmente distribuídos (todos os valores são equiprováveis) dentro de um determinado intervalo [a,b] dizemos que ela segue uma distribuição Uniforme. Por exemplo, se um trem chega à estação de metrô a cada 5 minutos e você chega à mesma estação em um instante de tempo aleatório, o tempo que você irá aguardar pelo próximo trem pode ser descrito por uma distribuição Uniforme sobre o intervalo de 0 a 5 min. Uma variável aleatória contínua é dita seguir uma distribuição Uniforme, dentro de um intervalo [a,b], se X~Un(x|a,b), ou seja (2.16) onde a é um parâmetro de localização (diz onde os valores se encontram no espaço amostral) e b - a é um parâmetro de escala (diz quão larga a distribuição de valores é). Note que a e b são as bordas do espaço amostral de x. Uma distribuição uniforme tem valor esperado e variância . Note que o valor esperado é o ponto médio do intervalo. 68 U nid. 2 - D istribuição de Probabilidade No exemplo da espera pelo trem, a variável X representa o tempo de espera, para a qual teríamos que o valor esperado seria e o desvio padrão seria σX = 0,72 min. Então seria razoável você esperar 2,5 ± 0,72 min pelo trem. Figura 2.4 Função de densidade de probabilidades para o problema da espera pelo trem. Fonte: Elaborada pelo autor. Observe pela Figura 2.4 que a função de densidade de proba- bilidade é constante, e pela Equação 2.13 p(x) = 0,2. Assim, podemos determinar qual a probabilidade de espera integrando p(x) dentro do intervalo desejado. Por exemplo, se você deseja saber qual a probabili- dade de esperar entre 3 e 5 minutos pelo trem, teríamos: Ou seja, você teria 40% de chance de esperar de 3 a 5 minutos pelo trem. A distribuição Uniforme é de extrema importância quando dese- jamos gerar números aleatórios, em simulações de processos aleatórios. Por exemplo, para simular eventos que seguem uma distribuição de Poisson, basta espalhá-los uniformemente no intervalo de interesse (temporal ou espacial). O número de eventos por unidade de tempo ou 69 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e espaço seguirá uma distribuição de Poisson. A determinação do valor médio das taxas de eventos seguirá outra distribuição muito importante. 2.2.2 DISTRIBUIÇÃO NORMAL Talvez a mais importante e mais utilizada no dia a dia de um engenheiro ou cientista é a distribuição Normal, também conhecida como distribuição Gaussiana (em homenagem ao matemático alemão Carl Friedrich Gauss). A distribuição Normal tem um papel central na estatística, pois muito do que se conhece da ciência dos processos pro- babilísticos foi desenvolvido em torno dessa distribuição. A importância dessa distribuição vem do Teorema do Limite Cen- tral. Tal teorema diz que uma amostra aleatória de tamanho n, extraída de uma população que apresenta média μ e a variância σ2 finitas, tem média amostral normalmente distribuída com média μ e a variância σ2/n. Ou seja, as estimativas de obtidas em diferentes amostras retira- das da mesma população seguem uma distribuição Normal de média μ e a variância σ2/n. Em outras palavras, o valor esperado E( ) = μ. Dizemos que uma variável aleatória com média μ e variância σ2 segue uma distribuição Normal, ou seja, X~N(x|μ,σ), se a função de densidade de probabilidades é dada por: (2.14) Uma variável aleatória normalmente distribuída tem valor espera- do E(X) = μ e a variância é VAR(X) = σ2. É comum utilizar a forma reduzida (ou forma padrão) da função de densidade de probabilidades. Normalmente, para tanto se define uma variável reduzida z = (x-μ)/σ, isto quer dizer que, x = μ+zσ. Tal va- 70 U nid. 2 - D istribuição de Probabilidade riável é normalmente distribuída com média μ = 0 e variância σ2 = 1, ou seja, Z~N(z|0,1). Assim, (2.15) Esta transformação é importante para entendermos as proprieda- des da distribuição normal. A Figura 2.5 mostra a função de densidade de probabilidades de z. Figura 2.5 Função de densidade de probabilidades de . Fonte: Elaborada pelo autor. Observe na Figura 2.5, a concentração de valores entre -1 e 1. Isso quer dizer que a maior parte dos valores de estão nesse intervalo. Lembre-se de que z = 1, corresponde a x = μ + σ. Portanto, a maior parte dos valores concentra-se no intervalo [μ-σ, μ+σ]. Para calcular essa probabilidade, temos que: A solução dessa integral envolve a função erro erf(z), cujo cálculo não é trivial. Portanto, para se calcular a probabilidade de um valor de estar em um intervalo, podemos utilizar Tabelas de Valores para z. Ela pode ser encontrada na maior parte dos livros de estatística, na internet 71 U ni d. 2 - D is tr ib ui çã o de P ro ba bi lid ad e (por exemplo, http://www.stat.ufl.edu/~athienit/Tables/Ztable.pdf) ou mesmo em algumas calculadoras científicas. Tais tabelas contêm valores para a distribuição cumulativa de z. Assim, teríamos: P(-1≤Z≤1) = P(Z≤1) - P(Z≤-1) = 0,8413 - 0,1587 = 0,6826 Ou seja, a probabilidade de -1≤ Z ≤ é 0,6826. Em outras palavras, 68,26% dos valores de x estão localizados entre a média e o desvio padrão. Estendendo a análise, teríamos que: P(μ-2σ≤X≤μ+2σ) = P(-2≤Z≤2) = P(Z≤2)-P(Z≤-2) = 0,9544 P(μ-3σ≤X≤μ+3σ) = P(-3≤Z≤3) = P(Z≤3)-P(Z≤-3) = 0,9974 Veremos detalhes sobre a importância desses intervalos mais a frente, quando falarmos de intervalo de confiança. Veja o exemplo Uma amostra de 17 eixos usinados foi retirada aleatoriamente de uma linha de produção. O diâmetro foi medido (em mm) e os resultados foram: 12,065 11,992 11,992 11,921 11,945 12,029 11,885 11,997 12,109 11,966 12,081 11,846 12,007 12,011 11,982 A distribuição de valores segue uma distribuição Normal com média =12,0 mm e desvio padrão σX = 0,070 mm. Qual a probabilidade de se ter um eixo com diâmetro maior que 12,2 mm? Solução: Nesse caso, teríamos: 72 U nid. 2 - D istribuição de Probabilidade ou seja, esse valor está a cerca de 2,857σX à direita da média. Logo, P(12,2<X<∞) = P(Z<∞)-P(Z≤2,86) = 1-0,9979 = 0,0021 Há duas aplicações principais da distribuição Normal. Uma de- las lida com a análise de itens que falham devido ao uso, tais como equipamentos mecânicos. Usualmente, as falhas devido ao uso seguem suficientemente bem uma distribuição Normal que ela pode ser utilizada para prever ou fazer considerações sobre a confiabilidade de equipa- mentos e processos. Outra aplicação é
Compartilhar