Baixe o app para aproveitar ainda mais
Prévia do material em texto
Cálculo de Probabilidades Antonio Fernando Beraldo Departamento de Estatística ICE — UFJF Versão Final Compacta — 2014 Coordenação, criação do ambiente gráfico e do repositório de arquivos, e programação em LATEX: Raphael de Freitas Saldanha Revisão e digitação: Ana Darc da Silva Bruno Alves Simões Diego Augusto Elisa Lancini Nogueira Letícia Vale de Lima Lucas Silva Novais Marcelle Souza Pinto Mirela Rigolon Valinote Natália Ferreira de Azevedo Paula Bottoni Ramon Goulart Rosiany Grosman Stéfani Ferreira Vanessa Castro Abreu Victor Lopes Costa Serra Willian Costa Apresentação Esta Apostila é o segundo volume de um conjunto de textos preparados para os alunos dos cursos de Graduação e Pós-Graduação que possuem disciplinas de Estatística em sua grade curricular. Os textos abordam os seguintes temas: Apostila Conteúdo I Estatística Descritiva II Cálculo de Probabilidades III Teoria da Amostragem, Inferência e Testes Estatísticos Em cada capítulo das Apostilas procuramos sintetizar os conteúdos, em textos breves de exposição dos conceitos, seguidos de exemplos de aplicações das fórmulas. Outros materiais didáticos, referenciados no corpo das Apostilas, estão disponí- veis no site do Professor: http://www.ufjf.br/antonio_beraldo A. F. Beraldo iii Agradecimentos Este é um trabalho que reflete a experiência - e aprendizagem - do ensino de Estatística e a valiosíssima contribuição dos alunos nestes 23 anos de atividades na Universidade Federal de Juiz de Fora, como também a prática da aplicação da Estatística em dezenas de dissertações e teses de mestrandos e doutorandos de diversas IES do País. Sem esta contribuição, este trabalho não existiria. Em destaque, agradeço ao estímulo do amigo e parceiro professor Lourival Batista de Olivrira Jr., da Faculdade de Economia da UFJF. Este trabalho também deve, e muito, aos alunos monitores, pela sua paciência meticulosa, e pelo trabalho cuidadoso. A todos os alunos que, com suas críticas e sugestões, me ensinaram o como, o quando e o quê. Esta segunda Apostila é dedicada, in memoriam, a Gabi (1994 - 2006) Et, des pieds jusques à la tête, Un air subtil, un dangereux parfum Nagent autour de son corps brun. — Charles Baudelaire, Les Fleurs du Mal. A. F. Beraldo v Sumário Sumário vi 1 Introdução ao Cálculo de Probabilidades 1 1.1 Conceitos e definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.1 Características de um Experimento Aleatório . . . . . . . . . . . . 3 1.1.2 Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.1.3 Espaço amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.2 Probabilidade: definições . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.1 Definição Clássica de Probabilidades . . . . . . . . . . . . . . . . 10 1.2.2 Definição Frequencista de Probabilidade . . . . . . . . . . . . . . 12 1.2.3 Definição Axiomática de Probabilidade . . . . . . . . . . . . . . . 17 1.3 A Lei da Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.4 A Lei da Multiplicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.5 Probabilidade Condicional: o Teorema de Bayes . . . . . . . . . . . . . . 24 2 Distribuições de Probabilidades de Variáveis Aleatórias Discretas 29 2.1 Variáveis Aleatórias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.2 Distribuição de Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 38 2.2.1 Função de Densidade Acumulada . . . . . . . . . . . . . . . . . . 41 2.3 Esperança Matemática E(X) . . . . . . . . . . . . . . . . . . . . . . . . 43 2.3.1 Propriedades da Esperança . . . . . . . . . . . . . . . . . . . . . . 45 2.4 Variância de Variáveis Aleatórias . . . . . . . . . . . . . . . . . . . . . . 45 2.4.1 Propriedades da variância . . . . . . . . . . . . . . . . . . . . . . 48 2.5 Assimetria e Curtose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.5.1 Assimetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.5.2 Curtose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.6 Pensando Probabilisticamente: os Modelos de Probabilidades . . . . . . . 55 2.7 As Provas de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.8 Distribuição Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.9 Distribuição Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.10 Distribuição Binomial Negativa (ou de Pascal) . . . . . . . . . . . . . . . 76 2.11 Distribuição Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . 77 2.12 Distribuição Multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 2.13 Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 vi A. F. Beraldo SUMÁRIO 3 Modelos de Variáveis Aleatórias Contínuas 89 3.1 Variáveis Aleatórias Contínuas . . . . . . . . . . . . . . . . . . . . . . . . 89 3.2 Parâmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 3.2.1 Esperança Matemática . . . . . . . . . . . . . . . . . . . . . . . . 93 3.2.2 Variância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 3.3 Distribuição Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 3.4 Distribuição Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.5 Distribuição Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 3.5.1 Aproximação entre as Distribuições Binomial e Normal . . . . . . 121 3.6 Distribuição t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 3.7 Distribuição do Qui-quadrado . . . . . . . . . . . . . . . . . . . . . . . . 126 4 Formulários e tabelas 131 4.1 Lista de somatórios e séries . . . . . . . . . . . . . . . . . . . . . . . . . 131 4.2 Tábua de Derivadas e Integrais . . . . . . . . . . . . . . . . . . . . . . . 133 4.2.1 Derivadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 4.2.2 Integrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 4.3 Tabelas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 4.3.1 Coeficiente do Binômio de Newton. Combinação de N objetos, tomados k a k: ( N k ) . . . . . . . . . . . . . . . . . . . . . . . . . . 137 4.3.2 Fatorial de N −N ! . . . . . . . . . . . . . . . . . . . . . . . . . . 138 4.3.3 Valores de e−λ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 4.3.4 Logaritmos naturais ln x . . . . . . . . . . . . . . . . . . . . . . . 139 4.3.5 Áreas sob a Curva Normal Padronizada, entre 0 e z . . . . . . . . 140 4.3.6 Valores dos percentis da Distribuição t de Student . . . . . . . . . 141 4.3.7 Distribuição do Qui-Quadrado para Testes de Hipótese (Teste de Unilaterais) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 A. F. Beraldo vii 1 Introdução ao Cálculo de Probabilidades “No fundo, a Teoria das Probabilidades é apenas o bom senso, expresso em números.” Laplace1 Nesta Apostila estudaremos as primeiras noções do Cálculo de Probabilidades, de importância fundamental na Estatística. Aquilo que hoje é uma ferramenta básica nas Ciências e nos Sistemas de Apoio às Decisões, entre outros usos, começou como uma curiosidade entre matemáticos franceses do século 17, a partir da preocupação de um nobre da corte, viciado em jogos de azar - a moda da época. Conta a História que, por volta de 1650, o Chevalier de Méré2 (1607-1684), um nobre francês, encontrou-se com o matemático Blaise Pascal, em uma viagem. Começaram a conversar para fazer passar o tempo, e de Méré pediu a Pascal uma solução para um problema que intrigava os jogadores havia muito tempo: se um jogo tivesse que ser interrompido, por um motivo qualquer, como seriam determinadas as perdas e os ganhosde cada jogador? E mais: será que não haveria, por trás dos resultados dos jogos de azar, alguma regra, ou algum cálculo que nos permitisse prever estes resultados? Pascal achou o problema interessante, e começou a pensar sobre o assunto. Era uma época em que a intensa matematização das Ciências Naturais comportava anseios deste tipo: uma explicação matemática para um fenômeno aparentemente aleatório... Durante alguns anos, Pascal manteve correspondência com outros estudiosos de matemática da sua época, principalmente Pierre de Fermat. Alguns matemáticos, como Cardano - um século antes -, já tinham estudado problemas ligados aos jogos de azar, mas estes trabalhos foram esquecidos. Pascal e Fermat tiveram que praticamente recomeçar do nada3. 1Pierre Simon de Laplace 2Antoine Gombaud, chevalier de Méré (1607-1684) 3Interessante notar que esta invenção (o Cálculo das Probabilidades), em seu começo, ficou restrita unicamente à correspondência entre Pascal e Fermat. Apenas um pequeno trabalho, de Cristiaan Huygens (1629-1695), em 1657, abordou este assunto. Já nesta época, Pascal tinha abandonado a matemática e se dedicado à Teologia. Fermat morreu em 1665, e o Cálculo de Probabilidades só foi retomado em 1671, por Jan de Witt (1629-1672), em um estudo sobre expectativa de vida e apólices de seguro. A. F. Beraldo 1 1. Introdução ao Cálculo de Probabilidades E começaram fixando alguns conceitos, que formam a base do Cálculo de Probabi- lidades. Este sistema que será a nossa maneira de raciocinar, daqui para frente. E “é curioso notar que uma ciência que começou a partir de considerações sobre jogos de azar tornar-se-ia o mais importante objeto do conhecimento humano” 4. Mas, afinal, o que quer dizer esta palavra, “probabilidade”? Se você recorrer ao dicionário, encontrará algumas definições genéricas ou tautológicas, como “qualidade daquilo que é provável”. Isto não nos serve, em termos de Estatística. O Cálculo das Probabilidades, assim como as outras Matemáticas, como a Geometria ou a Álgebra, parte de algumas definições básicas, de alguns conceitos iniciais, sobre os quais se desenvolve a teoria e a prática. Este capítulo trata disso. 1.1 Conceitos e definições Existem dois tipos de fenômenos: os determinísticos e os não-determinísticos. Os fenômenos determinísticos são aqueles estudados, por exemplo, na Física e na Química do ensino médio. Quando fazemos uma experiência no laboratório, todas as condições do experimento são controladas: a temperatura, a umidade, a luz ambiente. Quando passamos uma corrente elétrica por uma resistência, já sabemos exatamente o que irá ocorrer - os fenômenos de transformação de energia, de geração de calor, de mudança de coloração, etc. Se, no laboratório de Química, reagirmos um ácido com uma base, serão produzidos sal e água. A reação NaOH + HCl sempre produziu NaCl + H2O, e irá produzir o mesmo resultado sempre que repetirmos a experiência. Se um corpo parte do repouso, em movimento retilíneo com velocidade uniforme v, o espaço x percorrido ao fim de um tempo t será dado por x = x0 + vt. Um corpo em queda livre, no vácuo, segue as condições conforme a figura 1.1, a seguir. 4Laplace, Pierre Simon, Théorie Analytique des Probabilités, 1812 2 A. F. Beraldo 1.1 Conceitos e definições Figura 1.1: Corpo em queda livre Neste tipo de experimento, de causa e efeito, procuramos controlar e variar as causas, medindo seu efeito (ou seus efeitos). Quando um corpo cai em queda livre, e o faz sob a ação da gravidade, podemos considerar ou não a resistência do ar, podemos imprimir uma aceleração inicial, podemos retardar sua queda ou modificar sua trajetória alterando sua forma, enfim, podemos controlar a experiência a fim de medir os resultados provocados pela variação das condições. Resumindo, fenômenos determinísticos ocorrem sempre da mesma maneira e as mesmas causas produzirão os mesmos efeitos. No caso do fenômeno, ou do experimento não-determinístico, acontece o oposto. Veja as características de um fenômeno não-determinístico, ou aleatório ε # . 1.1.1 Características de um Experimento Aleatório As características de um Experimento Aleatório não-determinístico são: 1. Antes de realizarmos o experimento, sabemos todos os possíveis resultados que podem acontecer; 2. No entanto, não sabemos qual resultado, em particular, irá efetivamente ocorrer; 3. Todo e qualquer resultado que efetivamente ocorra, será unicamente devido ao acaso; 4. O Experimento Aleatório pode ser repetido infinitas vezes, sob as mesmas condições. Nota: Rigorosamente falando, estas características são de um fenômeno aleatório puro. Isto é apenas um ponto de partida, útil para o estudo das probabilidades, embora saibamos que estas características aplicam-se, para fins de exemplos, apenas a jogos de azar – não-enviesados (honestos). Na vida prática, iremos lidar com fenômenos “não tão aleatórios”, ou seja, fenômenos em que há fatores associados5 às ocorrências. 5Note que não podemos falar em causalidade, e sim, em associação – que pode ser forte ou fraca, com suas gradações. A associação de fatores ligados à ocorrência de um fenômeno é estudada na Apostila V – Análise Estatística de Dados. Lembre-se: causalidade é uma característica de eventos determinísticos, apenas. A. F. Beraldo 3 1. Introdução ao Cálculo de Probabilidades Figura 1.2: Dados de jogar Leia de novo o texto da página anterior. Não faz lembrar as características de um jogo de azar? Pois é isso mesmo (lembre-se do começo histórico do Cálculo de Probabilidades, a conversa entre Pascal e de Méré). Quando você rola um dado, você sabe que irá ocorrer (“sair”) uma das seis faces do dado: Face 1, Face 2, Face 3, Face 4, Face 5 ou Face 6. Apenas uma face irá ocorrer, mas você não sabe qual delas irá “sair”. Se seu dado é honestoa (e você também), você não “força” nenhum resultado, e aquilo que acontecer será obra do acaso (ou da sorte, ou do azar, ou do destino, ou das forças do Bem, como queira ...). E você pode rolar o dado quantas vezes quiser, que ele continua com as mesmas seis faces, do mesmo tamanho, com o mesmo peso, etc. E na próxima vez que você jogar, você está de frente com as mesmas situações: sei quais os possíveis resultados, não sei qual irá ocorrer, tudo depende do acaso, etc. a“Honesto”, em Estatística, é a qualidade de um objeto ser perfeitamente homogêneo e simétrico, em suas características físicas e geométricas. A palavra acaso, em Estatística, significa que o experimentador não intervém no processo, não monitora o experimento nem “força” (enviesa) algum resultado. Acaso pode ser também a “medida da nossa ignorância” sobre as associações de fatores a um determinado resultado. Quando não sabemos o que pode influir em um resultado de um experimento (aleatório), falamos que é “devido ao acaso”. Em experimentos determinísticos, variamos as causas e as condições do experimento para medir seus reflexos nos efeitos. No caso do experimento aleatório, ao contrário, por não sabermos qual será o resultado a ocorrer, nos interessa medir a probabilidade de ocorrência dos diversos resultados possíveis. Nos interessa saber se um resultado é mais, ou menos, provável do que outro. De uma certa forma, estamos “jogando” com resultados. 4 A. F. Beraldo 1.1 Conceitos e definições Exemplo 1.1. Coloque D (determinístico) ou A (aleatório), conforme o caso, nos seguintes fenômenos: � Um ônibus espacial deve entrar na atmosfera da Terra segundo um ângulo e uma velocidade específicas. Caso haja algum erro nessas medidas, ou haja falha no material de revestimento, a nave irá se incendiar. � João gosta de apostar no jogo do bicho, todos os dias, e aposta sempre no elefante (12). Segundo suas contas, já apostou 2.350 vezes, e acertou mais de 200 vezes, e diz que seu método é infalível, pois, a cada 25 dias, sempre haverá um dia que vai “dar” elefante.� José se prepara para o vestibular, e é o primeiro lugar no cursinho onde estuda – além de ter sido sempre um dos melhores alunos nas escolas por onde passou. Assim, não há dúvida de que seu lugar na universidade está garantido. � Meu time vai ganhar o campeonato, sem dúvida! Li no jornal que toda vez que um time perde no primeiro jogo, em noite de lua nova, com 3 jogadores cujos nomes começam com a letra “C”, termina invariavelmente em primeiro lugar? Respostas comentadas D Um ônibus espacial deve entrar na atmosfera da Terra segundo um ângulo e uma velocidade específicas. Caso haja algum erro nessas medidas, ou haja falha no material de revestimento, a nave irá se incendiar. Este é um típico evento determinístico, ou seja, sob as mesmas condições, provocará sempre os mesmos resultados. O ônibus espacial entra na atmosfera terrestre a uma razão de descida de 10 mil metros por minuto. “O ângulo com que o ônibus espacial entra na atmosfera é crítico. Caso seja excessivo, o ‘planador’ poderá saltar sobre o topo da atmosfera assim como uma pedra plana salta sobre a água ou estolar à medida em que a crescente densidade do ar representar uma maior resistência. A recuperação de qualquer um desses eventos é bem improvável. Um ângulo de ataque muito pequeno resultaria em velocidade excessiva e aquecimento por atrito capaz de danificar os bordos de ataque das asas.” 6 6Ver “Colunas aeronáuticas”, em http://www.airandinas.com/shuttle.html A. F. Beraldo 5 1. Introdução ao Cálculo de Probabilidades A João gosta de apostar no jogo do bicho, todos os dias, e aposta sempre no elefante (12). Segundo suas contas, já apostou 2.350 vezes, e acertou mais de 200 vezes, e diz que seu método é infalível, pois, a cada 25 dias, sempre haverá um dia que vai “dar” elefante. Há um tendência natural das pessoas em tentar achar “leis” que predeterminam resultados de um jogo – além das famosas “interpretações de sonhos”, nada freudianas. O raciocínio de João está parcialmente correto, ou seja, a esperança7 deste palpite é que “dê” elefante em um dia, a cada 25 dias (são 25 bichos no jogo). Mas isto não é “infalível”, assim como pode acontecer de ‘dar” elefante em 10 dias seguidos! Porém, a chance disto acontecer é 0,00000000000001, ou seja, nenhuma. A José se prepara para o vestibular, e é o primeiro lugar no cursinho onde estuda – além de ter sido sempre um dos melhores alunos nas escolas por onde passou. Assim, não há dúvida de que seu lugar na universidade está garantido. Não, infelizmente, “garantido” não está, uma vez que existem vários fatores que afetam o desempenho de um candidato (para melhor ou para pior). Dizendo de outra forma, podem ocorrer mudanças nas condições em que ocorre o fenômeno. A Meu time vai ganhar o campeonato, sem dúvida! Li no jornal que toda vez que um time perde no primeiro jogo, em noite de lua nova, com 3 jogadores cujos nomes começam com a letra “C”, termina invariavelmente em primeiro lugar? Isto é pura conversa fiada de jornal .. para vender jornal. Embora sorte (e azar) estejam quase sempre presentes no esporte – e isso faz parte do seu encanto, assim como a superstição e todo o folclore que não para de crescer, não se pode tratar uma competição esportiva nem como um fenômeno determinístico nem como aleatório. E, também, não se pode considerar “palpites”, mesmo vindo de especialistas, como algo matematicamente tratável. No entanto, há um campo no Cálculo de Probabilidades que tem se desenvolvido muito – o que se convencionou chamar de “probabilidade epistêmica” ou subjetivista8. Procura-se, através de “modelos” elaborados por pessoas conhecedoras do esporte, diminuir o nível de aleatoriedade das previsões. Mas, muitas vezes aparece um “azarão” para complicar? 7Esperança é um termo técnico do Cálculo de Probabilidades. É um conceito que será estudado no capítulo 2. 8A este propósito, ver http://www.ilea.ufrgs.br/episteme/portal/pdf/numero18/episteme18_artigo_portugal1.pdf 6 A. F. Beraldo 1.1 Conceitos e definições 1.1.2 Eventos Um resultado possível do Experimento Aleatório, ou um conjunto de resultados possíveis, é chamado evento. Por exemplo, as faces do dado são cada uma delas um evento, chamado evento unitário (aquele que não pode ser decomposto). Os eventos de um experimento podem ser tratados como conjuntos. Assim, temos: Figura 1.3: Conjunto interseção Figura 1.4: Conjunto vazio Na Figura 1.3, temos dois conjuntos, A e B (ou dois eventos, A e B) que possuem um conjunto interseção (leia-se “A e B”). Na Figura 1.4, os eventos A e B não possuem elementos em comum, logo o conjunto interseção é vazio. Figura 1.5: Conjunto união A ∪B (leia-se “A ou B”) A. F. Beraldo 7 1. Introdução ao Cálculo de Probabilidades 1.1.3 Espaço amostral Espaço amostral é o conjunto de todos os eventos de um experimento aleatório. Todos os resultados possíveis do experimento são agrupados neste conjunto, que identi- ficamos pela letra Ω. Figura 1.6: Espaço amostral Os espaços amostrais são, tecnicamente, os resultados (valores) que uma variável pode apresentar. Então, podemos ter espaços amostrais com eventos qualitativos ou quantitativos. Os eventos qualitativos podem ser dicotômicos ou politômicos, e os eventos quantitativos podem ser discretos ou contínuos – veja apostila Estatística I. Exemplo 1.2. Descreva o Espaço Amostral Ω para os seguintes experimentos aleatórios ε # . 1. lançamento de um dado; 2. sexo de um recém-nascido; 3. retirada de uma carta de um baralho; 4. estado de um equipamento; 5. resultado de um jogo de futebol; 6. resultado de um campeonato de futebol com 10 times; 7. resultado de um investimento em ações na bolsa de valores, ao fim de um período; 8. cotação do dólar ao final do ano. 8 A. F. Beraldo 1.1 Conceitos e definições 1. Lançamento de um dado Este é um experimento aleatório clássico. Os eventos unitários são 6 (seis) – o dado é um sólido regular com 6 lados iguais (um cubo, ou hexaedro), ou 6 faces iguais. Podemos, então, descrever o espaço amostral como composto de 6 eventos unitários: Ω = {F1, F2, F3, F4, F5, F6} 2. Sexo de um recém-nascido Supondo que o sexo de uma criança recém-nascida seja um evento aleatório, e sendo que existem 2 sexos (masculino e feminino), dizemos que o espaço amostral como composto de 2 eventos unitários: Ω = {M,F} Ou, melhor Ω = {M,M} Leia-se “masculino e não-masculino”. 3. Retirada de uma carta de um baralho Um baralho tem 52 cartas, agrupadas em 4 naipes. O espaço amostral como composto de 52 eventos unitários: Ω = {A♥, 2♥, 3♥, 4♥, · · · , K♥, A♦, 2♦, 3♦, K♦, · · · , A♣, · · · , K♣} 4. Estado de um equipamento Seja, por exemplo, um aparelho de TV. Podemos adotar, para simplificar, dois estados: funcionando (F ), e não funcionando (F ) 5. Resultado de um jogo de futebol Seja o jogo entre os times A e B. Os eventos são os seguintes: (V)itória do time A, (E)mpate entre A e B, e (D)errota de A. Então, temos Ω = {V,E,D} A. F. Beraldo 9 1. Introdução ao Cálculo de Probabilidades 6. Resultado de um campeonato de futebol com 10 times Supondo que haja critérios de desempate na classificação final, temos: Ω = {1o, 2o, 3o, · · · , 9o, 10o} 7. Resultado de um investimento em ações na bolsa de valores, ao fim de um período Podemos descrever este resultado utilizando um espaço amostral com os resul- tados “lucro”, “prejuízo” e “empate”. Contudo, e mais rico em informações, podemos supor que o resultado seja uma evolução descrita pela razão R = Valor carteira final Valor carteira início, e que esta razão R possa, teoricamente, variar entre 0 (zero) e +∞. Então, o espaço amostral será Ω = {x|x ∈ Q+} (Q+: conjunto dos números racionais positivos). 8. Cotação do dólar ao final do ano Idem ao exemplo anterior, Ω = {x|x ∈ Q+}, sendo x a cotação do dólar. 1.2 Probabilidade: definições As definiçõese os conceitos dados na seção anterior devem estar bem entendidos para que você prossiga no estudo das Probabilidades. Nesta seção, vamos entrar, finalmente, na parte básica da teoria: as definições de Probabilidades. Aqui vamos estudar duas definições: a clássica e a frequencista. Uma outra definição, a axiomática, será apresentada um pouco mais adiante. 1.2.1 Definição Clássica de Probabilidades Esta definição é amplamente utilizada na teoria dos jogos e em exercícios e demons- trações de teoremas. Consiste no seguinte: se um experimento aleatório gera um espaço amostral Ω composto de n eventos unitários9 Ei, de forma que seja: Ω = {E1, E2, E3, · · · , En} A probabilidade de ocorrência de um evento qualquer P (E) é dada pela relação: P (E) = nEΩ (1.1) 9Evento unitário é aquele que não pode ser decomposto. Por exemplo, “Face 4” é um evento unitário, “Face 4 ou 5” é um evento composto. 10 A. F. Beraldo 1.2 Probabilidade: definições na qual P(E) é a probabilidade de ocorrência de um evento, nE é o número de maneiras com que E pode ocorrer e Ω é o tamanho do conjunto espaço amostral. Por exemplo, se em uma urna colocamos 10 bolas, sendo 3 vermelhas, 2 azuis e 5 bolas pretas, ao sortearmos uma bola desta urna, as chances são: • P(bola vermelha) = 3/10 , pois temos 3 bolas vermelhas possíveis de serem sorteadas, num total de dez bolas; • P(bola azul) = 2/10 , pois temos 2 bolas azuis possíveis de serem sorteadas, num total de dez bolas; • P(bola preta) = 5/10 , pois temos 5 bolas pretas possíveis de serem sorteadas, num total de dez bolas. Figura 1.7: Urna Note que, ao determinarmos estas probabilidades, admitimos que todas as bolas dentro da urna possuem a mesma probabilidade de serem sorteadas. Em outras palavras, nenhuma bola tem mais chances de ser sorteada do que qualquer outra. Este espaço amostral é composto de eventos unitários equiprováveis. Note também que as bolas só possuem uma cor, cada, ou seja, não existem bolas com duas cores. Voltando ao exemplo anterior, qual a probabilidade da bola sorteada ser azul ou preta? Aplicando a fórmula, vemos que existem 7 “maneiras” de uma bola ser azul ou preta: 2 “maneiras” (2 bolas) azuis e 5 “maneiras” (5 bolas) pretas. Daí que a probabilidade da bola sorteada ser azul ou preta. P (A ou P ) = 2 + 510 = 7 10 Observação: A probabilidade de ser azul ou preta é expressa da seguinte forma: P (A ∪ P ) Outro exemplo: ao lançarmos um dado, o espaço amostral gerado por este experi- mento é dado por Ω = {F1, F2, F3, F4, F5, F6} A. F. Beraldo 11 1. Introdução ao Cálculo de Probabilidades Assumindo que uma face do dado tem a mesma probabilidade de “sair” como qualquer outra face, temos outro espaço amostral equiprovável10, e que, por exemplo, a probabilidade de “sair” face 4, P (F4) é dada por P (F4) = 16 pois o dado possui 6 faces distintas, equiprováveis, e apenas uma face é a face 4. 1.2.2 Definição Frequencista de Probabilidade Até agora, estudamos casos em que o espaço amostral possui seus eventos unitários equiprováveis. Porém, existem casos em que os eventos unitários constantes do espaço amostral possuem probabilidades de ocorrência indeterminadas. Neste caso, temos que repetir o experimento inúmeras vezes para determinar de que modo os eventos ocorrem ou, em outras palavras, a frequência com que os eventos ocorrem. Por exemplo, seja a frequência de nascimentos de crianças em uma maternidade, segundo o atributo sexo, em alguns meses do ano: 10Esta característica de alguns espaços amostrais serem constituídos de eventos equiprováveis é aceita intuitivamente, mas não é demonstrável. Admite-se, simplesmente, que uma face de um dado possui a mesma probabilidade de ocorrer do que qualquer outra - uma vez que não há razões para supor que isto não seja verdade. 12 A. F. Beraldo 1.2 Probabilidade: definições Tabela 1.1: Frequência de nascimentos na Maternidade XYZ, ao mês. Mês Masculino Feminino Total % Masculino % Feminino 1 34 30 64 53 47 2 29 32 61 48 52 3 37 35 72 51 49 4 24 20 44 55 45 5 24 29 53 45 55 6 30 28 58 52 48 7 34 36 70 49 51 8 27 35 62 44 56 Total 239 245 484 49 51 Note que os percentuais de nascimentos de crianças do sexo feminino e do masculino variam bastante no decorrer dos meses. No entanto, quando se analisam os totais, ao fim dos 8 meses, descobrimos um “percentual médio” de 49% de crianças do sexo masculino e de 51% de crianças do sexo feminino. Veja a tabela seguinte: Tabela 1.2: Frequência Acumulada de nascimentos na Maternidade XYZ, ao mês. Mês Masc. Acum. Fem. Acum. Total Acum. % Masculino % Feminino 1 34 30 64 53 47 2 63 62 125 50 50 3 100 97 197 51 49 4 124 117 241 51 49 5 148 146 294 50 50 6 178 174 352 51 49 7 212 210 422 50 50 8 239 245 484 49 51 Veja que os percentuais sobre as frequências acumuladas parece que vão se concen- trando em torno da relação 50%/50%, no atributo sexo. Embora o nosso número de observações ainda seja pequeno (484 nascimentos , em 8 meses), podemos “prever” que, no próximo mês a ser pesquisado, os nascimentos se distribuirão, em termos do atributo sexo, com 49% para os nascimentos de crianças do sexo masculino, e 51% de crianças do sexo feminino. Repare que esta “previsão” é feita com uma certa “margem de erro”: se, ao invés de 484 nascimentos, a nossa amostra fosse de 4.000 nascimentos, nossa segurança seria muito maior (nossa “margem de erro” seria bem menor). O gráfico a seguir ilustra bem este comportamento: A. F. Beraldo 13 1. Introdução ao Cálculo de Probabilidades Figura 1.8: Percentual Acumulado de nascimentos por sexo Observe o gráfico a seguir, relativo a 5.000 nascimentos, em 72 meses: Linha preta: Masculino. Linha cinza: Feminino. Figura 1.9: Distribuição percentual acumulada 14 A. F. Beraldo 1.2 Probabilidade: definições Note que, a medida em que o tempo passa, e vão nascendo cada vez mais crianças, a frequência acumulada de nascimentos também vai aumentando. A proporção de crianças do sexo masculino “tende” a ser igual à proporção de crianças do sexo feminino - ambos os números convergem para 50%. O percentual médio, para esta amostra, foi de 49,4% para nascimentos de crianças do sexo masculino e de 50,6% de crianças do sexo feminino. Isto nos permite dizer que a próxima criança a nascer terá uma probabilidade em torno de 49% de ser do sexo masculino e de 51% de ser do sexo feminino11. A probabilidade, então, é calculada a partir de um histórico dos casos, observados ao longo de muito tempo, e com amostras bastante grandes. Admite-se que, se os eventos são gerados a partir de um experimento aleatório, a probabilidade de ocorrência do evento, na próxima repetição do experimento aleatório, será a frequência relativa de ocorrência do evento nas últimas n repetições do experimento. Definindo de outra maneira, a probabilidade frequencista de um evento E é dada por: P (E) = lim n→∞ fr(E) (1.2) Ou seja, a probabilidade de um evento E ocorrer, na próxima repetição do experi- mento, é calculada como o limite da frequência relativa do evento, quando o número n de repetições anteriores do experimento é muito grande (n→∞). Comentários: 1. Esta definição de probabilidades pressupõe que temos um número suficiente- mente grande de observações sobre o experimento para que possamos prever quais as chances do evento ocorrer na próxima repetição do experimento. Este “número suficientemente grande” varia conforme o caso que estamos estudando; 2. Outro pressuposto básico é que as condições em que realizamos o experimento aleatório não mudaram. Nem sempre isto é possível. Mas, como na Física 11Este é um valor que se aproxima muito da probabilidade do sexo da criança, se esta fosse calculada de maneira clássica: existem dois sexos “possíveis” no nascimento de uma criança, ou seja, o tamanho do espaço amostral é 2, e seus eventossão supostos distintos e equiprováveis. Daí que a P (masculino) = 1/2, ou 50%, que é um número bastante aproximado de 49% (percentual observado). Este confronto entre as duas formas de calcular uma probabilidade, clássica ou frequencista, será muito utilizado na parte de Testes Estatísticos (Apostila Estatística III). A. F. Beraldo 15 1. Introdução ao Cálculo de Probabilidades ou na Química, podemos lidar com situações ideais, ou teóricas: gases perfeitos, despreza-se a resistência do ar, experimentos no vácuo, etc. 3. Note que a probabilidade clássica é uma probabilidade “a priori”, isto é, antes de realizarmos o experimento, já podemos determinar as probabilidades de cada evento. No caso da probabilidade frequencista, esta é uma probabilidade “a posteriori”, isto é, só podemos calcular as probabilidades após termos feito um grande número de repetições do experimento. Há que se ter muito cuidado com as probabilidades frequencistas, porque as condições de realização do experimento podem ter mudado, entre uma e outra realização. 4. A definição frequencista é utilizada quando a definição clássica não pode ser aplicada, ou quando perde o seu “significado” real. Por exemplo, seja prever o resultado de um jogo de futebol entre o Flamengo F.R. e o Bacuri F.C. Se fossemos aplicar a definição clássica de probabilidades, os eventos possíveis (vitória, empate ou derrota do Bacuri F.C.) teriam probabilidade de 1/3 cada. Por mais briosa e aguerrida que seja a simpática equipe do Bacuri, não se pode admitir que o time tenha 33% de chances de ganhar do Flamengo. Este número, é óbvio, não corresponde à realidade. Daí que, para sabermos as chances de vitória do Bacuri teríamos que ter o retrospecto das últimas partidas entre as duas equipes. Quantomais informações tivermos sobre as duas equipes, mais precisa será nossa previsão. Podemos prever, então, mais acertadamente, que as probabilidades de vitória do Bacuri F.C. estariam em torno de 1%, nesta simulação. 5. Ainda em relação ao Bacuri F.C.: mesmo que o Bacuri ganhasse do Flamengo, isto não invalida o nosso raciocínio. A probabilidade frequencista é aplicada a partir de um histórico de centenas ou milhares de repetições do experimento. Então, devemos dizer que, em cem jogos entre o Flamengo e o Bacuri, este ganharia um jogo (1% de chances). 16 A. F. Beraldo 1.2 Probabilidade: definições 1.2.3 Definição Axiomática de Probabilidade Como você deve estar lembrado do curso médio, axioma é uma afirmação verdadeira, que não precisa ser demonstrada (tal como o ponto e a reta, na Geometria). Se temos um espaço amostral Ω, constituído de uma série de eventos Ei, sendo que existe um número P (Ei) tal que 0 ≤ P (Ei) ≤ 1, para todo i, e que ΣP (Ei) = 1, definimos este número como probabilidade do evento Ei. Veja a figura abaixo: Figura 1.10: Probabilidade axiomática Esta definição é muito útil para o estudo das variáveis aleatórias (Capítulo 2), quando não irá importar muito qual a “origem” do número chamado probabilidade - se foi calculado a partir da definição clássica ou da frequencista. Resumindo o que foi dito, procure lembrar-se que 1. Um experimento aleatório ε # é repetido muitas vezes, sob as mesmas condições; 2. este experimento aleatório resulta num conjunto de eventos, chamado Espaço Amostral Ω; 3. a cada evento E do espaço amostral atribuímos um número, chamado probabili- dade, que exprime a chance deste resultado ocorrer numa próxima repetição do experimento P (E); 4. esta probabilidade pode ser calculada: a) a priori quando se conhece perfeitamente o espaço amostral e seus eventos unitários e pode-se assumir que os eventos unitários são equiprováveis; b) a posteriori, quando se conhece o histórico dos resultados das repetições anteriores do experimento. 5. este número, probabilidade, assume valores entre 0 e 1. Escreve-se 0 ≤ P (E) ≤ 1; A. F. Beraldo 17 1. Introdução ao Cálculo de Probabilidades 6. Ao somarmos as probabilidades de todos os eventos do espaço amostral, o resultado será 1, ou 100%. Escreve-se n∑ 1 P (Ei) = 1 Exemplo 1.3. Suponha que o fenômeno “nascimento de uma criança” seja equivalente, em termos da variável “sexo”, ao sorteio (retirada, com reposição) de bolas de uma urna, que contém duas bolas: uma vermelha e uma azul. Faça uma comparação entre os dois experimentos, utilizando as definições de probabilidade estudadas e os gráficos (figuras 1.8 e 1.9). Figura 1.11: Criança Figura 1.12: Bolas Resposta comentada Imagino que você deve ter utilizado a definição clássica para o caso da retirada de bolas de uma urna, e a definição frequencista para o sexo das crianças. Assim, você deve ter formulado a seguinte relação (sendo “p” a proporção de crianças do sexo masculino): P (A) = p = nAΩ =⇒ limN→∞ p = 0, 5 onde “A” pode ser “bola vermelha” ou “bola azul”, nA = 1, Ω = 2 . Para que esta resposta esteja completa, você deve ter escrito sobre: Diferenças da estimação da probabilidade “a priori” e “a posteriori”; Espaço amostral definido; Convergência entre os valores das probabilidades a medida que n aumenta; Confirmação da aleatoriedade do sexo da criança, a partir de p = 0,5. 18 A. F. Beraldo 1.3 A Lei da Soma 1.3 A Lei da Soma Sejam dois eventos quaisquer, A e B, do espaço amostral gerado por um experimento aleatório. A probabilidade de ocorrer A ou B é dada por P (A ∪B) = P (A) + P (B)− P (A ∩B) (1.3) ou seja: a probabilidade de ocorrência do evento A ou do evento B é calculada como a soma das probabilidades, em separado, de A e de B, menos a probabilidade de um evento que seja, ao mesmo tempo, A e B. Figura 1.13: Espaço amostral Exemplificando: ao lançarmos um dado, a probabilidade de sair Face 1 ou Face 4 é dada pela soma das probabilidades isoladas de Face 1 e Face 4, menos a probabilidade de ocorrência de uma face que seja, ao mesmo tempo, Face 1 e Face 4. Veja a ilustração abaixo: Figura 1.14: Faces de um dado São seis faces possíveis, portanto a probabilidade de sair F1, isoladamente, é igual a 1/6; a de sair F4, isoladamente, é também de 1/6; não existe nenhuma face que seja, ao mesmo tempo, F1 e F4. Daí, A. F. Beraldo 19 1. Introdução ao Cálculo de Probabilidades P (F1 ∪ F4) =P (F1) + P (F4)− P (F1 ∩ F4) P (F1 ∪ F4) =16 + 1 6 − 0 Note que P (F1 ∩ F4) = 0. Quando isto ocorre, isto é, quando A ∩ B = ∅, diz-se que A e B são eventos mutuamente excludentes. Neste caso, A e B são conjuntos disjuntos, não existindo a interseção entre eles. Veja a figura a seguir: Figura 1.15: Espaço amostral, eventos mutualmente excludentes Outro exemplo: Um baralho12 possui 52 cartas, divididas em quatro naipes (ouros, copas, paus e espadas). As cartas de cada naipe são: ás, cartas numeradas de 2 a 10, e três cartas figuradas: valete (J), dama (Q), rei (K). Veja a ilustração a seguir: 12Jogos de azar são excelentes exemplos do “jogo” das probabilidades. No caso do baralho, pela grande quantidade de cartas (eventos unitários), pelo número infinito de jogos e seqüências (espaço amostral), a riqueza é inesgotável. O baralho tem origem oriental, sendo derivado do tarô - que é algo muito mais sério. Na época em que se começou a formular as bases teóricas do Cálculo de Probabilidades, o jogo de cartas era o divertimento preferido da realeza e, de certa forma, reflete o jogo do poder. A sociedade da época continua sendo representada, até hoje, pelos naipes “copas” (clero), “paus” (o povo), “espadas” (a nobreza) e “ouros” (a burguesia); continuamos tendo, no baralho, reis (Kings), rainhas (Queens), Ases (Aces) e Valetes (Jokers). 20 A. F. Beraldo 1.3 A Lei da Soma Figura 1.16: Baralho de cartas Pergunta-se: qual é a probabilidade de, retirando-se aleatoriamente uma carta do baralho, ela seja um ás ou seja do naipe de copas? Existem quatro ases no baralho, sendo um deles do naipe de copas. E existem 13 cartasdo naipe de copas, sendo uma delas um ás. Veja a ilustração a seguir: Figura 1.17: Ases do baralho e as cartas de copas. A. F. Beraldo 21 1. Introdução ao Cálculo de Probabilidades A probabilidade deste evento pode ser escrita P (às∪copas). Pela Lei da Soma, temos que P (às∪copas) = P (às)+P (copas)−P (às∩copas) e P (às∩copas) > 0, pois o evento (às ∩ copas) é o próprio ás de copas. Daí, P (às ∪ copas) = P (às) + P (copas)− P (às ∩ copas) = 452 + 13 52 − 1 52 = 16 52 É interessante fazer os cálculos utilizando frações, pois desta forma pode-se ter uma idéia mais definida do quantitativo do espaço amostral e do numerador da probabilidade clássica. O exemplo acima ilustra o porquê da existência da terceira parcela da fórmula da Lei da Soma. Quando efetuamos a contagem dos ases, contamos todos os quatro, e um deles era o ás de copas. Quando efetuamos a contagem das cartas do naipe de copas, contamos novamente o ás de copas. Daí que houve uma contagem em duplicidade (o ás de copas foi contado duas vezes). Para remediar este problema é que foi introduzida a terceira parcela, subtrativa, na fórmula. Como foi dito, quando P (A ∩ B) = 0 a expressão para a Lei da Soma reduz-se a P (A ∪B) = P (A) + P (B). 1.4 A Lei da Multiplicação Sejam dois eventos quaisquer, A e B, do espaço amostral gerado por um experimento aleatório. A probabilidade de ocorrer A e B é dada por: P (A ∩B) = P (A)P (B|A) (1.4) Ou seja: a probabilidade de ocorrência do evento A e do evento B é calculada como o produto da probabilidade de ocorrência de A, (P (A)), pela probabilidade de ocorrência de B , depois de A ter ocorrido (P (B|A)). Seja, por exemplo, a retirada de duas cartas do baralho, uma após a outra. Qual a probabilidade de ambas serem ases? Pela Lei da Multiplicação, temos que: P (A1 ∩ A2) = P (A1)× P (A2|A1) Leia-se “a probabilidade de obtermos ‘ás’ na primeira carta, e ‘ás’ na segunda carta, é igual ao produto da probabilidade de ‘ás’ na primeira carta, pela probabilidade de ‘ás’ na segunda carta, desde que tenha saído ‘ás’ na primeira carta”. Então, 22 A. F. Beraldo 1.4 A Lei da Multiplicação P (A1 ∩ A2) = P (A1)× P (A2|A1) = ( 4 52 )( 4 52 ) = 162704 = 0, 006 = 0, 6% Correto? Nem tanto. Ao realizarmos o cálculo acima, partimos da suposição de que a primeira carta retirada voltou ao baralho, isto é, que foi um experimento feito com reposição. Se, ao contrário, a primeira carta não fosse reposta, o resultado correto seria: P (A1 ∩ A2) = P (A1)× P (A2|A1) = ( 4 52 )( 3 51 ) = 122652 = 0, 0045 = 0, 45% Note que tanto o numerador quanto o denominador da segunda parcela da multipli- cação foram alterados. Isto ocorre porque, devido a um ás ter saído na primeira carta, e esta não tendo sido reposta, o número de ases no baralho caiu de 4 para 3, assim como o número de cartas no baralho caiu de 52 para 51. A segunda repetição do experimento depende do que aconteceu na primeira. Os dois eventos são ditos dependentes. Assim: Dois eventos, A e B, são ditos independentes quando P (B|A) = P (B) Dois eventos, A e B, são ditos dependentes quando P (B|A) 6= P (B) Comentários 1. É preciso prestar atenção nesta classificação quando estivermos simulando expe- rimentos. Alguns experimentos aleatórios são evidentemente dependentes, outros claramente independentes. De qualquer forma, já na descrição do espaço amostral, ou dos próprios procedimentos da simulação, encontramos indícios do tipo de evento a se considerar. 2. Em geral, a probabilidade resultante da combinação de eventos dependentes resulta menor do que a de eventos independentes, mas isso não pode ser tomado como regra. A. F. Beraldo 23 1. Introdução ao Cálculo de Probabilidades 1.5 Probabilidade Condicional: o Teorema de Bayes Imagine duas urnas, U1 e U2, contendo bolas brancas e bolas vermelhas. Na urna U1 foram colocadas 25 bolas brancas e 45 vermelhas. Na urna U2, são 20 bolas brancas e 50 vermelhas. Supõe-se que não haja nenhuma “preferência” por qualquer das duas urnas. Sorteada uma bola, verificou-se ser da cor branca. Qual é a probabilidade de ter saído da urna U2? Considere a Figura 1.18. Figura 1.18: Urnas e bolas Supondo que não haja nenhum motivo para que seja sorteada qualquer uma das urnas, temos P(U1) = P(U2) = 12 ; a probabilidade de extração de bolas brancas é P(B |U1) = 2570 , e P(B |U2) = 20 70 . Leia P(B |U1) como “probabilidade de sortearmos bola branca na urna U1”, e P(B |U2) como “probabilidade de sortearmos bola branca na urna U2”. Considerando as duas urnas, temos que a “probabilidade de extração de bolas brancas” é dada por P(U1) P(B |U1) + P(U2) P(B |U2) = 12 × 25 70 + 1 2 × 20 70 = 45 140 , como pode ser observado na figura 1.16. A probabilidade que procuramos é P(U2 | B), “probabilidade de que a bola tenha saído da urna U2, dado que seja branca”. Então, pela definição clássica, temos: P (U2|B) = 1 2 × 20 70 1 2 × 25 70 + 1 2 × 20 70 = 20 140 45 140 = 2045 = 0, 44 Esta é uma aplicação do chamado “Teorema de Bayes”, ou da “probabilidade das causas”. É uma decorrência da Lei da Multiplicação, sendo largamente utilizado nas áreas da Saúde e da Teoria da Informação. Foi apresentado (postumamente) pelo Rev. Thomas Bayes (1701-1761), de onde vem o seu nome. Sua formulação é muito simples: 24 A. F. Beraldo 1.5 Probabilidade Condicional: o Teorema de Bayes Sejam dois conjuntos A e B, representados a seguir: Figura 1.19: Interseção dos conjuntos Pela Lei da Multiplicação, temos que P (A ∩B) = P (A)× P (B|A) P (B ∩ A) = P (B)× P (A|B) Se considerarmos P (A ∩B) = P (B ∩ A), temos P (A)× P (B|A) = P (B)× P (A|B) e, portanto P (A|B) = P (A)× P (B|A) P (B) (1.5) que é o enunciado mais simples do Teorema. O enunciado geral do Teorema de Bayes é o seguinte: Seja um espaço amostral Ω com n eventos mutuamente excludentes (A1, A2, A3, · · · , An), e seja B um outro evento deste espaço amostral. São conhecidas todas as probabilidades condicionais P (B|Ai). A. F. Beraldo 25 1. Introdução ao Cálculo de Probabilidades Temos que, para determinado evento Ai P (Ai|B) = P (Ai)P (B|Ai) P (A1)P (B|A1) + P (A2)P (B|A2) + P (A3)P (B|A3) + · · ·+ P (An)P (B|An) (1.6) ou P (Ai|B) = P (Ai)× P (B|Ai)∑n 1 P (Ai)× P (B|Ai) (1.7) Explicando melhor: Imagine o seguinte espaço amostral Ω Figura 1.20: Espaço amostral Note que todos os eventos Ai são mutuamente excludentes, representados neste diagrama por conjuntos disjuntos, ou seja, a interseção Ai ∩ Aj = �, para qualquer i, j. Superpomos a este espaço amostral um outro subconjunto B ⊂ Ω: Figura 1.21: Espaço amostral 26 A. F. Beraldo 1.5 Probabilidade Condicional: o Teorema de Bayes O conjunto B pode ser descrito como B = (A1∩B)∪ (A2∩B)∪ (A3∩B)∪ (A4∩B). Veja a ilustração abaixo: Figura 1.22: Espaço amostral A partir da figura acima, você pode compor as seguintes expressões (aplicando as leis da Soma e da Multiplicação): P (Ai|B) = P (Ai)P (B|Ai) P (A1)P (B|A1) + P (A2)P (B|A2) + P (A3)P (B|A3) + · · ·+ P (An)P (B|An) e P (Ai|B) = P (Ai)× P (B|Ai)∑n 1 P (Ai)× P (B|Ai) A. F. Beraldo 27 1. Introdução ao Cálculo de Probabilidades Além deste Capítulo, pratique: Faça agora os exercícios da Lista 2.1 - Introdução ao cálculo de probabilidades. Faça agora uma simulação destas medidas nos templates TP02 - Introdução ao cálculo de probabilidades e TP03 - Introdução ao cálculo de probabilidades. Assita ao audiovisual AV08 - Introdução ao cálculo de probabilidades. Faça o Estudo Dirigido ED08 - Introdução ao cálculo de probabilidades. 28 A. F. Beraldo 2 Distribuições de Probabilidades de Variáveis Aleatórias Discretas 2.1 Variáveis Aleatórias Imagine o seguinte experimento aleatório: dois globos, destes de sorteio de loterias,contém, cada um, 10 bolinhas numeradas de 1 a 10. Os globos são postos a girar e, de cada um, fazemos com que saia uma bolinha. Em seguida, somamos os números das bolinhas sorteadas: Figura 2.1: Sorteio de números em loterias Os possíveis resultados da soma dos números das duas bolinhas estão no quadro abaixo. No cabeçalho do quadro, estão os números possíveis de sair na bolinha 1: 1, 2, 3, 4, · · · , 8, 9, 10. Na primeira coluna da esquerda, os números possíveis de sair na bolinha 2: 1, 2, 3, · · · , 8, 9, 10. No corpo do quadro estão as possíveis somas dos números: A. F. Beraldo 29 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas Figura 2.2: Possíveis somas A menor soma possível é 2 (quando ocorrem os eventos “número 1” na bolinha 1, e “número 1” na bolinha 2), e a maior, 20 (quando ocorrem os eventos “número 10” na bolinha 1, e “número 10” na bolinha 2). São 100 “somas” possíveis e estes eventos ocorrem apenas uma vez, cada. Portanto, podemos escrever: P (soma = 2) = 1/100 ou 1% P (soma = 20) = 1/100 ou 1% Chamando as diversas somas possíveis de “S”, ou melhor, de variável aleatória S, calculamos (utilizando o conceito da probabilidade clássica) as probabilidades de S assumir seus valores, de 2 a 20. Para S = 3, isto ocorre 2 vezes em 100, ou seja, P (S = 3) = 2/100. Para S = 4, a ocorrência é de 3 eventos em 100, ou P (S = 4) = 3/100. E assim por diante. Note que a probabilidade é sempre crescente, à medida que a variável aleatória S vai assumindo valores cada vez maiores: P (S = 8) = 7/100, P (S = 9) = 8/100 ... P (S = 11) = 10/100. A partir de S = 11, os valores das probabilidades começam a cair: P (S = 12) = 9/100, P (S = 13) = 8/100 ... até P (S = 20) = 1/100. Outra coisa: veja que esta distribuição de probabilidades é simétrica, em torno de P (S = 11), que é o seu valor máximo. E que P (S = 2) = P (S = 20), P (S = 3) = P (S = 19), P (S = 4) = P (S = 18), etc. Isto ocorre devido à simetria da distribuição. Na tabela seguinte estão dispostas as probabilidades dos diversos eventos possíveis ou, em outras palavras, está descrito o espaço amostral da variável aleatória S: 30 A. F. Beraldo 2.1 Variáveis Aleatórias Tabela 2.1: Probabilidades para S Soma S P(S) 2 1/100 3 2/100 4 3/100 5 4/100 6 5/100 7 6/100 8 7/100 9 8/100 10 9/100 11 10/100 12 9/100 13 8/100 14 7/100 15 6/100 16 5/100 17 4/100 18 3/100 19 2/100 20 1/100∑ 100/100 = 1, 00 A soma das probabilidades para todos os possíveis valores de S é igual a 100/100, ou 1, ou 100% (se estivermos lidando com percentuais). Isto ocorre em todas as distribuições de probabilidades, e é uma característica muito importante. Podemos escrever 19∑ 1 P (Si) = 1 ou, genericamente, n∑ 1 P (xi) = 1 (2.1) ou seja, se a variável aleatória X pode assumir n valores, de 1 a n, o somatório das probabilidades de todos os valores que X pode assumir é igual a 1 (ou 100%). A. F. Beraldo 31 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas Podemos fazer um gráfico da distribuição de probabilidades de S, a partir da tabela 2.1. Figura 2.3: Distribuição de probabilidades de S Note o formato gráfico: parece um triângulo - daí que esta é chamada, também, uma distribuição triangular de probabilidades. Se você somar as áreas dos retângulos1, encontrará o valor 100%, ou 1. Podemos estar interessados em outros aspectos do experimento aleatório. Se este fosse um jogo, poderíamos apostar, por exemplo, em eventos como “a soma dos números das bolinhas será menor que determinado valor”, ou que “a que a soma dos números das bolinhas estará entre tal e qual valor”. Uma informação importante é a probabilidade de que S assuma um valor igual ou menor que determinado valor k. Por exemplo, a probabilidade de que S assuma um valor menor ou igual a 6 está ilustrada a seguir: 1Lembrando que a área de um retângulo, no gráfico considerado, é igual ao produto da base por sua altura. Todos os retângulos possuem bases de largura igual, que consideramos unitária. Assim, a área do primeiro retângulo à esquerda é igual a 1 x 1% , a área do segundo retângulo é igual a 1 x 2%, e assim por diante. Então, a soma das áreas dos retângulos será igual a (1 × 1%) + (1 × 2%) + (1 + 3%) + · · ·+ (1× 3%) + (1× 2%) + (1× 1%) = 100% 32 A. F. Beraldo 2.1 Variáveis Aleatórias Figura 2.4: Somas possíveis, S ≤ 6 A área mais escura contém 15 somas possíveis, ou seja, a P (S ≤ 6) = 15/100, ou 15%. Podemos fazer este cálculo para todos os valores possíveis de S, e construir a tabela abaixo: Tabela 2.2: Probabilidades Acumuladas de S k P (S = K) P (S ≤ k) 2 1% 1% 3 2% 3% 4 3% 6% 5 4% 10% 6 5% 15% 7 6% 21% 8 7% 28% 9 8% 36% 10 9% 45% 11 10% 55% 12 9% 64% 13 8% 72% 14 7% 79% 15 6% 85% 16 5% 90% 17 4% 94% 18 3% 97% 19 2% 99% 20 1% 100% A terceira coluna da tabela é chamadaDistribuição Acumulada de Probabilida- des, ou Distribuição de Probabilidade Acumulada, e contém os valores de P (S ≤ k), ou A. F. Beraldo 33 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas seja, a probabilidade da variável aleatória S assumir um valor igual ou menor que um valor k. Os valores desta coluna podem ser colocados em um gráfico, como a seguir: Figura 2.5: Distribuição de probabilidade acumulada Este é um gráfico de pontos, uma vez que, na prática, S só assume valores inteiros, entre 2 e 20. No entanto, podemos unir estes pontos por uma linha suave, obtendo um gráfico de melhor visualização e leitura – embora não seja rigorosamente correto, para variáveis aleatórias discretas. Figura 2.6: Distribuição da Função Acumulada de Probabilidades A partir deste gráfico, pode-se determinar, teoricamente, as probabilidades de P (S ≤ k) mesmo que k seja um número fracionário. Por exemplo, P (S ≤ 10, 5), 34 A. F. Beraldo 2.1 Variáveis Aleatórias que é aproximadamente igual a 48% (verifique você mesmo). É claro que esta é uma probabilidade teórica. A probabilidade de S estar entre dois valores, que é uma informação também muito importante, pode ser visualizada neste exemplo: queremos saber a probabilidade de S estar entre 8 e 14, inclusive, ou, escrevendo de outra forma P (8 ≤ S ≤ 14). Para determinar esta probabilidade, podemos utilizar a ilustração abaixo: Figura 2.7: Somas possíveis entre 8 e 14 Contando o número de somas entre 8 e 14, temos 58 somas possíveis, em 100, ou 58%2. Veja a ilustração desta probabilidade no gráfico a seguir: Figura 2.8: Distribuição de probabilidades para S 2Notar que as somas que não pertencem a este intervalo (8 ≤ S ≤ 14) são em número de 42. Isto atende ao critério de um modelo de probabilidades em que P (A ∪ B) = 1, se A ∪ B = Ω, o que é o presente caso. Se considerarmos A = (8 ≤ S ≤ 14), e B = (S < 8 ∪ S > 14), temos P (A) = 58% e P (B) = 42%, e P (A) + P (B) = 100%. A. F. Beraldo 35 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas As colunas mais escuras somam a área de probabilidades entre 8 e 14, ou P (8 ≤ S ≤ 14). Ao somarmos a área destas colunas encontraremos o valor de 58%, correspondente ao que havíamos determinado anteriormente. Podemos também utilizar a tabela de distribuição de probabilidades e somar as probabilidades das somas 8, 9, 10, · · · , 14: Figura 2.9: Probabilidade acumulada de S Outra maneira, ainda utilizando a tabela de distribuição de probabilidades acumu- ladas, seria calcular P (S ≤ 14)− P (S ≤ 7) = 79%− 21% = 58%. Figura 2.10: Probabilidade acumulada de S 36 A. F. Beraldo 2.1 Variáveis Aleatórias Este exemplo ilustra algumas das características das variáveis aleatórias. Vamos agora definir melhor alguns destes conceitos: Variável Aleatória: Seja um experimento aleatório e que gera uma série de eventos e1, e2, e3, ...en. O conjunto destes eventos é chamado, como vimos, espaço amostral (Ω). Se a cada um destes eventospudermos atribuir um número (ou se já forem resultados numéricos, per si), esta coleção de números é chamada de valores de uma variável aleatória. A soma S das bolinhas sorteadas, conforme mostrado anteriormente, é uma variável aleatória que pode assumir os valores 2, 3, 4, ..., 20. Figura 2.11: Variável aleatória Outros exemplos de variável aleatória seriam • As faces de um dado; • a soma das faces de dois dados lançados; • a temperatura média dos dias de março a agosto de determinado ano; • o número de lâmpadas queimadas após 4.000 horas de uso; • a durabilidade de um componente eletrônico de um microcomputador; • o volume de tráfego em um cruzamento de ruas da cidade, medido de hora em hora, durante 100 dias; • o número de crianças vacinadas em determinado bairro da cidade. Variáveis aleatórias podem ser discretas ou contínuas. Um Variável Aleatória Discreta (VAD) é aquela que assume valores pertencentes ao conjunto dos Naturais, mais o zero: 0, 1, 2, 3, ... Ou seja: x ∈ N A. F. Beraldo 37 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas Exemplos de Variável Aleatória Discreta: • número de filhos de um casal (filhos do sexo masculino); • número de acertos em questões de múltipla escolha, numa prova de 50 questões; • número de fregueses de uma lanchonete, em determinada hora do dia; • número de vitórias do seu time, num campeonato com 10 jogos (para cada time); • número de candidatos em um concurso vestibular. Variáveis Aleatórias Contínuas são estudas no Capítulo 3. 2.2 Distribuição de Probabilidades O conjunto formado pelos valores das variáveis aleatórias e as probabilidades destas variáveis é chamado Distribuição de Probabilidades. Pode ser apresentado numa tabela ou sob a forma de função, tal como P (X = x) = f(x) (2.2) Para que uma função qualquer seja uma função de probabilidade de Variável Alea- tória Discreta (VAD), são necessárias duas condições: 1. 0 ≤ f(x) ≤ 1 , ou 0 ≤ P (X = x) ≤ 1 para todo x ∈ N (2.3) 2. n∑ 1 P (xi) = 1 (2.4) 38 A. F. Beraldo 2.2 Distribuição de Probabilidades Considere os seguintes exemplos de distribuição de probabilidades: Exemplo 2.1. Em uma urna são colocadas 20 bolas coloridas, sendo 10 bolas verdes, 5 azuis, 3 pretas e 2 brancas. O experimento consiste em retirarmos 4 bolas, com reposição. Qual é a distribuição de probabilidades para o número de bolas verdes? O número de bolas verdes varia de 0 a 4, ou seja, podemos ter de “nenhuma bola verde” a “todas as bolas verdes”. Se dermos o nome de X à variável aleatória discreta que representa o “número de bolas verdes”, dizemos que X varia de 0 a 4. A probabilidade de obtermos “bola verde” em qualquer das bolas retiradas é P (V ) = 1020 = 10 bolas verdes 20 bolas na urna ou seja, 0,5 (o experimento é feito com reposição, os eventos são independentes). A distribuição de probabilidades é a seguinte: Número de bolas verdes x P (X = x) 0 0,0625 1 0,2500 2 0,3250 3 0,2500 4 0,0625 Σ 1,0000 Tabela 2.3: Distribuição de probabilidades Não se preocupe, agora, em saber como foram calculadas estas probabilidades (embora você já saiba como calcular P (X = 0) e P (X = 4). Isto será visto no tópico Distribuição Binomial de Probabilidades, a seguir. O que você deve notar é que esta distribuição cumpre os requisitos: 1. 0 ≤ f(x) ≤ 1 , ou 0 ≤ P (X = x) ≤ 1 para todo x ∈ N 2. n∑ 1 P (xi) = 1 A. F. Beraldo 39 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas As distribuições de probabilidade podem ser representadas em gráficos. Para o caso de variáveis aleatórias discretas, é usual representarmos as probabilidades por pontos, ou por colunas ou ligarmos os pontos por segmentos de reta: Figura 2.12: Distribuição de probabilidade 40 A. F. Beraldo 2.2 Distribuição de Probabilidades 2.2.1 Função de Densidade Acumulada Função de Densidade Acumulada, ou Função de Distribuição de Probabilidades Acumuladas, ou, mais simplesmente, Função de Distribuição, é definida como P (X ≤ xk) = F (xk) = k∑ 1 f(xi) (2.5) para o caso de VAD. Veja o exemplo a seguir: Exemplo 2.2. Seja a distribuição de probabilidades dada por x, p(x) cujos valores estão na tabela a seguir: x p(x) 0 0,0313 1 0,1563 2 0,3125 3 0,3125 4 0,1563 5 0,0313 Tabela 2.4: Distribuição de probabilidades O espaço amostral é formado pelos elementos do conjunto {0, 1, 2, 3, 4, 5}. Os valores das probabilidades p(x) foram calculados pela distribuição binomial. x p(x) P (x) 0 0,0313 0,0313 1 0,1563 0,1875 2 0,3125 0,5000 3 0,3125 0,8125 4 0,1563 0,9668 5 0,0313 1,0000 Tabela 2.5: Distribuição de probabilidades Os valores da coluna p(x) foram calculados da seguinte maneira: • Para x = 0, P (x) = p(x), ou seja, repetimos o valor de p(x); • para x = 1, P (x) = p(x = 0) + p(x = 1); A. F. Beraldo 41 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas • para x = 2, P (x) = p(x = 0) + p(x = 1) + p(x = 2); E assim por diante. Figura 2.13: Função Distribuição (ou Distribuição de Probabilidade Acumulada) 42 A. F. Beraldo 2.3 Esperança Matemática E(X) 2.3 Esperança Matemática E(X) A Esperança Matemática, Expectância ou Valor Esperado de uma variável aleatória, que simbolizamos por E(x), é dada pela expressão E(X) = n∑ 1 xip(xi) (2.6) A Esperança Matemática pode ser definida como o valor mais provável de um experimento, uma espécie de “medida de tendência central” de uma distribuição de probabilidades. Alguns autores definem a esperança Matemática como o “centro”, ou “baricentro”, centro de gravidade da distribuição. Outros utilizam o conceito de média, por analogia com a Esperança Matemática e pela similaridade das fórmulas3. Seja o exemplo 1.1, das bolinhas sorteadas. O espaço amostral é o seguinte: Figura 2.14: Espaço amostral O valor mais provável é a soma 11, como se pode ver na ilustração acima (diagonal sombreada). A soma 11 ocorre 10 vezes em 100 resultados possíveis. A tabela a seguir é a distribuição de probabilidades deste caso: 3Realmente, se compararmos as fórmulas da média de uma distribuição de Frequência (utilizando as Frequências relativas) e a da Esperança Matemática para as variáveis aleatórias discretas, existe muita semelhança. Veja: Σxi × fri (onde xi é o ponto médio da classe e fri é a Frequência relativa da classe) e E(x) = ∑ i xi × p(xi), e se, segundo a definição frequencista de probabilidade, podemos dizer que fr ∼= p(x), as expressões se equivalem. A. F. Beraldo 43 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas Tabela 2.6: Distribuição de probabilidades de S Soma S P(S) 2 1/100 3 2/100 4 3/100 5 4/100 6 5/100 7 6/100 8 7/100 9 8/100 10 9/100 11 10/100 12 9/100 13 8/100 14 7/100 15 6/100 16 5/100 17 4/100 18 3/100 19 2/100 20 1/100∑ 100/100 = 1, 00 Utilizando uma terceira coluna para os produtos Si × p(Si), temos: Tabela 2.7: Distribuição de probabilidades de S Soma S P(S) Si.p(Si) 2 1/100 0,02 3 2/100 0,06 4 3/100 0,12 5 4/100 0,20 6 5/100 0,30 7 6/100 0,42 8 7/100 0,56 9 8/100 0,72 10 9/100 0,90 11 10/100 1,10 12 9/100 1,08 13 8/100 1,04 14 7/100 0,98 15 6/100 0,90 16 5/100 0,80 17 4/100 0,68 18 3/100 0,54 19 2/100 0,38 20 1/100 0,20∑ 11,00 44 A. F. Beraldo 2.4 Variância de Variáveis Aleatórias A soma dos produtos Si × p(Si) é igual a 11,0. Portanto: E(S) = n∑ 1 Si × p(Si) = 11 2.3.1 Propriedades da Esperança Seja uma distribuição de probabilidades, com esperança E(X): 1. E(X + k) = E(X) + k onde k é uma constante 2. E(k ×X) = k × E(X) onde k é uma constante 3. E(X + Y ) = E(X) +E(Y ) onde Y é uma variável aleatória com esperança E(Y ) 4. E(X × Y ) = E(X)× E(Y ) onde X e Y são variáveis aleatórias independentes. 2.4 Variância de Variáveis Aleatórias Na seção anterior, foi feita uma analogia entre aEsperança Matemática, E(X), e a estatística média X pela semelhança entre suas fórmulas de cálculo. Esta analogia não para ali. Por exemplo, se dizemos que a durabilidade média de um cabeçote de leitura de um CD player é de 4.000 horas, ou, melhor definindo, a E(X) = 4.000 (x é uma variável aleatória contínua, durabilidade em horas), pode ter acontecido que este parâmetro veio de uma distribuição de probabilidades como abaixo: Tabela 2.8: Durabilidade Durabilidade, x (horas) P (X) 2,000 0,20 3,000 0,30 5,000 0,30 6,000 0,20 O que diz esta tabela? Temos que a metade dos cabeçotes tem durabilidade inferior a 4.000 horas, sendo que 20% dos cabeçotes são de qualidade bem inferior, durando até 2.000 horas. Por outro lado, a outra metade dos cabeçotes dura acima de 4.000 horas, com 20% de qualidade muito superior, chegando a durar 6.000 horas. Existe uma dispersão muito grande para a variável aleatória e pode ser que a Esperança E(X) seja “enganosa”. Precisamos de uma medida estatística para avaliar a esperança. Uma A. F. Beraldo 45 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas destas medidas é a variância, aqui notada por Var(x), ou σ2 e definida, para variáveis discretas, como: Var(x) = n∑ 1 (xi − E(x))2p(xi) (2.7) A raiz quadrada da variância é definida como desvio padrão da distribuição de probabilidades de x, aqui notado pela letra grega σ , ou σ(x) - podemos também fazer s(x) significar o desvio padrão: σ(x) = s(x) = √ Var(x) (2.8) Uma outra fórmula para o cálculo da variância é a seguinte: Var(X) = E(X2)− (E(X))2 (2.9) 46 A. F. Beraldo 2.4 Variância de Variáveis Aleatórias Exemplo 2.3. Seja calcular a variância da distribuição de probabilidades, conforme Tabela 2.9. Tabela 2.9: Distribuição de probabilidades de S Soma S P(S) Si.p(Si) 2 1/100 0,02 3 2/100 0,06 4 3/100 0,12 5 4/100 0,20 6 5/100 0,30 7 6/100 0,42 8 7/100 0,56 9 8/100 0,72 10 9/100 0,90 11 10/100 1,10 12 9/100 1,08 13 8/100 1,04 14 7/100 0,98 15 6/100 0,90 16 5/100 0,80 17 4/100 0,68 18 3/100 0,54 19 2/100 0,38 20 1/100 0,20∑ 11,00 Notar que a esperança E(S) já está calculada (E(S) = 11, 0). A expressão de cálculo da variância Var(s) é Var(X) = ∑(x − E(X))2 × P (x). Montamos o cálculo da variância Var(S) passo a passo, com as colunas (S − E(s)), (S − E(s))2 e (S − E(s))2 × P (s). A. F. Beraldo 47 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas Tabela 2.10: Variância da distribuição de probabilidades Soma S P(S) S.P (S) S − E(S) (S − E(S))2 (S − E(S))2p(s) 2 0,01 0,02 −9 81 0,81 3 0,02 0,06 −8 64 1,28 4 0,03 0,12 −7 49 1,47 5 0,04 0,20 −6 36 1,44 6 0,05 0,30 −5 25 1,25 7 0,06 0,42 −4 16 0,96 8 0,07 0,56 −3 9 0,63 9 0,08 0,72 −2 4 0,32 10 0,09 0,90 −1 1 0,09 11 0,10 1,10 0 0 0,00 12 0,09 1,08 1 1 0,09 13 0,08 1,04 2 4 0,32 14 0,07 0,98 3 9 0,63 15 0,06 0,90 4 16 0,96 16 0,05 0,80 5 25 1,25 17 0,04 0,68 6 36 1,44 18 0,03 0,54 7 49 1,47 19 0,02 0,38 8 64 1,28 20 0,01 0,20 9 81 0,81∑ 1,00 11,00 16,50 Portanto, a variância, dada por Var(X) = ∑(x − E(X))2P (x), é igual a 16,50. O desvio-padrão será σ(x) = √ Var(x) = √ 16, 50 = 4, 06. Comentários Ainda dessa vez, não se preocupe muito com o significado desta estatística (vari- ância). Preocupe-se com o significado do desvio padrão, que é uma das medidas mais importantes de um processo. Para o estudo das variáveis aleatórias, podem ser feitas as mesmas considerações do Capítulo 3 da Apostila de Estatística Descritiva. 2.4.1 Propriedades da variância Seja uma distribuição de probabilidades, com esperança E(X) e variância Var(X). 1. Var(kX) = k2Var(X) onde k é uma constante. 2. Se X e Y são variáveis aleatórias independentes a) Var(X + Y ) = Var(X) + Var(Y ) b) Var(X − Y ) = Var(X) + Var(Y ) 3. Var(X + k) = Var(X) 48 A. F. Beraldo 2.5 Assimetria e Curtose 2.5 Assimetria e Curtose Os conceitos de Assimetria e Curtose, em conjuntos de dados numéricos, já foram estudados na Apostila I – Estatística Descritiva. Adaptamos estes conceitos para distribuições de probabilidade: 2.5.1 Assimetria Uma distribuição de variável aleatória é assimétrica (positiva ou negativa) quando as maiores densidades de probabilidades ocorrem nos valores inferiores ou superiores do domínio da variável. Veja os gráficos a seguir: Figura 2.15: Assimetria positiva Numa distribuição assimétrica positiva, as maiores probabilidades estão para os valores de x = 1 e x = 2. A. F. Beraldo 49 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas Figura 2.16: Assimetria negativa Numa distribuição assimétrica negativa, as maiores probabilidades estão para os valores de x = 4 e x = 5. Figura 2.17: Simetria Numa distribuição simétrica, as maiores probabilidades estão concentradas em torno da esperança E(x). 50 A. F. Beraldo 2.5 Assimetria e Curtose A medida da assimetria, em distribuições de probabilidades de variável discreta, é dada por: α3 = ∑(x− E(x))3p(x) s(x)3 = ∑ d3p(x) s3 , fazendo d = x− E(x) (2.10) O α3 (alfa-três) pode ser negativo, positivo ou nulo, conforme a distribuição tenha assimetria negativa, positiva, ou seja simétrica. 2.5.2 Curtose Curtose é a característica (visual) de achatamento, maior ou menor, de uma dis- tribuição de probabilidades. Em termos de concentração de probabilidades, quanto mais concentradas as probabilidades em uma região do domínio da variável aleatória, menos “achatado” nos parece o gráfico da função densidade. Assim, as distribuições das variáveis aleatórias podem ser platicúrticas (muito achatadas) ou leptocúrticas (pontiagudas), ou mesocúrticas (uma categoria intermediária). Observe a seguir: Figura 2.18: Distribuição leptocúrtica Neste tipo de distribuição, obtemos valores de desvios padrões muito pequenos, e uma forte concentração (maior densidade) em torno da esperança. No caso de uma distribuição mesocúrtica, os picos dos valores de p(x) não são tão acentuados. A. F. Beraldo 51 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas Figura 2.19: Distribuição mesocúrtica Figura 2.20: Distribuição platicúrtica Uma distribuição platicúrtica é mais achatada, mais “espalhada”, com altos desvios padrões. Amedida da curtose, em distribuições de probabilidades de variável discreta, é dada por: 52 A. F. Beraldo 2.5 Assimetria e Curtose α4 = ∑(x− E(x))4p(x) s(x)3 − 3 = ∑ d4p(x) s4 − 3, fazendo d = x− E(x) (2.11) • Quando α4 > 0 dizemos que a distribuição é leptocúrtica; • quando α4 = 0 dizemos que a distribuição é mesocúrtica; • quando α4 < 0 dizemos que a distribuição é platicúrtica. A curtose, medida pelo α4, é uma estatística de comparação. Compara-se o valor da expressão: α4 = ∑ d4p(x) s4 com o valor do α4 da curva normal4 que é igual a 3, e mesocúrtica. Assim, temos o α4 da expressão acima. 4Ver Capítulo 3. A. F. Beraldo 53 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas Exemplos: Tabela 2.11: Distribuição leptocúrtica x p(x) x.p(x) d d2 d2p(x) d3 d3p(x) d4 d4p(x) 0 0,01 0 −3 9 0,09 −27 −0, 27 81 0,81 1 0,05 0,05 −2 4 0,2 −8 −0, 4 16 0,8 2 0,14 0,28 −1 1 0,14 −1 −0, 14 1 0,14 3 0,6 1,8 0 0 0 0 0 0 0 4 0,14 0,56 1 1 0,14 1 0,14 1 0,14 5 0,05 0,25 2 4 0,2 8 0,4 16 0,8 6 0,01 0,06 3 9 0,09 27 0,27 81 0,81 1 3 Var(x) 0,86 soma 0 196 3,5 s(x) 0,927362 alfa-3 0 4,732288 CV 0,31 alfa-4 1,7 s3 0,797531 s4 0,7396 Tabela 2.12: Distribuição mesocúrtica x p(x) x.p(x) d d2 d2p(x) d3 d3p(x) d4 d4p(x) 0 0,01 0 −3 9 0,09 −27 −0, 27 81 0,81 1 0,08 0,08 −2 4 0,32 −8 −0, 64 16 1,28 2 0,21 0,42 −1 1 0,21 −1 −0, 21 1 0,21 3 0,4 1,2 0 0 0 0 0 0 0 4 0,21 0,84 1 1 0,21 1 0,21 1 0,21 5 0,08 0,4 2 4 0,32 8 0,64 16 1,28 6 0,01 0,06 3 9 0,09 27 0,27 81 0,81 1 3 Var(x) 1,24 soma 0 196 4,6 s(x) 1,113553 alfa-3 0 2,991675CV 0,37 alfa-4 0,0 s3 1,380806 s4 1,5376 Tabela 2.13: Distribuição platicúrtica x p(x) x.p(x) d d2 d2p(x) d3 d3p(x) d4 d4p(x) 0 0,1 0 −3 9 0,9 −27 −2, 7 81 8,1 1 0,12 0,12 −2 4 0,48 −8 −0, 96 16 1,92 2 0,18 0,36 −1 1 0,18 −1 −0, 18 1 0,18 3 0,2 0,6 0 0 0 0 0 0 0 4 0,18 0,72 1 1 0,18 1 0,18 1 0,18 5 0,12 0,6 2 4 0,48 8 0,96 16 1,92 6 0,1 0,6 3 9 0,9 27 2,7 81 8,1 1 3 Var(x) 3,12 soma 0 196 20,4 s(x) 1,766352 alfa-3 0 2,095661 CV 0,59 alfa-4 −0, 90 s3 5,511019 s4 9,7344 54 A. F. Beraldo 2.6 Pensando Probabilisticamente: os Modelos de Probabilidades 2.6 Pensando Probabilisticamente: os Modelos de Probabilidades Nas páginas anteriores, estudamos a formação da “maneira de pensar” da Estatística. O sistema teórico que tem por base as variáveis aleatórias e seu comportamento é o que vai direcionar, daqui por diante, o estudo do método estatístico. Recordando: • Um fenômeno determinístico ocorre sempre da mesma maneira, sob as mesmas condições. Se variarmos as causas, quantitativa e qualitativamente, a ocorrên- cia do fenômeno determinístico se modificará diretamente relacionado com estas alterações. • Um fenômeno aleatório (não determinístico) pode produzir uma série de resul- tados diferentes, mesmo sob as mesmas condições. O conjunto destes resultados possíveis é chamado Espaço Amostral. A cada evento (resultado possível) deste fenômeno, associamos um número, chamado probabilidade, que é uma estimativa numérica da ocorrência deste evento na próxima vez que o fenômeno se repetir. • Esta probabilidade pode ser calculada de diversas formas, sendo as mais usuais: a) O cálculo a priori, quando se conhece perfeitamente o espaço amostral, e considera-se os eventos unitários equiprováveis. b) O cálculo a posteriori, quando possui-se uma coleção de informações re- trospectivas de ocorrência dos eventos e pode-se imaginar que, sob as mesmas condições, os próximos resultados do fenômeno repetirão, aproxi- madamente, o já ocorrido. • O conjunto de eventos, agora chamados variáveis aleatórias, e suas probabilida- des de ocorrência, constituem um modelo descritivo do fenômeno. Este modelo consiste de uma função de distribuição de probabilidades e de parâmetros avaliadores. Os parâmetros mais importantes são a esperança matemática, a variância e o desvio padrão. • A Esperança Matemática indica o evento, ou os eventos, demaior probabilidade de ocorrência nas próximas repetições do fenômeno. A variância e o desvio padrão indicam as oscilações possíveis em torno da esperança do modelo. A partir destes critérios, temos condição de modelar uma vasta quantidade de fenô- menos, naturais ou não. As ciências utilizam a Estatística Probabilística para estudar os fenômenos de suas áreas: as ciências econômicas estudam o comportamento das relações entre as entidades econômicas, ora determinístico, ora apenas previsível; as ciências A. F. Beraldo 55 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas biológicas utilizam modelos probabilísticos na descrição dos hábitos dos espécimes e sua evolução; a Química e a Física modelam probabilisticamente o infinitamente pequeno e o infinitamente grande, e assim por diante. Modelos de Probabilidade “explicam” desde a migração das aves até as estratégias de marketing do comércio, desde o trânsito caótico das grandes cidades até a incerteza da posição de elétrons no átomo, desde a proliferação de doenças até os testes dos medicamentos inventados para combatê-las. Depois que aprendermos a lidar com modelos de variáveis aleatórias, o aluno, muitas vezes, incorre numa distorção do entendimento do que seja probabilidade: se, num lance de dois dados, a esperança da variável “soma” é que “dê soma 7”, com probabilidade 1/6, há uma tendência a se imaginar que, forçosamente, sairá “soma 7”. Não é assim. Um modelo é estabelecido, seja “a priori” ou “a posteriori”, para que, nas muitas outras vezes em que o experimento for repetido, sob as mesmas condições, as ocorrências dos eventos se aproximem do previsto no modelo5. Se isto acontecer, o modelo está correto; se não acontecer, é indicação de que ou o modelo está incorreto ou que as condições do experimento já não são mais as mesmas. Outro engano, também muito comum, é de se imaginar que, uma vez tendo o modelo se afirmado como satisfatório, esta seja uma verdade eterna, cristalizada, sobre a realidade. Há que se testar continuamente a aplicação do modelo, verificar as condições, aperfeiçoar e aprofundar o conhecimento sobre o comportamento das variáveis. Estas duas atitudes, a consciência de que um fenômeno só se aproxima de seu modelo probabilístico teórico após um grande número de repetições e a convicção de que a realidade é dinâmica, mutável e, muitas vezes, surpreendente, é que caracterizam o “pensar probabilisticamente”. Nas próximas páginas iremos estudar os modelos de probabilidade mais aplicados na prática, como o Modelo Binomial, para variáveis discretas, e o Modelo Normal, para variáveis contínuas. Existem muitos outros modelos, que são, algumas vezes, específicos de uma área de conhecimento, e não constam desta Apostila. Caso o aluno esteja interessado, encontrará, na bibliografia disponibilizada no site 6, bons livros sobre este tema, além de sites na Internet que aprofundam as técnicas de modelagem probabilística. 2.7 As Provas de Bernoulli O matemático suíço Jacob (Jacques) Bernoulli (1654-1705) estabeleceu condições para o estudo dos modelos teóricos de probabilidades partindo dos modelos mais simples para os mais complexos. São as chamadas Provas de Bernoulli, que possuem as seguintes características: 5Esta frase é especialmente importante. Leia várias vezes cada palavra, pense, e compreenda. 6 Em http://www.ufjf.br/antonio_beraldo/ensino/ 56 A. F. Beraldo 2.7 As Provas de Bernoulli 1. Seja um experimento aleatório que gera um espaço amostral Ω; 2. o espaço amostral é dicotômico, isto é, constituído de apenas dois eventos mutuamente excludentes e complementares, chamados de E (sucesso) e E (não-sucesso); Relações: E ∪ E = Ω E ∩ E = ∅ Figura 2.21: Espaço amostral das provas de Bernouli 3. aos eventos associamos suas probabilidades de ocorrência, sendo P (E) = p e P (E) = q . Então, temos que: Figura 2.22: Espaço amostral das provas de Bernouli P (E) + P (E) = 1 ou p+ q = 1, donde q = 1− p (2.12) 4. O experimento é repetido N vezes. Durante as N repetições, as probabilidades p e q não se alteram (experimento com reposição) e as diversas repetições do experimento são independentes entre si – a ocorrência de determinado resultado em uma das repetições não altera os resultados das próximas repetições e nem é influenciado pelos resultados anteriores. A. F. Beraldo 57 2. Distribuições de Probabilidades de Variáveis Aleatórias Discretas Diz-se que as provas de Bernoulli “não tem memória”. Então, temos que P (E|E) = P (E) (2.13) A seguir, estudamos alguns dos principais modelos de Variável Aleatória Discreta. Começamos com três modelos baseados nas Provas de Bernoulli: o Modelo Geométrico, o Modelo Binomial e o Modelo de Pascal. 58 A. F. Beraldo 2.8 Distribuição Geométrica 2.8 Distribuição Geométrica Descrição Consiste numa série de repetições de provas de Bernoulli, que é interrompida quando ocorre o primeiro sucesso. Pesquisa-se a probabilidade de termos que repetir N provas de Bernoulli até que ocorra o primeiro sucesso. Modelo P (X = N) = qN−1p (2.14) Esperança E(x) = 1 p (2.15) Variância σ2 = Var(x) = q p2 (2.16) Assimetria α3 = 2− p√ q (2.17) Curtose α4 = 6 + p2 q (2.18) Exemplo 2.4. Um jogador lança um dado N vezes, até que saia a Face 6 . Qual é a probabilidade de a Face 6 só saia no décimo lançamento? O dado tem seis faces, das quais apenas uma é Face 6. Portanto, P(Face 6) = 1/6. O “sucesso” pesquisado (F6) tem probabilidade p = 1/6; o evento
Compartilhar