Baixe o app para aproveitar ainda mais
Prévia do material em texto
Probabilidade 1 José Carlos Fogo Junho 2014 Teoria da Probabilidade Sumário Sumário 1 Conceitos Básicos e Definições 3 1.1 Relações entre conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Algumas definições em probabilidade: . . . . . . . . . . . . . . . . . . . . . 6 1.3 Medidas de probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.3.1 Axiomas de Kolmogorov e espaço de probabilidade . . . . . . . . . 9 1.4 Propriedades das probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 11 1.5 Probabilidade condicional e teorema de Bayes . . . . . . . . . . . . . . . . 15 1.5.1 Probabilidade condicional . . . . . . . . . . . . . . . . . . . . . . . . 16 1.5.2 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.5.3 Independência de eventos . . . . . . . . . . . . . . . . . . . . . . . . 24 1.6 Contagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.6.1 Amostras ordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.6.2 Permutações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 1.6.3 Amostras Desordenadas . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.6.4 Partições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2 Variáveis Aleatórias 42 2.1 Variáveis Aleatórias Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 43 2.2 Principais modelos de discretos . . . . . . . . . . . . . . . . . . . . . . . . . 48 2.2.1 Variável Aleatória Constante . . . . . . . . . . . . . . . . . . . . . . . 48 2.2.2 Distribuição uniforme discreta . . . . . . . . . . . . . . . . . . . . . . 49 2.2.3 Distribuição de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.2.4 Distribuição binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.2.5 Distribuição geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.2.6 Distribuição binomial negativa . . . . . . . . . . . . . . . . . . . . . . 60 2.2.7 Distribuição hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . 62 2.2.8 Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.2.9 Distribuições discretas no R . . . . . . . . . . . . . . . . . . . . . . . 73 3 Valor esperado e momentos de uma v.a. discreta 76 3.1 Valor esperado de uma v.a. discreta . . . . . . . . . . . . . . . . . . . . . . . 76 3.2 Propriedades de Esperança . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 3.3 Variância de uma v.a. discreta . . . . . . . . . . . . . . . . . . . . . . . . . . 82 3.3.1 Propriedades de Variância . . . . . . . . . . . . . . . . . . . . . . . . 83 3.3.2 Covariância e coeficiente de corelação . . . . . . . . . . . . . . . . . 85 2 Teoria da Probabilidade Conceitos Básicos e Definições 1 Conceitos Básicos e Definições Estudos de fenômenos ou experimentos aleatórios ⇓ Busca-se avaliar a probabilidade de ocorrência desses fenômenos. APLICAÇÕES: • teoria dos jogos • evolução de doenças • controle de defeitos • evolução do crescimento populacional • teoria da decisão • indústria bélica 1.1 Relações entre conjuntos i) UNIÃO: Notação A ∪B, sejam A e B eventos quaisquer, a união entre A e B é dada pelos elementos que pertencem a A ou a B ; ii) INTERSECCÃO: Notação A ∩B ou AB, sejam A e B conjuntos quaisquer, a intersecção entre A e B é dada pelos elementos que pertencem simultaneamente a A e a B ; iii) COMPLENTAR: Notação Ac; sejam A e B conjuntos tais que A ⊂ B, então, o evento complementar Ac de A, em relação àB, é dado pelos elementos deB que não pertencem a A, ou seja, A∪Ac = B; iv) DIFERENÇA: Notação B − A; sejam A e B conjuntos quaisquer, então, a diferença B −A é dada pelos elementos de B que não pertencem a A, ou seja, B − A = B ∩ Ac = BAc; Nota: Se B ⊃ A, então, B − A = Ac; v) DIFERENÇA SIMÉTRICA: Notação A M B; é dada pelos elementos que pertencem exclusivamente a A ou a B, ou seja, A M B = (A ∩Bc) ∪ (Ac ∩B) = (A−B) ∪ (B − A); 3 Teoria da Probabilidade Conceitos Básicos e Definições vi) CONJUNTOS DISJUNTOS: dois conjuntos A e B são disjuntos, ou mutuamente exclu- sivos, se a intersecção entre eles é vazia, ou seja, A ∩B = ∅; vi) PARTIÇÃO: os conjuntos A1, A2, . . . , Ak ⊂ Ω formam um partição de Ω se são disjuntos dois-a-dois e se a união entre eles é igual a Ω, ou seja – Ai ∩ Aj = ∅, ∀ i 6= j; – k⋃ i=1 Ai = Ω. vi) LEIS DE MORGAN: considere uma sequência qualquer de eventos A1, A2, . . ., então, segundo as leis de Morgan, valem as relações( ∞⋃ i=1 Ai )c = ∞⋂ i=1 Aci ;( ∞⋂ i=1 Ai )c = ∞⋃ i=1 Aci . DEMONSTRAÇÃO VISUAL DAS LEIS DE MORGAN: Ω BA C AUBUC (AUBUC)c Figura 1.1: Diagrama de Venn para a união ( A ∪ B ∪ C )c Ω Ac A Ω B Bc Ω C Cc Figura 1.2: Eventos complementares Ac, Bc e Cc, respectivamente 4 Teoria da Probabilidade Conceitos Básicos e Definições Ω BA C Figura 1.3: Diagrama de Venn para a intersecção Ac ∩ Bc ∩ Cc DEMONSTRAÇÃO FORMAL DAS LEIS DE MORGAN: 1a parte (Magalhães ou Hoel) IDEIA: mostrar que i) ( ∞⋃ i=1 Ai )c ⊂ ∞⋂ i=1 Aci ; ii) ( ∞⋃ i=1 Ai )c ⊃ ∞⋂ i=1 Aci . RESULTADO: Sejam A e B conjuntos quaisquer, então, se A ⊂ B e A ⊃ B =⇒ A = B. Prova da parte (i): Seja w ∈ ( ∞⋃ i=1 Ai) c =⇒ w /∈ ∞⋃ i=1 Ai =⇒ w /∈ Ai, ∀ i = 1, 2, . . . Desta forma, w ∈ Aci ,∀i = 1, 2, . . . =⇒ w ∈ ∞⋂ i=1 Aci , o que prova a parte (i). Prova da parte (ii): Seja w ∈ ∞⋂ i=1 Aci =⇒ w ∈ Aci =⇒ w /∈ Ai, ∀ i = 1, 2, . . . Desta forma, w /∈ ∞⋃ i=1 Ai, ∀ i = 1, 2, . . . =⇒ w ∈ ( ∞⋃ i=1 Ai) c, 5 Teoria da Probabilidade Conceitos Básicos e Definições o que prova completa a prova. 1.2 Algumas definições em probabilidade: a) EXPERIMENTO ALEATÓRIO: é um experimento no qual – todos os resultados possíveis são conhecidos antecipadamente; – uma realização do experimento resulta num dos possíveis resultados; – pode ser repetido em condições idênticas. Exemplo: Considere uma caixa com b bolas numeradas de 1 a b. Uma bola é retirada e seu número é anotado. b) ESPAÇO AMOSTRAL: é o conjunto dos resultados possíveis para um experimento ale- atório. É denotado por Ω. Pode ser: i) Discreto Finito: formado por um conjunto finito de pontos;Infinito: conjunto infinito e enumerável de pontos; ii) Contínuo: formado por um conjunto não enumerável de pontos. Exemplo: No experimento da retirada de uma bola de uma da caixa, Ω é um espaço amostral finito dado pelo conjunto com b pontos, no caso Ω = { 1, 2, . . . , b }. c) EVENTO: um evento é qualquer subconjunto do espaço amostral Ω, associado a um experimento. Notas: 1) Os eventos serão identificados por letras de fôrma e maiúsculas do algarismo ará- bico, por exemplo A,B,C, . . .. 2) Aos eventos é que serão associadas probabilidades; Exemplo: Na retirada de uma bola da caixa seja o evento A definido por: A = {o resultado é um número par}. Casos Especiais: 6 Teoria da Probabilidade Conceitos Básicos e Definições i) Evento Complementar: Seja um evento qualquer A ⊂ Ω, então, seu evento com- plementar Ac será definido pelos elementos de Ω que não estão em A. Um evento A e seu complementar Ac são tais que A ∪ Ac = Ω. ii) Eventos Disjuntos: Dois eventos quaisquer A e B são disjuntos, ou mutuamente exclusivos se A ∩B = ∅. iii) Eventos Elementares: Seja um espaço amostral finito Ω = {ω1, ω2, . . . , ωN}, em que ωi, i = 1, 2, . . . , N são resultados elementares. Um evento formado por um resultado elementar é chamado evento elementar. Neste caso, Ai = {ωi}, i = 1, 2, . . . , N, são eventos elementares. Notas: 1)Sejam dois eventos elementares Ai e Aj , i 6= j, então, Ai ∩ Aj = ∅; 2) Qualquer evento pode ser escrito como uniões de eventos elementares. Particularmente, Ω = A1 ∪ A2 ∪ . . . ∪ AN . Como o espaço amostral é finito, será associada uma probabilidade pi = 1/N para cada ωi, i = 1, 2, . . . , N . É intuitivo que 0 ≤ pi ≤ 1 e que p1 + p2 + . . .+ pN = 1. Se, além disso, o espaço amostral for equiprovável (ou homogêneo), então, pi = 1 N ∀ ωi ∈ Ω, i = 1, 2, . . . , N. d) σ-ÁLGEBRA: Seja uma coleção não vazia A de subconjuntos de Ω aos quais desejamos associar probabilidades. Então A deve ser tal que, se A e B ∈ A , faz sentido calcular probabi- lidades de que i) A ou B ocorra, ou seja, (A ∪B); ii) A e B ocorram, ou seja, (A ∩B); iii) não ocorra A, ou seja, Ac. Portanto, para A e B ∈ A , se A atender às propriedades: 7 Teoria da Probabilidade Conceitos Básicos e Definições i) Ω ∈ A ; ii) se A ∈ A =⇒ Ac ∈ A ; iii) se A ∈ A e B ∈ A =⇒ (A ∪B) ∈ A . então A é dita ser uma álgebra de subconjuntos (eventos) de Ω. Além disso, deseja-se queA seja fechada também para um número infinito e enumerável de operações (uniões e intersecções). Definição: A é uma σ-álgebra de subconjuntos (eventos) de Ω se, e só se i) Ω ∈ A ; ii) se A ∈ A =⇒ Ac ∈ A ; iii) se A1, A2, . . . ∈ A =⇒ ∞⋃ i=1 Ai ∈ A . Notas: 1) toda σ-álgebra é uma álgebra, porém, nem toda álgebra é uma σ-álgebra; 2) Seja A uma σ-álgebra de Ω, então, se A1, A2, . . . ∈ A =⇒ ∞⋂ i=1 Ai ∈ A . Exemplo: 1) Considere o lançamento de uma moeda, então Ω = { cara, coroa } • A1 = {∅,Ω } → menor σ-álgebra; • A2 = {∅, {cara}, {coroa},Ω } → σ-álgebra, classe de todos os subconjuntos de Ω. Exemplo: 2) Considere o espaço amostral Ω = { 1, 2, 3 } • A1 = {∅,Ω, {1}, {2, 3} } → é uma σ-álgebra (todos os complementares e uniões estão presentes). • A2 = {∅,Ω, {1}, {2}, {1, 3}, {2, 3} } → não é σ-álgebra pois: {1} ∪ {2} /∈ A2 (todos os complementares estão presentes, mas não todas as uniões). 8 Teoria da Probabilidade Conceitos Básicos e Definições 1.3 Medidas de probabilidade a) EM ESPAÇOS FINITOS: número de resultados favoráveis a um evento, dividido pelo número de resultados possíveis, assumindo que todos os resultados seja equiprováveis P (A) = card(A) card(Ω) em que Ω é o conjunto de resultados possíveis (espaço amostral). b) GENERALIZAÇÃO PARA ESPAÇOS INFINITOS: se Ω é uma região com uma medida bem definida, então P (A) = medida de A medida de Ω Exemplo: Um indivíduo realiza um tiro ao acaso num alvo circular de raio R. Qual a pro- babilidade de que acerte o círculo central de raio r (r < R)? R Ω r A P (A) = área central (A) área do alvo (Ω) P (A) = pir2 piR2 = ( r R )2 1.3.1 Axiomas de Kolmogorov e espaço de probabilidade A definição a seguir é conhecida como Axiomas de Kolmogorov (Kolmogorov, 1933) e define uma medida de probabilidade. MEDIDA DE PROBABILIDADE: Seja Ω um espaço amostral e A uma σ-álbegra de even- tos de Ω. P (.) é uma medida de probabilidade em (Ω,A ) se satisfaz i) P (A) ≥ 0, ∀ A ∈ A ; ii) P (Ω) = 1; 9 Teoria da Probabilidade Conceitos Básicos e Definições iii) se A1, A2, . . . formam uma seqüência disjunta, então P ( ∞⋃ i=1 Ai ) = ∞∑ i=1 P (Ai). A trinca formada por (Ω,A , P ) é chamada de ESPAÇO DE PROBABILIDADE. Um espaço de probabilidade é formado por um espaço amostral Ω, uma σ-álgebra de eventos de Ω e uma medida de probabilidade P (A) ∀ A ∈ A . Exemplo: 1) Número de ocorrências de um fenômeno. Espaço amostral: Ω = { 1, 2, 3, . . . }; σ-álbegra: A = classe dos subconjuntos de Ω; Medida de probabilidade: P (k) = 1 2k , k = 1, 2, . . . Checar os axiomas: i) P (A) é dada pela soma de probabilidades de eventos elementares ωi ∈ A, i = 1, 2, . . . =⇒ P (A) ≥ 0, ∀ A; ii) ∞∑ i=1 P (k) = 1/2 1− 1/2 = 1 =⇒ P (Ω) = 1; iii) A união de eventos disjuntos, forma um conjunto ao se aplica o resultado (i), que equi- vale à soma das suas probabilidades individuais. Exemplo: 2) Tempo de vida de pacientes. Espaço amostral: Ω = { T ∈ R | 0 ≤ T <∞}; σ-álbegra: A = σ-álbegra de Borel; Medida de probabilidade: P (A) = ∫ A e−xdx, em que A ⊆ Ω são intervalos no conjunto dos reais. 10 Teoria da Probabilidade Conceitos Básicos e Definições 1.4 Propriedades das probabilidades Considere que os conjuntos abaixo seja, eventos no espaço de probabilidade (Ω,A , P ). Então, tem-se que a) P (A) = 1− P (Ac); Nota: caso especial P (∅) = 1− P (Ω) = 0. b) Sejam A e B eventos quaisquer, então P (B) = P (B ∩ A) + P (B ∩ Ac). PROVA: i) para todo conjunto A tem-se que A ∪ Ac = Ω. ii) Como B = B ∩ Ω = B ∩ (A ∪ Ac) = (B ∩ A) ∪ (B ∩ Ac) iii) e como (B ∩ A) e (B ∩ Ac) são disjuntos, segue-se que P (B) = P (B ∩ A) + P (B ∩ Ac). Nota: Se A ⊂ B, então A ∩B = A e P (B) = P (A) + P (B ∩ Ac). c) Se A ⊂ B, então P (A) ≤ P (B). PROVA: Sai direto da relação anterior e dos axiomas. d) Se A e B são eventos quaisquer, então P (A ∪B) = P (A) + P (B)− P (A ∩B). Ω A A ∩ Bc B Ac ∩ BA ∩ B Figura 1.4: (A ∪ B) como união de conjuntos disjuntos 11 Teoria da Probabilidade Conceitos Básicos e Definições PROVA: i) Os conjuntos (A ∩Bc), (A ∩B) e (Ac ∩B) são disjuntos, logo. → A ∪B = (A ∩Bc) ∪ (A ∩B) ∪ (Ac ∩B), → P (A ∪B) = P (A ∩Bc) + P (A ∩B) + P (Ac ∩B). ii) Tem-se, ainda, que → P (A) = P (A ∩Bc) + P (A ∩B) e → P (B) = P (Ac ∩B) + P (A ∩B). iii) Somando-se as probabilidades em (ii) obtem-se P (A) + P (B) = P (A ∩Bc) + P (Ac ∩B) + P (A ∩B) + P (A ∩B), e, de (i) tem-se que P (A) + P (B) = P (A ∪B) + P (A ∩B), de onde se conclui que =⇒ P (A ∪B) = P (A) + P (B)− P (A ∩B). Notas: 1) Da relação (d) segue-se que P (B ∪ A) ≤ P (A) + P (B); 2) Se A e B são disjuntos, então P (B ∪ A) = P (A) + P (B). e) Das propriedades (c) e (d) tem-se P ( n⋃ i=1 Ai) ≤ n∑ i=1 P (Ai). PROVA: Por indução. g) Das leis de Morgan tem-se que P ( n⋃ i=1 Ai ) = 1− P ( n⋂ i=1 Aci ) . g) PARTE 1: Se A1 ⊂ A2 ⊂ . . . e A = ∞⋃ i=1 Ai ou PARTE 2: Se A1 ⊃ A2 ⊃ . . . e A = ∞⋂ i=1 Ai, então segue-se que lim n→∞ P (An) = P (A). PROVA: (PARTE 1) → seja B1 = A1; 12 Teoria da Probabilidade Conceitos Básicos e Definições → para n ≥ 2, seja Bn o conjunto de pontos que estão em An mas não estão em An−1, ou seja Bn = An ∩ Acn−1; → os conjuntos Bn, n = 1, 2, . . . são todos mutuamente exclusivos e, ainda An = n⋃ i=1 Bi e A = ∞⋃ i=1 Bi; → conseqüentemente: a) P (An) = n∑ i=1 P (Bi) , b) P (A) = ∞∑ i=1 P (Bi) . Desta forma, aplicando-se o limite para n→∞ em (a), tem-se lim n→∞ P (An) = lim n→∞ n∑ i=1 P (Bi) = ∞∑ i=1 P (Bi) de (b) = P (A) , o que completa a prova. PROVA: (PARTE 2) Exercício. → observar que A1 ⊃ A2 ⊃ . . .⇒ Ac1 ⊂ Ac2 ⊂ . . .. Exemplo: 1) Um dado equilibrado é lançado k = 2 vezes e os resultados anotados. O espaço amostral para o experimento é: Ω = { ω = (i, j) ∈ R2 | i = 1, . . . 6 e j = 1, . . . , 6} Sejam: A = classe de todos os subconjuntos de Ω e P = probabilidade uniforme para todos os pontos de Ω, ou seja, P ({ω}) = 1 card(Ω) . O número de eventos elementares w’s é dado por card(Ω) = nk, em que → n total de resultados possíveis em uma realização do experimento, no caso n = 6, → k é o número de realizações do experimento, no caso k = 2. Nesse caso, tem-se: card(Ω) = 36 ⇒ P ({ω}) = 1 36 , ∀ ω ∈ Ω. Considere os eventos: A = a soma dos resultados é um número ímpar; 13 Teoria da Probabilidade Conceitos Básicos e Definições B = o resaultado do primeiro lançamento é um número ímpar; C = o produto é um número ímpar. Encontrar P (A ∪B) e P (A ∪B ∪ C). Pontos favoráveis a cada um dos eventos: A = { (1,2), (1,4),(1,6), (3,2), (3,4), (3,6), (5,2), (5,4), (5,6), (2,1), (4,1), (6,1), (2,3), (4,3), (6,3), (2,5), (4,5), (6,5) }; B = { (1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (3,1), (3,2), (3,3), (3,4), (3,5), (3,6), (5,1), (5,2), (5,3), (5,4), (5,5), (5,6) }; C = { (1,1), (1,3), (1,5), (3,1), (3,3), (3,5), (5,1), (5,3), (5,5) }. Resultados: I card(A) = 18 =⇒ P (A) = 18 36 = 1 2 ; I card(B) = 18 =⇒ P (B) = 18 36 = 1 2 ; I card(C) = 9 =⇒ P (C) = 9 36 = 1 4 . Intersecções: i) A ∩B = { (1,2), (1,4), (1,6), (3,2), (3,4), (3,6), (5,2), (5,4), (5,6) }⇒ P (A ∩B) = 1 4 ; ii) A ∩ C = { ∅ }⇒ P (A ∩ C) = 0; iii) como C ⊂ B, segue-se que B ∩ C = C,⇒ P (B ∩ C) = P (C) = 1 4 ; iv) de (ii), tem-se que A ∩B ∩ C = { ∅ }⇒ P (A ∩B ∩ C) = 0; Da propriedade (d), tem-se que: P (A ∪B) = P (A) + P (B)− P (A ∩B) = 1 2 + 1 2 − 1 4 = 3 4 Para encontrar P (A ∪B ∪ C) utiliza-se, ainda, a propriedade (d) fazendo: P (A ∪B ∪ C) = P [(A ∪B) ∪ C] = P (A ∪B) + P (C)− P [(A ∪B) ∩ C] = P (A) + P (B)− P (A ∩B) + P (C)− P [(A ∩B) ∪ (B ∩ C)] = P (A) + P (B) + P (C)− P (A ∩B)− P (A ∩ C)− P (B ∩ C) + P (A ∩B ∩ C) = 1 2 + 1 2 + 1 4 − 1 4 − 1 4 = 3 4 14 Teoria da Probabilidade Conceitos Básicos e Definições Esse problema pode ser resolvido escolhendo-se um outro espaço amostral. O lançamento de um dado pode ser representado por p se o resultado for par e por i se o resultado for ímpar. Assim sendo, o novo espaço amostral pode ser escrito por: Ω1 = { (p, p), (p, i), (i, p), (i, i) } Como o espaço amostral original Ω é um espaço equiprovável, é fácil verificar que: P [(p, p)] = P [(p, i)] = P [(i, p)] = P [(i, i)] = 1 4 . Pontos favoráveis a cada um dos eventos: A = {(p, i), (i, p)} =⇒ P (A) = 2 4 = 1 2 ; B = {(p, i), (i, i)} =⇒ P (B) = 2 4 = 1 2 ; C = {(i, i)} =⇒ P (C) = 1 4 . 1.5 Probabilidade condicional e teorema de Bayes Em muitas situações, conhecimentos passados podem influenciar as probabilidades dos eventos. Por exemplo, a probabilidade de chuva num determinado dia pode ser influenciada se choveu no dia anterior. Sejam A e B eventos quaisquer associados ao espaço de probabilidade (Ω,A , P ), então, para todo ω ∈ Ω, → se ω ∈ B, então ω ∈ A⇐⇒ ω ∈ (A ∩B). Em outras palavras, sabendo que o evento B ocorreu, então, o evento A ocorre se, e só se, ocorre a intersecção A ∩B. Nesse caso, tem-se um novo espaço amostral dado pelo evento B, uma nova σ-álgebra AB e uma nova medida de probabilidade PB, aplicada em subconjuntos de AB, satisfazendo os axiomas de Kolmogorov PB = P (A ∩B) P (B) . Portanto, (B, AB e PB) formam um novo espaço de probabilidade. Prova: A prova fica como exercício para o leitor. 15 Teoria da Probabilidade Conceitos Básicos e Definições Esquematicamente: Ω A BA ∩ B Figura 1.5: Evento condicional. 1.5.1 Probabilidade condicional Sejam os eventos A e B tais que P (B) > 0, então, define-se a probabilidade condicional de B dado que ocorreu A por P (A|B) = P (A ∩B) P (B) . Notas: 1) Se P (B) = 0 =⇒ P (A|B) = P (A) (Magalhães, 2004); 2) Da definição de probabilidade condicional tem-se a relação P (A∩B) = P (A|B)P (B), conhecida como regra do produto das probabilidades. Exemplo 1) Uma caixa comtém r bolas vermelhas numeradas de 1 a r e b bolas brancas, numeradas de 1 a b. Uma bola é extraída, sua cor observada. Sabendo que a bola é vermelha, qual a probabilidade de que seja a de número 1? A caixa contém (r + b) bolas logo, a probabilidade de uma bola qualquer é 1 (r + b) . Censidere os eventos: A = { a bola extraída é vermelha }, logo, P (A) = r (r + b) B = { a bola extraída é a de número 1 }, logo, P (B) = 2 (r + b) 16 Teoria da Probabilidade Conceitos Básicos e Definições Como P (B ∩ A) = 1 (r + b) , então, P (B|A) = P (B ∩ A) P (A) = 1/(r + b) r/(r + b) = 1 r . Exemplo 2) Duas moedas idênticas são lançadas. Determine: a) A probabilidade de se obter 2 caras sabendo que se obteve cara na primeira moeda. Espaço amostral =⇒ Ω = {(c, c); (c, c¯); (c¯, c); (c¯, c¯)}, em que c = cara e c¯ = coroa. Sejam os eventos: C1 = { cara na 1 a moeda } =⇒ P (C1) = P [(c, c); (c, c¯)] = 2 4 ; C2 = { cara na 2 a moeda } =⇒ P (C2) = P [(c, c); (c¯, c)] = 2 4 . Como P (C2 ∩ C1) = P [(c, c)] = 1 4 , logo, P (C2|C1) = P (C2 ∩ C1) P (C1) = P [(c, c)] P [(c, c); (c, c¯)] = 1/4 2/4 = 1 2 . b) A probabilidade de se obter 2 caras sabendo que se obteve pelo menos uma cara. Neste caso os eventos são definidos por: =⇒ {sair duas caras} = C1 ∩ C2; =⇒ {sair ao menos um cara} = C1 ∪ C2; Desta forma: P (C1 ∩ C2|C1 ∪ C2) = P (C1 ∩ C2) P (C1 ∪ C2) = P [(c, c)] P [(c, c); (c, c¯); (c¯, c)] = 1/4 3/4 = 1 3 . Exemplo 3) (Urna de Polya) Uma caixa comtém r bolas vermelhas e b bolas brancas. Uma bola é extraída, sua cor observada e, a seguir, a bola é recolocada na caixa com mais c > 0 bolas da mesma cor. Esse procedimento é repetido m vezes. O interesse aqui consiste em saber qual a probabilidade de se extrair uma bola vermelha (ou branca) em cada uma das m retiradas. 17 Teoria da Probabilidade Conceitos Básicos e Definições Sejam: i) Rj : a j-ésima bola retirada é vermelha; ii) Bj : a j-ésima bola retirada é branca, 1 ≤ j ≤ m. Então: ⇒ Rj e Bj são disjuntos e ⇒ na j-ésima extração tem-se [b+ r + (j − 1) c] bolas na urna. Para j = 1: i) P (R1) = r b+ r , ii) P (B1) = b b+ r . Para j = 2: i) P (R2|R1) = (r + c) (b+ r + c) ; ii) P (R1R2) = P (R1)P (R2|R1); ⇒ P (R1R2) = r (b+ r) (r + c) (b+ r + c) . De maneira análoga, ⇒ P (B1 R2) = b (b+ r) r (b+ r + c) . Logo, a probabilidade de que se extraia uma bola vermelha na segunda retirada é: P (R2) = P (R1R2) + P (B1R2) = ( r b+ r )( r + c b+ r + c ) + ( b b+ r )( r b+ r + c ) = ( r b+ r )( r + c b+ r + c + b b+ r + c ) = ( r b+ r )( r + c+ b b+ r + c ) = ( r b+ r ) Portanto: 18 Teoria da Probabilidade Conceitos Básicos e Definições i) P (R2) = P (R1) = r b+ r , ii) P (B2) = P (B1) = b b+ r . Para j = 3: Qual a probabilidade de vermelha na 3a extração? Possibilidades: i) R1R2R3 ⇒ P (R1R2R3) = P (R3|R1R2)P (R2|R1)P (R1); ii) R1B2R3 ⇒ P (R1B2R3) = P (R3|R1B2)P (B2|R1)P (R1); iii) B1R2R3 ⇒ P (B1R2R3) = P (R3|B1R2)P (R2|B1)P (B1); iv) B1B2R3 ⇒ P (B1B2R3) = P (R3|B1B2)P (B2|B1)P (B1). Com um pouco de esforço algébrico obtêm-se: i) P (R3) = P (R1) = r b+ r , ii) P (B3) = P (B1) = b b+ r . Enfim, pode-se provar por indução que, P (Rj) = P (R1) e P (Bj) = P (B1), ∀ 1 ≤ j ≤ m. 1.5.2 Teorema de Bayes Sejam os eventosE1, E2, . . . , Em em (Ω,A , P ) formando uma partição em Ω tal que todos têm probabilidades positivas, ou seja, P (Ei) > 0, ∀ i = 1, 2, . . . ,m. Considere, ainda, um evento A qualquer, P (A) > 0, ocorrendo sobre a partição de Ω. O objetivo, nesta situação, consiste em determinar a probabilidade de ocorrência de uma das partes de Ω dado que ocorreu o evento A, ou seja, P (Ek|A), k = 1, 2, . . . ,m. Cmo pode-se observar pela Figura (1.6), o eventoA pode ser escrito como união de partes disjuntas, formadas pela intersecção de A com as partes de Ω, ou seja A = (A ∩ E1) ∪ (A ∩ E2) ∪ (A ∩ E3) ∪ (A ∩ E4) ∪ (A ∩ E5) ∪ (A ∩ E6) = 6⋃ i=1 (A ∩ Ei) 19 Teoria da Probabilidade Conceitos Básicos e Definições Figura 1.6: Ocorrência de um evento A sobre uma partição de Ω com m = 6. Para um m qualquer, A = (A ∩ E1) ∪ (A ∩ E2) ∪ . . . ∪ (A ∩ Em) = m⋃ i=1 (A ∩ Ei), logo, a probabilidade do evento A é dada por P (A) = P [ m⋃ i=1 (A ∩ Ei) ] = m∑ i=1P (A ∩ Ei). Pela regra do produto, tem-se que P (A) = P [ m⋃ i=1 (A ∩ Ei) ] = m∑ i=1 P (A|Ei)P (Ei). O resultado acima é conhecido como lei da probabilidade total. Para um Ek qualquer, k = 1, 2, . . . ,m, pode-se escrever P (A ∩ Ek) = P (A|Ek)P (Ek), logo, a probabilidade de ocorrência de Ek dado que ocorreu A, é dada por: P (Ek|A) = P (Ek ∩ A) P (A) P (Ek|A) = P (A|Ek)P (Ek)m∑ i=1 P (A|Ei)P (Ei) , k = 1, 2, . . . ,m, (1.1) o resultado em (1.1) é conhecido como teorema de Bayes. Foi obtido pelo Reverendo Thomas Bayes e publicado em 1763, sendo um dos teoremas mais importantes da teoria estatística. Exemplo 1) Numa população adulta 40% são homens e 60% mulheres. Sabe-se, ainda, que 50% dos homens e 30% das mulheres são fumantes. Determine: 20 Teoria da Probabilidade Conceitos Básicos e Definições a) A probabilidade de que uma pessoa escolhida ao acaso nesta população seja fumante. Partição do espaço amostral =⇒ sexo = {H,M}. Sejam os eventos: H = { a pessoa escolhida é do sexo masculino (homem) } =⇒ P (H) = 0.40; M = { a pessoa escolhida é do sexo feminino (mulher) } =⇒ P (M) = 0.60; F = { a pessoa escolhida é fumante }; F c = { a pessoa escolhida não é fumante }. Como P (F |H) = 0.50 e P (F |M) = 0.30, então, pela regra da probabilidade total: P (F ) = P (F ∩H) + P (F ∩M) P (F ) = P (F |H)P (H) + P (F |M)P (M) P (F ) = 0.50 · 0.40 + 0.30 · 0.60 P (F ) = 0.38 b) A probabilidade de que seja um homem sabendo que é um fumante. Pelo teorema de Bayes, tem-se a relação: P (H|F ) = P (H ∩ F ) P (F ) P (H|F ) = P (F |H)P (H) P (F ) P (H|F ) = 0.20 0.38 P (H|F ) = 0.5263, portanto, a probabilidade de ser um homem dado que é fumante é de 0.5263. Uma forma conveniente para se representar as probabilidades acima é através da ”arvore de probabilidades”, nas quais representamos as probabilidades das partes e probabilidades condicionais em ramos, conforme Figura (1.7). Nesse esquema, as probabilidades conjuntas (das intersecções) são obtidas percorrendo-se os ramos e multiplicando-se as probabilidades. 21 Teoria da Probabilidade Conceitos Básicos e Definições Figura 1.7: Diagrama de árvore para o exemplo (1). Exemplo 2) Sabe-se que numa população 8% das pessoas são infectadas por um vírus causador de uma doença muito grave. Um teste para detecção do vírus é eficiente em 99% dos casos nos quais os indivíduos são infectados, mas resulta em 2% de resultados positivos para os não infectados (falsos positivos). Se o teste de uma pessoa dessa população der resultado positivo, qual a probabilidade de que ela seja da fato infectada? Defindo-se: I ⇒ grupo das pessoas infectadas; Ic ⇒ grupo dos não infectados; T+ ⇒ o resultado do teste é positivo; T− ⇒ o resultado do teste é negativo; tem-se as probabilidades: P (I) = 0.08; P (Ic) = 0.92; P (T+|I) = 0.99 e P (T+|Ic) = 0.02. Porém, deseja-se calcular a probabilidade: P (I|T+) que pela regra da probabilidade condicional é dada por P (I|T+) = P (I ∩ T +) P (T+) . As probabilidades podem ser representadas na seguinte tabela: Tabela 1.1: Probabilidades Resultado do teste Totais das Grupo T+ T− linhas I P (I ∩ T+) P (I ∩ T−) 0.08 Ic P (Ic ∩ T+) P (Ic ∩ T−) 0.92 Totais das colunas P (T+) P (T−) 1.00 22 Teoria da Probabilidade Conceitos Básicos e Definições Pela regra do produto e pela lei da probabilidade total, encontra-se P (T+) de: P (T+) = P (I ∩ T+) + P (Ic ∩ T+) = P (T+|I)P (I) + P (T+|Ic)P (Ic) = 0.99 · 0.08 + 0.02 · 0.92 = 0.0792 + 0.0184 = 0.0976 e, pelo teorema de Bayes, tem-se P (I|T+) = P (T +|I)P (I) P (T+) = 0.0792 0.0976 = 0.8115. Qual seria a confiança no teste se o resultado fosse negativo, ou seja, qual a probabilidade de o teste sendo negativo a pessoa de fato não seja infectada? Deseja-se: P (Ic|T−) = P (I c ∩ T−) P (T−) . Como: P (T−) = P (I ∩ T−) + P (Ic ∩ T−) = 0.01 · 0.08 + 0.98 · 0.92 = 0.9024, então, P (Ic|T−) = P (T −|Ic)P (Ic) P (T−) = 0.9016 0.9024 = 0.9991, portanto, se o teste for negativo a pessoa pode se sentir segura. Na Figura (1.8) é apresentada o diagrama de árvore para o resultado acima. Figura 1.8: Diagrama de árvore para o exemplo (2). 23 Teoria da Probabilidade Conceitos Básicos e Definições 1.5.3 Independência de eventos Sejam o espaço de probabilidade (Ω,A , P ) e sejam os eventos A e B ∈ A , tal que P (B) > 0. Pela regra da multiplicação pode-se escrever P (A ∩B) = P (A|B)P (B). Em alguns casos, no entanto, informações prévias a respeito do evento B não afetam a probabilidade de ocorrência de A, isto é, a probabilidade concicional de A dado B é igual à P (A), ou seja P (A|B) = P (A). Definição: Sejam dois eventos A e B, com probabilidades maiores do que zero, tais que a ocorrência de um deles não altera a probabilidade de ocorrência do segundo, então, esses eventos são ditos indepententes. Da regra da multiplicação das probabilidades, portanto, se dois eventos A e B são inde- pendentes então a probabilidade de ocorrência conjunta dos dois é dada pelo produto das probabilidades individuais, ou seja, P (A ∩B) = P (A)P (B). (1.2) Seja A1, A2, . . . , Ak, k eventos independentes, então, de (1.2) P (A1 ∩ A2 ∩ . . . ∩ Ak) = P (A1) · P (A2) · . . . · P (Ak) Exemplo 1) Duas moedas idênticas são lançadas separadamente. Ω = {(c, c); (c, c¯); (c¯, c); (c¯, c¯)}, em que c = cara e c¯ = coroa. Sejam os eventos: A = { cara no 2º lançamento } =⇒ P (A) = P [(c, c); (c¯, c)] = 1 2 ; B = { cara no 1º lançamento } =⇒ P (B) = P [(c, c); (c, c¯)] = 1 2 . Determine P (A|B). P (A|B) = P (A ∩B) P (B) = 1/4 1/2 = 1 2 = P (A). 24 Teoria da Probabilidade Conceitos Básicos e Definições Portanto, conclui-se que A e B são independentes, ou seja, a ocorrência de cara no primeiro lançamento não altera a probabilidade de que saia cara no segundo lançamento. Propriedades de independência: a) Seja um evento A tal que P (A) = 0, então A é independente de todo evento E ∈ A , em que P (E) > 0; Prova: Se P (A) = 0 =⇒ P (E ∩ A) = P (E|A)P (A) = 0 = P (E) · P (A), ∀ E ∈ A � b) Se A ∈ A é um evento qualquer tal que P (A) > 0, então A é independente de ∅ e Ω; Prova: i) A prova de que A e ∅ são independentes sai direto de (a), já que P (∅) = 0; ii) Para a prova de que A e Ω são independentes, considere que A = A ∩ Ω, logo =⇒ P (Ω ∩ A) = P (A) = P (A) · (1) = P (A)P (Ω) � c) Se os eventos de A e B forem independentes, então A e Bc; Ac e B; Ac e Bc também o são; Prova: A seguir será apresentada apenas a prova de que A e Bc também são indepen- dentes. As demais ficam como exerício para o leitor. O evento A pode ser escrito por A = (A∩B)∪ (A∩Bc), (A∩B) e (A∩Bc) disjuntos, logo P (A) = P (A ∩B) + P (A ∩Bc) P (A) = P (A)P (B) + P (A ∩Bc) P (A)− P (A)P (B) = P (A ∩Bc) P (A)[1− P (B)] = P (A ∩Bc) P (A)P (Bc) = P (A ∩Bc) � Definição: Seja A1, A2, . . . , Ak, k eventos independentes. Se, para qualquer subconjunto A1, A2, . . . , Ar, tal que r ≤ k, os eventos forem independentes, ou seja, P (A1 ∩ A2 ∩ . . . ∩ Ar) = P (A1) · P (A2) · . . . · P (Ar), então A1, A2, . . . , Ak são chamados mutuamente independentes. 25 Teoria da Probabilidade Conceitos Básicos e Definições Em outras palavras, os eventos A1, A2, . . . , Ak são mutuamente independentes se forem independentes dois-a-dois, três-a-três, e assim por diante . . . Exemplo 2) A probabilidade de que um homem esteja vivo daqui a 10 anos é de 3/4 e de sua esposa, é de 5/6. Qual é a probabilidade de que, daqui a 10 anos: a) Ambos estejam vivos? Considere os eventos: H = { homem vivo daqui a 10 anos } =⇒ P (H) = 3/4 logo P (Hc) = 1/4; M = { mulher viva daqui a 10 anos } =⇒ P (M) = 5/6 logo P (M c) = 1/6. Espaço amostral Ω = {HM,HM c, HcM,HcM c} Assumindo independênciaentre os eventos H e M , a probabilidade de que ambos estejam vivos daqui a 10 anos é dada por P (HM) = P (H)P (M) = 3 4 · 5 6 = 5 8 b) Ao menos um esteja vivo? Ainda assumindo independência entre H e M , a probabilidade de ao menos um esteja vivo daqui a 10 anos é dada por P (HM,HM c, HcM) = P (H)P (M) + P (H)P (M c) + P (Hc)P (M) P (HM,HM c, HcM) = 3 4 · 5 6 + 1 4 · 5 6 + 3 4 · 1 6 P (HM,HM c, HcM) = 15 24 + 5 24 + 3 24 = 23 24 A solução acima é simplificada com a aplicação do evento complementar P (HM) = 1− P (HcM c) = 1− 1 4 · 1 6 = 23 24 Exemplo 3) Aplicação em confiabilidade de sistemas. 26 Teoria da Probabilidade Conceitos Básicos e Definições Um sistema de componentes é determinado por um conjunto de itens associados numa dada configuração. As configrações mais simples são os sistemas em série e em paralelo. A associação de ambas as configurações são chamadas de sistemas série-paralelo. Neste sentido, a confiabilidade de um sistema num dado instante t é dada pela probabili- dade de que este esteja funcionando normalmente. Considere um componente tal que a probabilidade de que esteja funcionando num ins- tante t dada por p, 0 ≤ p ≤ 1. Dois destes componentes são colocados em funcionamento segundo as configurações abaixo. Assumindo que os componentes funcionem de maneira independente, determine a confiabilidade do sistema em cada um dos casos. Sejam os eventos: S = { o sistema funciona no tempo t } =⇒ confiabilidade do sistema = P (S) Ci = { o componente i funciona no tempo t } =⇒ P (Ci) = p a) Sistema em série: na configuração em série, o sistema funciona se os dois componen- tes funcionarem simultaneamente, desta forma P (S) = P (C1 ∩ C2) = p2 Figura 1.9: Sistema em série b) Sistema em paralelo: o sistema funciona se pelo menos um dos componentes estiver funcionando, logo P (S) = P (C1 ∪ C2) = p+ p− p2 = 2p− p2 Figura 1.10: Sistema em paralelo 27 Teoria da Probabilidade Conceitos Básicos e Definições c) Sistema série-paralelo: o sistema série-paralelo, com a configuração dada pela Figura 1.11, funciona se C1 funcionar e, (C2 ou C3 funcionar). Obd: Fica para o leitor mostrar que a confiabilidade deste sistema é dada por P (S) = 2p2 − p3 Figura 1.11: Sistema série-paralelo Exemplo 4) Uma moeda equilibrada é lançada tês vezes. Dê o espaço amostral: i) Ω = {(c, c, c); (c, c, c¯); (c, c¯, c); (c¯, c, c); (c, c¯, c¯); (c¯, c, c¯); (c¯, c¯, c); (c¯, c¯, c¯)}, em que c = cara e c¯ = coroa. ii) Verifique se os eventos {ocorrem pelo menos duas caras} e {ocorre coroa no 1º lança- mento} são independentes. A = { ocorrem pelo menos duas caras } =⇒ A = {(c, c, c); (c, c, c¯); (c, c¯, c); (c¯, c, c)} B = { ocorre coroa no 1º lançamento } =⇒ A = {(c¯, c, c); (c¯, c, c¯); (c¯, c¯, c); (c¯, c¯, c¯)} No lançamento de uma moeda P (c) = P (c¯) = 1/2, logo, os eventos elementares de Ω têm todos probabilidade 1/8. Desta forma, verifica-se facilmente que P (A) = P (B) = 1 2 . Ainda, A ∩B = {(c¯, c, c¯); (c¯, c¯, c); (c¯, c¯, c¯)} =⇒ P (A ∩B) = 3 8 , portanto, P (A|B) = 3/8 1/2 = 3 4 6= P (A)P (B). Logo, os eventos A e B não são independentes. 28 Teoria da Probabilidade Conceitos Básicos e Definições 1.6 Contagem Considere um espaço amostral finito e equiprovável Ω, no qual cada evento elementar tem probabilidade P ({ωi}) = 1 card(Ω) , i = 1, 2, . . . , card(Ω). Considere um evento A pertencente ao espaço de probabilidade (Ω,A , P ), então, a pro- babilidade do evento A é definida por P (A) = card(A) card(Ω) Assim sendo, a determinação de P (A) resume-se num problema de contagem do número de elementos de A e de Ω, o que é um procedimento simples quando tanto Ω tem poucos pontos, mas pode ser, trabalhoso, ou até mesmo impraticável, quando o número de pontos é grande (ou mesmo moderado). 1.6.1 Amostras ordenadas Considere dois conjuntos S e U , com m e n elementos, respectivamente. Ao serem sele- cionados um elemento de cada conjunto, podem-se formar (m×n) duplas do tipo (xi, yj), i = 1, 2, . . . ,m; j = 1, 2, . . . , n, conforme mostra a Figura 1.12. Figura 1.12: Seleção alatória em dois conjuntos finitos. Considere, agora, n conjuntos distintos S1, S2, . . . , Sn, de tamanhos s1, s2, . . . , sn, respec- tivamente. Se selecionarmos um elemento de cada conjunto teremos (s1 × s2 × . . . × sn) n−uplas do tipo (x1, x2, . . . , xn). 29 Teoria da Probabilidade Conceitos Básicos e Definições Se, no entanto, os n conjuntos forem o mesmo conjunto S, com s pontos, então existirão sn n−uplas do tipo (x1, x2, . . . , xn) para as quais xi, i = 1, 2, . . . , n, é um ponto de S. Esta situação, em que o número de elementos de S permanece constante, caracteriza uma ”amostra aleatória com reposição”. Com a condição inicial de que o espaço amostral é equiprovável, todas as sn n−uplas têm igual probabilidade de serem selecionadas, sendo essa probabilidade igual a 1 sn . (1.3) Exemplo 1) Uma moeda equilibrada é lançada n vezes. Determine a probabilidade de se obter ao menos uma cara nos n lançamentos. Nessa situação, o conjunto S é dado por: S = {c, c¯}, sendo que P ({c}) = P ({c¯}) = 1/2. Como s = 2, então, o número de n−uplas possíveis é igual a 2n. Seja o evento de interesse A = { ao menos uma cara nos n lançamentos }. Definindo Ai = { o evento cara no i−ésimo lançamento }, então, A = n⋃ i=1 Ai, cuja probabilidade é dada por: P (A) = 1− P (Ac) P (A) = 1− P [( n⋃ i=1 Ai )c ] Das leis de Morgan, tem-se que P (A) = 1− P ( n⋂ i=1 Aci ) P (A) = 1− n∏ i=1 P (Aci) Portanto, a probabilidade desejada é dada por: P (A) = 1− ( 1 2 )n . 30 Teoria da Probabilidade Conceitos Básicos e Definições Se, por exemplo, n = 10, P (A) = 1− 1 1024 = 1023 1024 . Considere, agora, o conjunto S, contendo s elementos distintos, sendo que o elemento escolhido não é recolocado no conjunto após a seleção. Neste caso, a amostra alatória é do tipo ”sem reposição”. Repetindo o procedimento n vezes, o número de n−uplas possíveis, sem que nenhum xi, i = 1, 2, . . . , n, seja repetido, é dado por: As,n = s× (s− 1)× . . .× (s− n+ 1), (1.4) sendo que a quantidade As,n representa um arranjo de s elementos tomados n-a-n. Exemplo 2) Seja um conjunto S com s elementos distintos. Considerendo uma amostra- gem aleatória com reposição, qual a probabilidade de que nenhum elemento de S apareça repetido na amostra. Seja o evento E = { nenhum elemento repetido na amostra }, então P (A) = total de amostras para as quais nenhum elemento apareça repetido total de amostras possíveis . Desta forma, de (1.3) e (1.4), temos que a probabilidade acima é dada por P (E) = As,n sn = s(s− 1) . . . (s− n+ 1) sn P (E) = s s (s− 1) s . . . (s− n+ 1) s P (E) = ( 1− 1 s )( 1− 2 s ) . . . ( 1− n− 1 s ) P (E) = n−1∏ k=1 ( 1− k s ) . (1.5) Como na maioria das situações práticas o número de elementos do conjunto S (ou ”popu- lação”) é muito grande, calculando o limite em (1.5), tem-se lim s→∞ P (E) = lim s→∞ [ n−1∏ k=1 ( 1− k s )] = 1, ou seja, quando as populações são muito grandes, as amostras aleatórias “com” e “sem” 31 Teoria da Probabilidade Conceitos Básicos e Definições reposição se equivalem. Exemplo 3) Qual a probabilidade de que, num grupo com n pessoas, não existam duas com aniversário na mesma data? (este problema é muito popular, sendo conhecido como “problema dos aniversários”) Seja: S = {1, 2, 3, . . . , 365}, então S é definido como sendo os dias do ano e, s = 365. Considerando que uma data de nascimento é uma seleção aleatória de um elemento deS, então, para E = { nenhuma coincidência de datas de aniversário no grupo }: P (E) = n−1∏ k=1 ( 1− k 365 ) . Por exemplo, para um grupo de n = 4 pessoas P (E) = ( 1− 1 365 )( 1− 2 365 )( 1− 3 365 ) = 0.9836. Desta forma, a probabilidade de que, num grupo de quatro pessoas, pelo duas delas façam aniversário na mesma data, é de 1− 0.9836 = 0.0164. 1.6.2 Permutações Considere n caixas e n bolas distintas, numeradas de 1 a n. De quantas meneiras diferen- tes podem-se colocar as n bolas nas n caixas, de modo que cada caixa contenha exatamente 1 bola? O número de bolas possíveis para se colocar na primeira caixa é n, na segunda caixa é (n− 1), na terceira (n− 2), e assim por diante, sendo que, para a n−ésima caixa, só restará uma bola. O número de possibilidade, assim definido, é dado pela permutação das n bolas Pn = n (n− 1) (n− 2) . . . 1 = n! Na permutação, uma número n de objetos ou items são reorganizados em n posições distintas, tal que, cada posição seja ocupada por apenas um item. Assim sendo, uma compsição específica de bolas nas caixas tem probabilidade de ocor- rência 1 Pn = 1 n! 32 Teoria da Probabilidade Conceitos Básicos e Definições Qual é a probabilidade de que a bola i seja colocada na caixa j, i, j = 1, 2, ...n? Fixando uma bola e uma caixa restam (n − 1) bolas para serem permutadas nas (n − 1) caixas, logo, o número de possibilidade tal que a bola i esteja na caixa j é dado por Pn−1 = (n− 1)!. Desta forma, a probabilidade do evento A = { a bola i seja colocada na caixa j } é P (A) = Pn−1 Pn = (n− 1)! n! = 1 n . Por sua vez, a probabilidade de que, permutando-se n bolas em n caixas, exatamente k bolas caiam em k caixa específicas é dada por: Pn−k Pn = (n− k)! n! = 1 An,k . Exemplo 4) Numa festa de final de ano, n = 8 casais concordam em participar de uma brincadeira na qual, todos os casais participantes são separados e novos pares são formados por sorteio para dançarem pelo menos uma música. Qual é a probabilidade de que exata- mento 4 casais sejam mantidos, ou seja, 4 garotas fiquem com seus respectivos namorados? Defindo o evento A = { 4 casais sejam mantidos }, então, n = 8 e k = 4, logo P (A) = (8− 4)! 8! = 1 A8,4 = 0.000595. 1.6.3 Amostras Desordenadas Considere o conjunto S, com s elementos, logo existem As,n amostras distintas de ta- manho n, n < s, extraídas sem reposição. Nesta situação, considera-se a ordem das ob- servações na amostra, ou seja, amostras com os elementos em diferentes ordenações são consideradas distintas. Em muitas situações, no entanto, o interesse recai nos elementos da amostras, indepen- dente da ordem em que são selecionados. É o caso de amostras desordenadas. Neste sentido, uma amostra sem reposição {x1, x2, . . . , xn} pode ser reordenada de n! maneiras di- ferentes (todas com os mesmos elementos), fato este, que deve ser considerado no momento da contagem. Portanto, dividindo o número de amostras sem reposição pelo total de reordenações, obtem-se o número de amostras possíveis, sem reposição e sem considerar a ordem dos 33 Teoria da Probabilidade Conceitos Básicos e Definições elementos, ou seja, As,n n! Multiplicando-se o numerador e denominador por (s− n)!, tem-se As,n n! = s(s− 1) · · · (s− n+ 1) (s− n)! n! (s− n)! = s! n! (s− n)! O termo As,n/n! é conhecido como coeficiente binomial ou combinação, podendo ser re- presentado por Cs,n ou ( s n ) . Logo, a combinação de s elementos, tomados n-a-n é dada por ( s n ) = s! n! (s− n)! , n < s. Exemplo Considere a amostra {3, 1, 7}. como n = 3, o número de reordenações dos seus elementos é 3! = 6: {3, 1, 7}, {3, 7, 1}, {1, 3, 7}, {1, 7, 3}, {7, 3, 1} {7, 1, 3} Notas: a) O coeficiente ( a x ) é bem definido para a ∈ R e x ∈ N, por exemplo, se a = −pi e x = 3, então( −pi 3 ) = −pi(−pi − 1)(−pi − 2) 3! = −pi(pi − 1)(pi − 2) 6 = −11.1497. b) Por definição, 0! = 1 e Aa,0 = 1. c) Para a inteiro positivo, se x > a ou x < 0 p.def. =⇒ ( a x ) = 0; Exemplo 5) Considere S = {1, 2, . . . , s}, um conjunto finito. Qual a probabilidade de se extrair k < s elementos de S tal que os valores estejam em ordem crescente, ou seja, tal que 1 ≤ x1 < x2 < . . . < xk ≤ s? 34 Teoria da Probabilidade Conceitos Básicos e Definições O número de amostras de tamanho k < n que podem ser retiradas de S tal que não hajam repetições é An,k = n(n− 1) . . . (n− k + 1). Dessas As,k existem k! reordenações, das quais apenas uma contém os valores em sequência. Portanto, a probabilidade desejada é: P (A) = k! As,k = 1 Cs,k Assumindo S = {1, 2, 3, 4, 5}, então s = 5 e k = 3 (amostras de tamamho 3 de um conjunto com 5 elementos). A seguir são apresentadas todas as amostras possíveis, com destaque em negrito para as amostras nas quais os valores estão em ordem crescente. 1 2 3 1 2 4 1 2 5 1 3 4 1 3 5 1 3 2 1 4 2 1 5 2 1 4 3 1 5 3 2 1 3 2 1 4 2 1 5 3 1 4 3 1 5 2 3 1 2 4 1 2 5 1 3 4 1 3 5 1 3 1 2 4 1 2 5 1 2 4 1 3 5 1 3 3 2 1 4 2 1 5 2 1 4 3 1 5 3 1 1 4 5 2 3 4 2 3 5 2 4 5 3 4 5 1 5 4 2 4 3 2 5 3 2 5 4 3 5 4 4 1 5 3 2 4 3 2 5 4 2 5 4 3 5 4 5 1 3 4 2 3 5 2 4 5 2 4 5 3 5 1 4 4 2 3 5 2 3 5 2 4 5 3 4 5 4 1 4 3 2 5 3 2 5 4 2 5 4 3 . Amostras possíveis A5,3 = 60 . Reordenações 3! = 6 . Probabilidade do evento A = { extrair uma amostra de tamanho 3 com os valores em ordem crescente }: P (A) = 6 60 = 1 10 = 0.10 Exemplo 6) Qual é a probabilidade de se obter um royal straight flush numa mão de pôquer, antes da troca de cartas? Um royal straight flush é uma sequência com as maiores cartas (A, K, Q, J, 10), sendo todas do mesmo naipe. 35 Teoria da Probabilidade Conceitos Básicos e Definições . Antes da troca de cartas tem-se A52,5 mãos possíveis. . Reordenações: 5! = 120 possibilidades de se obter a mesma mão. . Probabilidade do evento A = { obter a mão (A, K, Q, J, 10) com todas as cartas do mesmo naipe } P (A) = 4× 5! A52,5 = 4 C5,5 ∼= 1.54× 10−6 Fica como exercício para o leitor calcular as probabilidades de se obter as demais mãos no jogo no pôquer (antes da troca das cartas). . Straight flush (cinco cartas do mesmo naipe, em sequência); . Quadra (quatro cartas do mesmo valor); . Full house (uma trinca e um par); . Flush (as cinco cartas do mesmo naipe); . Straight (cinco cartas em sequência, sem consideração de naipes); . Trinca (três cartas do mesmo valor); . Dois pares (pares com cartas de valores distintos); . Par (duas cartas do mesmo valor). Exemplo 7) No jogo da megasena o que mais vantajoso: A = { escolher d = 10 dezenas e jogar todas as combinações possiveis de 6 dezenas } ou B = { fazer 210 jogos distintos de 6 dezenas }? Espaço amostral Ω = {1, 2, 3, . . . , 60} Total de possibilidades com jogos de 6 dezenas: C60,6 = 60! 54! 6! . Total de jogos possíveis de 6 dezenas dentre as d = 10 escolhidas: C10,6 = 10! 4! 6! = 210. Portanto, as chances de se ganhar na megasena são iguais para os dois casos visto que: P (A) = P (B) = 210 C60,6 ≈ 4.2× 10−6 1.6.4 Partições Seja uma população S, de tamanho s, dividida em k subpopulações S1, S2, . . . , Sk com s1, s2, . . . , sk elementos, respectivamente. Considerando o caso de amostras desordenadas e sem reposição, a probabilidade de que, numa amostra de tamanho n sejam selecionados exatamente n1, n2, . . . , nk elementos 36 Teoria da Probabilidade Conceitos Básicos e Definições de S1, S2, . . . , Sk, tal que ni < si, i = 1, 2, . . . , k, é dada por P (n1, n2, . . . , nk) = ( s1 n1 )( s2 n2 ) · · · ( sk nk ) ( s n ) , em que k∑ i=1 si = s e k∑ i=1 ni = n. Exemplo 7) Num grupode com 12 professores e 5 alunos do curso de Estatística, devem ser escolhidas n = 5 pessoas para formar uma comissão para falar com o Reitor. Quantas comissões podem ser formadas de tal forma que, dos escolhidos, 3 sejam professores e 2 sejam alunos? O grupo tem um total de N = 12 + 5 = 17, desta forma, o total de comissões é dado por( 17 5 ) = 17! 12! 5! = 6188 comissões. O número de copmissões com exatamente 3 professores e 2 alunos é dado por( 12 3 )( 5 2 ) = 2200 comissões com 3 prof. e 2 alunos. Desta forma: P (comissão com 3 professores e 2 alunos) = ( 12 3 )( 5 2 ) ( 17 5 ) = 2200 6188 = 0.355, Exemplo 8 - Captura e recaptura) Num lago há uma população de peixes de tamanho N . Uma rede é lançada, m peixes são capturados e marcados, após o que, são devolvidos à água. A rede é lançada uma 2ª vez e um total de n peixes são capturados. Qual é a probabilidade do evento: A = { exatamente x, dentre os n peixes capturados no 2º lançamento, são marcados } 37 Teoria da Probabilidade Conceitos Básicos e Definições Após a primeira captura tem-se N peixes no lago, dos quais m são marcados. Da partição da população desejamos que no segundo lançamento da rede sejam captu- rados x peixes marcados e (n− x) não marcados, logo P (A) = ( m x )( N −m n− x ) ( N n ) (1.6) Uma situação prática envolvendo o problema da captura e recaptura refere-se à estimação do tamanho da população N . Conhecendo m da primeira captura e tendo observado n e x do segundo lançamento da rede, como podemos estimar o tamanho da população de peixes N? Da inferência estatística tem-se que uma estimativa para o tamanho da população é dada pelo valor de N que maximiza a probabilidade em (1.6). Assumindo, por exemplo, m = 50 e n = 30, qual é a probabilidade de que exatamente x peixes do segundo lançamento da rede sejam marcados? P (A) = ( 50 x )( N − 50 30− x ) ( N 30 ) . (1.7) Portanto, dado o número de peixes marcados na segunda captura, ou seja, dado x, o tamanho da população de peixes no lago é estimado pelo valor de N que maximiza (1.7). Simplificando ainda mais, considere m = 10 e n = 5. A probabilidade de que x = 1 peixe do segundo lançamento da rede seja marcado é P (A) = ( 10 1 )( N − 10 4 ) ( N 5 ) . 38 Teoria da Probabilidade Conceitos Básicos e Definições Com um pouco de álgebra, obtem-se P (A) = 50(N − 10)(N − 11)(N − 12)(N − 13) N(N − 1)(N − 2)(N − 3)(N − 4) , N > 13. A seguir são apresentados a tabela com os cálculos para a obtenção de N e a curva com o valor de P (A) versus N . Pelos valores apresentados, verifica-se que valor de N pode ser estimatido em N = 49 ou N = 50. N P (A) 14 0.0050 20 0.1354 30 0.3400 40 0.4165 48 0.4311 49 0.4313 50 0.4313 51 0.4311 60 0.4217 80 0.3814 100 0.3394 120 0.3029 Exemplo 9 - Jogo da Megasena) Retomando o problema da megasena, considere que o apostador escolha um número d de dezenas e aposte todos os jogos possíveis com 6 dezenas. Se o apostador conseguir acertar as 6 dezenas sorteadas, além de ganhar na sena, de quebra, ele consegue algumas quinas e quadras. Quantas quinas e quadras o apostador consegue ao acertar as seis dezenas sorteadas? De maneira geral, apostando nos Cd,6 jogos possíveis e acertando as 6 dezenas sortea- das, tem-se 39 Teoria da Probabilidade Conceitos Básicos e Definições . ou seja, são 6 dezenas sorteadas, dentre as d escolhidas e (d− 6) não sorteadas; . Q acertos dentre as 6 dezenas sorteadas e (6 − Q) erros, dentre as dezenas não sorteadas; ( 6 Q ) ( d− 6 6−Q ) (1.8) . se o apostador acertar as 6 dezenas, então Q = 6 e o número de senas é igual a( 6 6 ) ( d− 6 6− 6 ) = ( 6 6 ) ( d− 6 0 ) = 1 Este resultado é óbvio, uma vez que o procedimento de escolha implica a inexistência de repetições, logo, haverá apenas um jogo de seis dezenas coincidindo com as dezenas sorte- adas. Mas, acertando a sena, quantas quinas e quadras são, também, obtidas? O raciocínio é o mesmo que no caso anterior, isto é, tendo feito a sena, sendo Q acertos dentre as 6 dezenas sorteadas e (6−Q) erros dentre as não sorteadas, então . fazendo Q = 5, o número de quinas obtidas é dado por( 6 5 ) ( d− 6 6− 5 ) = ( 6 5 ) ( d− 6 1 ) = 6(d− 6), d > 6 . da mesma forma, para Q = 4, o número de quadras é( 6 4 ) ( d− 6 6− 4 ) = ( 6 4 ) ( d− 6 2 ) = 15 (d− 6)(d− 7) 2 , d > 6. . Se d = 10, como no exercício anterior, então, além de ganhar na megasena, o apostador conseguirá( 6 5 ) ( 4 1 ) = 24 quinas e ( 6 4 ) ( 4 2 ) = 90 quadras Pode-se generalizar o resultado em (1.8) para os casos em que o apostador acerte 5 dezenas (faz a quina) ou apenas 4 dezenas (faz a quadra). Desta forma, substituindo-se os 40 Teoria da Probabilidade Conceitos Básicos e Definições valores 6 na primeira linha de (1.8) por 5 e 4, respectivamente, pode-se calcular o número de quinas e quadras, possíveis, para as duas situações. i) Se o apostador acertar 5 das dezenas sorteadas:( 5 Q ) ( d− 5 6−Q ) . com Q = 5, serão (d− 5) quinas, d > 6, . com Q = 4, o número de quadras é igual a 5(d− 5)(d− 6) 2 , d > 6. ii) Acertando-se 4 dezenas: ( 4 Q ) ( d− 4 6−Q ) . com Q = 4, consegue-se (d− 4)(d− 5) 2 , quadras d > 6. Na Tabela 1.2 são apresentados os números de senas, quinas e quadras se acertar 6, 5 ou 4 dezenas, dentre as d escolhidas, com todas as Cd,6 apostas possíveis. Tabela 1.2: Número de senas, quinas e quadras na megasena nos jogos com d dezenas escolhidas e combinadas. Dezenas Acertos número apostadas 6 5 4 de d senas quinas quadras quinas quadras quadras jogos 6 1 0 0 1 0 1 1 7 1 6 0 2 5 3 7 8 1 12 15 3 15 6 28 9 1 18 45 4 30 10 84 10 1 24 90 5 50 15 210 11 1 30 150 6 75 21 462 12 1 36 225 7 105 28 924 13 1 42 315 8 140 36 1716 14 1 48 420 9 180 45 3003 15 1 54 540 10 225 55 5005 41 Teoria da Probabilidade Variáveis Aleatórias 2 Variáveis Aleatórias Dado um fenômeno aleatório, definido num espaço de probabilidade (Ω,A , P ), tem-se o interesse em conhecer a estrutura probabilística de quantidades associadas a esse fenômeno. Para isso, se faz necessário a introdução do conceito de variável aleatória e a especificação de modelos para tais variáveis. Definição 2.1. Seja o espaço de probabilidade (Ω,A , P ), então, define-se por variável alea- tória, ou simplesmente v.a., qualquer função X : Ω→ R tal que: X−1(Ω) = { ω ∈ Ω : X(ω) ∈ I } ∈ A , para todo intervalo I ⊂ R. Uma variável aleatória é uma função que leva os elementos do espaço amostral Ω a um subconjunto dos reais R (Figura 2.1). Figura 2.1: Variável aleatória X : Ω→ R. Exemplo 2.1. As variáveis aleatórias são classificadas em dois tipos: i) VA discreta: é aquela para a qual o conjunto I é um conjunto finito ou infinito enumerável, por exemplo: a) I = { 1, 2, 3, 4, 5, 6 } ; 42 Teoria da Probabilidade Variáveis Aleatórias b) I = N = { 0, 1, 2, 3, 4, ... } . ii) VA contínua: é aquela para a qual o conjunto I é um conjunto infinito não enumerável, ou seja, é uma v.a. que assume valores em intervalos de números reais, por exemplo: a) I = R = (−∞,∞); b) I = [0, 1] ⊂ R. Notas: a) Para v.a.’s contínuas, a função que normalmente associa pontos de Ω ao conjunto I ⊆ R, é a função identidade; b) Para v.a.’s discretas, a função que normalmente associa pontos de Ω ao conjunto I ⊆ R, é uma contagem ou soma. 2.1 Variáveis Aleatórias Discretas X é uma v.a. discreta, num espaço de probabilidade (Ω,A , P ), é uma função com do- mínio em Ω e cujo contradomínio é um conjuntofinito ou infinito enumerável { x1, x2, x3, . . . } dos números reais R, tal que, { ω ∈ Ω : X(ω) = xi } é um evento para todo i e, portanto, pode-se calcular a sua probabilidade de ocorrência P [ {ω ∈ Ω : X(ω) = xi} ] , i = 1, 2, 3, . . . . Notas: a) Por simplicidade, representamos o evento { ω ∈ Ω : X(ω) = xi } por { X = xi } e as probabilidades são simplificadas por: P [ {ω ∈ Ω : X(ω) = xi} ] = P (X = xi) b) Se x∗ /∈ I, então { ω ∈ Ω : X(ω) = x∗ } = ∅, que também é um evento. Nesse caso, P [{ ω ∈ Ω : X(ω) = x∗}] = P (X = x∗) = 0 43 Teoria da Probabilidade Variáveis Aleatórias c) Se o conjunto I de possíveis valores de uma v.a. discreta X é formado por valores inteiros, ou inteiros não negativos, então, X é uma v.a. inteira, ou uma v.a. interia não negativa. A maioria das v.a.’s discretas são inteiras não negativas. Definição 2.2. Função de probabilidade de uma v.a. discreta X é uma função p(x) que atribui probabilidade a cada um dos possíveis valores de X. Seja X assumindo valores I = { x1, x2, x3, . . . } , então, para todo x ∈ I p(x) = P (X = x). Propriedades: A função p(x) de X em (Ω,A , P ) satisfaz: a) 0 ≤ p(xi) ≤ 1, ∀ xi ∈ I; b) ∑ i p(xi) = 1. Prova: a) Como p(x) é uma medida de probabilidade, por definição, 0 ≤ p(x) ≤ 1; b) Como, por definição, os eventos { w ∈ Ω : X(ω) = xi } , i = 1, 2, . . . são disjuntos, então ∑ i p(xi) = ∑ i P (X = xi) = P [⋃ i { w ∈ Ω : X(ω) = xi }] = P (Ω) = 1. Definição 2.3. Função de distribuição, também chamada de função de distribuição acu- mulada (fda) de uma v.a. discreta X é uma função F (x) que retorna a probabilidade de X assumir valores até o ponto x. Seja X assumindo valores I = { x1, x2, x3, . . . } , então, para todo x ∈ I F (x) = P (X ≤ x). Propriedades: F (x) apresenta as propriedades: 44 Teoria da Probabilidade Variáveis Aleatórias a) F (x) é uma função do tipo escada, ou seja, para os pontos xi, xi+1 ∈ I e x tal que xi ≤ x < xi+1, F (x) = F (xi), isto é, F (x) é constante no intervalo [xi , xi+1) (ver Figura 2.2). b) Dada F (x), para xa e xb ∈ I, tal que xa < xb, P (xa < X ≤ xb) = F (xb)− F (xa). Desta forma, para um valor qualquer xi ∈ I, tem-se p(xi) = F (xi)− F (xi−1), ou seja, a probabilidade num ponto xi é dada pela altura do “degrau” em F (xi). Exemplo 2.2. Seja a v.a. X discreta, com distribuição de probabilidade dada por: x p(x) F (x) 0 0.15 0.15 1 0.28 0.43 2 0.26 0.69 3 0.18 0.87 4 0.08 0.95 5 0.05 1.00 Assim, temos: a) p(3) = P (X = 3) = 0.18; b) F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = 0.69; c) P (1 ≤ X < 5) = P (0 < X ≤ 4) = F (4)− F (0) = 0.80, Ainda: P (1 ≤ X < 5) = 4∑ x=1 P (X = x) = 0.28 + 0.26 + 0.18 + 0.08 = 0.80; d) P (2 ≤ X ≤ 4) = F (4)− F (1) = 0.52. Exemplo 2.3. Considere 2 lançamentos independentes de uma moeda equilibrada. Definindo X como sendo o número de caras nos 2 lançamentos, temos Ω = { cc; cc¯; c¯c; c¯c¯ } . Logo: 45 Teoria da Probabilidade Variáveis Aleatórias p(0) = P [ { c¯c¯ } ∣∣∣ X( c¯c¯ ) = 0 ] = 1/4 p(1) = P [ { cc¯ } ∪ { c¯c } ∣∣∣ X( cc¯ ) = X( c¯c ) = 1 ] = 1/2 p(2) = P [ { cc } ∣∣∣ X( cc ) = 2 ] = 1/4 Portanto, a função de probabilidade de X, é dada por: x 0 1 2 p(x) 1/4 1/2 1/4 A função de distribuição da v.a. X, é dada por: F (x) = 0, x < 0; 1/4, 0 ≤ x < 1; 3/4, 1 ≤ x < 2; 1, x ≥ 2. Figura 2.2: Função distribuição acumulada da v.a. X Exemplo 2.4. Seja uma v.a. X assumindo os valores { 3, 4, 5, 6 }. Obter k ∈ R de modo que p(x) seja uma função de probabilidade: p(x) = k (x− 2)2 46 Teoria da Probabilidade Variáveis Aleatórias Das propriedades da função de probabilidade, ∑ x p(x) = 1, portanto: k [(3− 2)2 + (4− 2)2 + (5− 2)2 + (6− 2)2] =1 k [1 + 22 + 32 + 42] =1 30k =1 k = 1 30 . Desta forma, a função de probabilidade de X é dada por p(x) = (x− 2)2 30 , x ∈ {3, 4, 5, 6}. Exemplo 2.5. Considere o jogo no qual um alvo circular de raio 1 é dividido em n regiões anelares concêntricas de raio 1/n, 2/n, . . . , 1. Lança-se um dardo ao acaso e, se ele atingir a região Ai, delimitada pelos raios (i − 1)/n e i/n, i = 1, 2, . . . , n, ganha-se (n − i) reais (ver Figura 2.3) R=1 A1 n − 1 A2 n − 2 An−1 1 An 0 Figura 2.3: Regiões anelares identificadas em vermelho e ganho obtido em azul. Seja a v.a. X = importância ganha em um lançamento, obtenha a função de probabilidade de X. Aqui, o espaço de probabilidade (Ω,A , P ) é o espaço uniforme sobre o disco de raio 1. X é uma v.a. discreta definida neste espaço, assumindo os valores {0, 1, 2, . . . , n− 1}. Ainda, Ai = {X = n − i} é um evento que ocorre se, e só se, o dardo atinge a região delimitada pelos círculos de raios (i− 1)/n e i/n. 47 Teoria da Probabilidade Variáveis Aleatórias A probabilidade para o evento Ai são dadas por: P (X = n− i) = área de Ai área total P (X = n− i) = pi ( i n )2 − pi ( i− 1 n )2 pi P (X = n− i) =i 2 − (i2 − 2i+ 1) n2 P (X = n− i) =2i− 1 n2 , i = 1, 2, . . . , n. Com x = n− i, então, a função de probabilidade de X é: p(x) = 2(n− x)− 1 n2 , x ∈ {0, 1, 2, . . . , (n− 1)} 0, c.c. Com p(x) assim definida: i) Certifique-se de que p(x) é de fato uma função de probabilidade; ii) Calcule a probabilidade de se acertar a região mais central do alvo (mosca). 2.2 Principais modelos de discretos 2.2.1 Variável Aleatória Constante Seja uma v.a. X que associa um único valor k ∈ R para todo ω ∈ Ω. Então {ω ∈ Ω | X(ω) = k} é todo o espaço amostral Ω e, X(ω) = k é uma v.a. discreta com função de probabilidade: p(x) = { 1, x = k 0, x 6= k. A função de probabilidade de uma v.a. é também chamada de degenerada em k e sua 48 Teoria da Probabilidade Variáveis Aleatórias função de distribuição é dada por F (x) = { 0, x < k 1, x ≥ k. Na Figura (2.4) são apresentadas as funções de probabilidade p(x) e de distribuição F (x) para o modelo degenerado num ponto. X p(x ) k 1 X F( x) k 1 l l Figura 2.4: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo dege- nerado num ponto 2.2.2 Distribuição uniforme discreta Considere a v.a. X assumindo valores em I = {x1, x2, . . . , xn}. X tem distribuição uni- forme discreta se cada elemento de I tiver mesma probabilidade, ou seja p(x) = P (X = x) = 1 n , x ∈ I 0, x /∈ I Notação: X ∼ Ud(I) Notas: i) O modelo uniforme discreto considera que os elementos x1, x2, . . . , xn de I são equi- prováveis. 49 Teoria da Probabilidade Variáveis Aleatórias ii) Normalmente I é um subconjunto dos naturais (I ⊂ N) definido por limites [a, b], em que a < b são os parâmetros do modelo. Neste caso X ∼ Ud(a, b). A função de distribuição acumulada da v.a. da uniforme discreta é definida por F (x) = ∑ i I[xi|xi≤x] n x ∈ {x1, x2, . . . , xn}, em que I[xi|xi≤x] = 1, se xi ≤ x e I[xi|xi≤x] = 0, caso contrário. Exemplo 2.6. Considere o lançamento de um dado equilibrado e seja a v.a. X = valor observado, então, I = {1, 2, 3, 4, 5, 6} e X ∼ Ud(1, 6) p(x) = 1 6 , x = 1, 2, 3, 4, 5, 6; F (x) = x 6 x = 1, 2, 3, 4, 5, 6. Na Figura (2.5) são apresentadas as funções de probabilidade e de distribuição acumulada para o exemplo. X p(x ) 1 2 3 4 5 6 1/ 6 X F( x) 1 2 3 4 5 6 1 l l l l l l l l l l l l Figura 2.5: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo Ud(1, 6) 50 Teoria da Probabilidade Variáveis Aleatórias 2.2.3 Distribuição de Bernoulli Considere, agora, um evento A ⊂ Ω, tal que, X(ω) = 1, se ω ∈A e X(ω) = 0, se ω ∈ Ac, então, A ocorre se, e só se, X(ω) = 1. A v.a. X é uma variável indicadora de A, pois o valor de X indica a ocorrência de A e, P (A) = P [{ω ∈ Ω | X(ω) = 1}] = P (X = 1) Normalmente, o evento A é chamado de sucesso e Ac de fracasso e a v.a. assim de- finida, é chamada de v.a. de Bernoulli, em que p = P (A) é a probabilidade de sucesso e (1− p) = P (Ac) é a probabilidade de fracasso. Notas: i) Uma realização da v.a. de Bernoulli recebe o nome de “ensaio de Bernoulli ”. ii) Ensaio de Bernoulli é todo experimento com apenas dois resultados possíveis, denota- dos por sucesso e fracasso. Esses resultados são representados pelos valores 1 e 0 da v.a. X, com probabilidades de corrência p e (1− p), respectivamente. Assim,X = 1, representa um sucesso,X = 0, representa um fracasso. iii) A probabilidade de sucesso p é o parâmetro do modelo de Bernoulli. Seja X uma variável de Bernoulli com probabilidade de sucesso p, então, sua função de probabilidade é definida por p(x) = 1− p, x = 0 p, x = 1 0, x 6= 1 e x 6= 0. Notação: para indicar que uma v.a. tem distribuição de Bernoulli, usamos a seguinte notação: X ∼ Bernoulli(p). A função de probabilidade para o modelo de Bernoulli pode ser mais elegantemente re- presentada por: p(x) = px(1− p)1−x, x = 0, 1. 51 Teoria da Probabilidade Variáveis Aleatórias A função de distribuição para o modelo de Bernoulli, por sua vez, é dada por F (x) = 0, x < 0 1− p, 0 ≤ x < 1 1, x ≥ 1. A Figura (2.6) apresenta as funções de probabilidade e de distribuição acumulada para o modelo de Bernoulli com parâmetro p. Nota: Como veremos no restante da seção, a v.a. de Bernoulli serve de base para a definição de grande parte dos modelos discretos de probabilidade. X p(x ) 0 1 p 1− p X F( x) 0 1 1− p 1 l l l l Figura 2.6: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo Bernoulli (p) 2.2.4 Distribuição binomial Exemplo 2.7. Considere o experimento no qual uma moeda honesta é lançada três vezes, sendo que a probabilidade de se obter cara em um lançamento é p e de se obter coroa é (1− p), 0 ≤ p ≤ 1. Para este experimento, o espaço amostral é dado por Ω = {(c, c, c), (c, c, c¯), (c, c¯, c), (c¯, c, c), (c, c¯, c¯), (c¯, c, c¯), (c¯, c¯, c), (c¯, c¯, c¯)} em que c = cara e c¯ = coroa. Definindo a v.a. X = número de caras obtidos nos três lançamentos, determinar a função de probabilidade de X. 52 Teoria da Probabilidade Variáveis Aleatórias Para cada elemento do espaço amostral, a v.a. X assume os valores: ω = (c, c, c) ⇒ X(c, c, c) = 3 ω = (c, c, c¯) ω = (c, c¯, c) ω = (c¯, c, c) ⇒ X(c, c, c¯) = X(c, c¯, c) = X(c¯, c, c) = 2 ω = (c, c¯, c¯) ω = (c¯, c, c¯) ω = (c¯, c¯, c) ⇒ X(c, c¯, c¯) = X(c¯, c, c¯) = X(c¯, c¯, c) = 1 ω = (c¯, c¯, c¯) ⇒ X(c¯, c¯, c¯) = 0 Uma vez que os lançamentos da moeda são independentes, a v.a. X tem a seguinte função de probabilidade: x p(x) 0 (1− p)3 1 3p(1− p)2 2 3p2(1− p) 3 p3 Os três elementos de Ω para os quais X = 2, resultam das possíveis combinações nas quais são obtidas duas cara e uma coroa, implicando que a probabilidade individual p2(1− p) seja multiplicada por 3. Desta forma, a probabilidade P (X = 2) pode ser escrita como p(2) = ( 3 2 ) p2(1− p). O mesmo acontece com X = 1, resultado das possíveis combinações nas quais se obtem uma cara nos três lançamentos da moeda, sendo a probabilidade P (X = 1) escrita por p(1) = ( 3 1 ) p(1− p)2. Como podemos observar, p(x) é uma função de probabilidade discreta, pois: i) p(x) ≥ 0 ∀ x = 0, 1, 2, 3, uma vez que 0 ≤ p ≤ 1; ii) 3∑ x=0 p(x) = [p+ (1− p)]3 = 1. 53 Teoria da Probabilidade Variáveis Aleatórias Considerando que a moeda é honesta, ou seja p = 1/2, temos x 0 1 2 3 p(x) 1/8 3/8 3/8 1/8 A distribuição de probabilidade acima, como veremos pela definição (2.4), é a distribuição binomial com parâmetros n = 3 e p = 0.5. Definição 2.4. Considere n repetições independentes de um ensaio de Bernoulli cuja proba- bilidade de sucesso é P (sucesso) = p e seja a v.a. X que conta o número de sucesso nas n realizações independentes do ensaio, então, X tem distribuição binomial com parâmetros n e p e a sua função de probabilidade é dada pela expressão p(x) = ( n x ) px(1− p)n−x, x = 0, 1, . . . , n. Notação: X ∼ binomial(n, p). X p(x ) 0 1 2 3 4 0 0. 1 0. 2 0. 3 X F( x) 0 1 2 3 4 0 0. 2 0. 4 0. 6 0. 8 1 ll l l l l l l l l Figura 2.7: Funções de probabilidade (esquerda) e de distribuição (direita) do modelo binomial (4, 0.6) Notas: i) A distribuição de Bernoulli é um caso especial da binomial para o qual n = 1. ii) A função de distribuição acumulada F (x) não tem uma forma explicita, sendo definda por F (x) = ∑ xi≤x P (X = xi). 54 Teoria da Probabilidade Variáveis Aleatórias iii) Se a v.a. X conta os sucessos em n ensaios independentes de Bernoulli,X ∼ binomial(n, p). Então, se nos mesmos n ensaios, a v.a. Y contar o número de fracassos: Y ∼ binomial(n, 1− p). Exemplo 2.8. Uma indústria que produz placas para componentes eletrônicos, usadas na fa- bricação de celulares, afirma que no processo de produção dessas placas 1% sai com defeito nas furações. Considerando que na inspeção dessas placas, 10 unidades são selecionadas aleatoriamente e avaliadas: Defina uma v.a. para esse caso e determine a sua função de probabilidade p(x). Uma vez que p(x) seja definida, qual é a probabilidade de que a inspeção encontre: a) exatamente uma placa com defeito? b) pelo menos uma placa com defeito? c) no máximo três placas com defeito? A inspeção de cada uma das placas resulta em um, dentre dois resultados possíveis (placa com defeito ou placa boa), o que caracteriza um ensaio de Bernoulli no qual o resultado de interesse (sucesso) é dado pela placa com defeito. Alé disso, como as inspeções são independentes, a probabilidade de uma placa ser defeituosa (dada pelo índice de defeitos da produção, ou seja, p = 0.01) é comum a todos os ítens produzidos. Portanto, definindo a v.a. X = número de placas com defeito encontradas na inspeção das n = 10 placas selecionadas, X tem distribuição binomial com parâmetros n = 10 e p = 0.01 e sua função de probabilidade é dada por p(x) = P (X = x) = ( 10 x ) (0.01)x (0.99)10−x, x = 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10. As probabilidades solicitadas nos itens (a), (b) e (c) são, portanto, calculadas por a) p(1) = P (X = 1) = ( 10 1 ) (0.01)1 (0.99)9 = 0.09135. b) Pelo evento complementar temos que: P (X ≥ 1) = 1− P (X = 0) = 1− (0.99)10 = 0.09562 c) F (3) = P (X ≤ 3) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3) = 0.90438 + 0.09135 + 0.00415 + 0.00011 = 0.99999 55 Teoria da Probabilidade Variáveis Aleatórias Exemplo 2.9. Uma indústria vende um produto em embalagens de ½ kg. O processo de empacotamento tem como limite inferior o peso de 495 g, sendo que, os pacotes devem ter peso superior a este limite. Apesar da automação, o processo produz 6% de pacotes abaixo do limite, o que preocupa o dono da indústria numa possível inspeção. Nas inspeções, os fiscais do órgão competente costumam recolher 20 pacotes do produto das prateleiras dos supermercados e pesar cada um deles. Desta forma, qual é a probabili- dade de que: a) apenas um pacote esteja abaixo do limite de peso? b) no máximo dois pacotes estejam abaixo do limite de peso? Seja a v.a. X = número de pacotes, da amostra, abaixo do limite de peso. Então, X ∼ binomial(20, 0.06). Respostas: a) P (X = 1) = ( 20 1 ) (0.06)(0.94)19 = 0.3703; b) F (2) = P (X ≤ 2) = P (X = 0) + P (X= 1) + P (X = 2) = (0.94)20 + 0.3703 + ( 20 2 ) (0.06)2(0.94)18 = 0.2901 + 0.3703 + 0.2246 = 0.8850. 2.2.5 Distribuição geométrica Definição 2.5. Considere uma sequência de ensaios independentes de Bernoulli com proba- bilidade de sucesso igual a p e seja a v.a. X que conta o número de fracassos até a ocorrência do primeiro sucesso. Então, X tem distribuição geométrica com parâmetro p e a sua função de probabilidade é dada pela expressão p(x) = p(1− p)x, x = 0, 1, 2, . . . Notação: X ∼ geométrica(p). Exemplo 2.10. Num jogo de cassino, dois dados são lançados por um jogador que aposta uma certa quantia de dinheiro antes do lançamento. O jogador dobra o valor apostado se obter soma 11 ou 12 nos dados. Para tentar dobrar a posta, porém, o jogador tem até 3 tentativas, após as quais, ele perde o que apostou e precisa apostar novamente para continuar jogando. 56 Teoria da Probabilidade Variáveis Aleatórias Qual é a probabilidade do jogador dobrar a aposta numa rodada de lançamentos? Seja a v.a. X = número de lançamentos com somas diferentes de 11 ou 12, até que o jogador ganhe. Então, X ∼ geométrica(p). Mas, qual deve ser o valor de p? Para isso precisamos do espaço amostral para os lançamentos dos dados: Ω = {(i, j) ∈ N2 | 1 ≤ i ≤ 6 e 1 ≤ j ≤ 6}, (Ω é equiprovável) Seja o evento A = { valores favoráveis ao jogador }, então, A = {(6, 5), (5, 6), (6, 6)}. Logo, a probabilidade de sucesso p é igual a P (A), isto é: p = 3 36 = 1 12 . Assim, o jogador dobra o valor apostado se: I sair soma 11 ou 12 no primeiro lançamento dos dados; I sair soma 11 ou 12 no segundo lançamento, não tendo saído no primeiro; I sair soma 11 ou 12 no terceiro lançamento, não tendo saído no primeiro nem no se- gundo lançamentos. Desta forma, temos que calcular P (X ≤ 2), uma vez que X conta os fracassos até o primeiro sucesso. Portanto: F (2) = P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = 1 12 ( 11 12 )0 + 1 12 ( 11 12 )1 + 1 12 ( 11 12 )2 = 1 12 [ 1 + 11 12 + ( 11 12 )2] = 0.2297. Priopriedades: i) A função de distribuição acumulada F (x) é de fácil obtenção, sendo calculada a partir 57 Teoria da Probabilidade Variáveis Aleatórias do resultado P (X ≥ x) = ∞∑ k=x P (X = k) = p(1− p)x + p(1− p)x+1 + p(1− p)x+2 + . . . = p (1− p)x 1− (1− p) = (1− p)x. Desta forma, temos que a função distribuição acumulada F (x) é dada por F (x) = P (X ≤ x) F (x) =1− P (X ≥ x+ 1) F (x) = 1− (1− p)x+1. No exemplo acima, p = 1/12 e, portanto: F (2) = P (X ≤ 2) = 1− ( 11 12 )3 = 0.2297. ii) A v.a. geométrica pode, ainda, ser definida como Y = número de ensaios até o primeiro sucesso. Neste caso, Y assume valores a partir do 1, ou seja, y ∈ {1, 2, 3, . . .} e, em função disto, a sua função de probabilidade passa a ser escrita como p(y) = P (Y = y) = p(1− p)y−1, y ∈ N∗, em que N∗ é o conjunto dos naturais, excluindo-se o zero, ou seja, N∗ = N− {0}. Nota: Se a v.a. X conta o número de fracassos até o primeiro sucesso e a v.a. Y conta o número de ensaios até o primeiro sucesso, então, a relação1 entre elas é dada por: Y = X + 1 e: p(y) = P (Y = y) = P (X + 1 = y) = P (X = y − 1) = p(1− p)y−1; P (Y ≥ y) = (1− p)y−1; F (y) = P (Y ≤ y) = 1− P (Y ≥ y + 1) = 1− (1− p)y. 1A relação entre duas v.a. discretas será vista em mais detalhes na seção funções de v.a.’s. 58 Teoria da Probabilidade Variáveis Aleatórias iii) Uma propriedade importante da v.a. geométrica é a falta de memória, representada pela relação P (X ≥ x+ k |X ≥ x) = P (X ≥ k). Ou seja, dado que X já atingiu o valor x, a probabilidade de alcançar o valor x + k só depende de k, reiniciando-se a contagem. Prova: P (X ≥ x+ k |X ≥ x) = P [(X ≥ x+ k), (X ≥ x)] P (X ≥ x) = P (X ≥ x+ k) P (X ≥ x) = (1− p)x+k (1− p)x = (1− p)k = P (X ≥ k) Exemplo 2.11. Considere um processo de produção cuja proporção de defeitos é de 0.03. No processo de produção os itens são inspecionados um-a-um até que apareça o primeiro com defeito quando, então, o processo é interrompido e ajustado. a) Determine a probabilidade de que o processo seja ajustado sómente após o 40º item produzido. Seja X = número de itens bons até o primeiro com defeito. Então: X ∼ geométrica(0.03). Temos que calcular: P (defeito no item 41 ou defeito no item 42 ou . . .) = P (X ≥ 40) = (1− 0.03)40 = (0.97)40 = 0.2957. b) Sabendo que já foram produzidos 25 itens, não havendo nenhum defeito, qual é a pro- babilidade de que o primeiro item com defeito apareça após o 35º item produzido? P (X ≥ 35 |X ≥ 25) = P (X ≥ 35− 25) = (0.97)10 = 0.7374. 59 Teoria da Probabilidade Variáveis Aleatórias c) Qual deve ser o intervalo de manutenção preventiva k se desejamos que nenhum item com defeito ocorra entre duas manutenções consecutivas com probabilidade de pelo menos 0.50? Devemos obter k tal que P (X ≥ k) ≥ 0.50. Tomando a igualdade, temos P (X ≥ k) = 0.50 = (0.97)k, logo, o valor de k é dado por (0.97)k = 0.50 k ln(0.97) = ln(0.50) k = ln(0.50) ln(0.97) = 22.8 Ainda: I se k = 22 =⇒ P (X ≥ 22) = (0.97)22 = 0.5117. I se k = 23 =⇒ P (X ≥ 23) = (0.97)23 = 0.4963. Logo, as manutenções devem ser feitas a cada 22 itens produzidos. 2.2.6 Distribuição binomial negativa Definição 2.6. Considere uma sequência de ensaios independentes de Bernoulli com proba- bilidade de sucesso igual a p. A v.a. X que conta o número de fracassos até a ocorrência do r−ésimo sucesso tem distribuição binomial negativa com parâmetro r > 0 e p e sua função de probabilidade é dada por p(x) = ( x+ r − 1 r − 1 ) pr(1− p)x, x = 0, 1, 2, . . . (2.1) Notação: X ∼ BN(r, p). Nota: O termo ( x+ r − 1 r − 1 ) refere-se ao número de combinações possíveis para os (x + r − 1) ensaios, anteriores ao r−ésimo sucesso, dos quais x são fracassos e (r − 1) são sucessos. Exemplo 2.12. Numa linha de montagem de uma grande indústria os parafusos são forne- cidos em caixas com 50 unidades cada, sendo que a compra dos parafusos é feita em lotes de 250 caixas. No recebimento dos parafusos o setor competente retira uma caixa do lote e realiza uma inspeção, aceitando o lote se até a inspeção da metade da caixa, no máximo 2 60 Teoria da Probabilidade Variáveis Aleatórias parafusos tiverem a rosca “espanada” (aceitando o lote a empresa arca com o prejuízo dos demais parafusos que vierem a espanar). Por outro lado, se até a inspeção da metade da caixa, três ou mais parafusos espanarem, o lote todo é devolvido ao fornecedor. Considerando que o fabricante dos parafusos afirma que 9% dos parafusos produzidos acabam espanando na hora do uso, cacule a probabilidade de que a devolução do lote ocorra exatamente ao se testar a metade da caixa de parafusos. Seja X = número de parafusos bons até o 3º ruim. Note que, o lote será devolvido se ao se testar o 25º parafuso, aparecer o 3º ruim, logo I x = 25− 3 = 22 parafusos bons e I r = 3 parafusos espanados. Desta forma, X tem distribuição X ∼ BN(3, 0.09). P (X = 22) = ( 22 + 3− 1 3− 1 ) (0.09)3(0.91)22 = ( 24 2 ) (0.09)3(0.91)22 = 0.0253. Exemplo 2.13. Uma linha de produção adota-se como critério de parada para regulagem das máguinas a observação do k−ésimo item com defeito. Sabendo que a proporção de defeitos é 0 ≤ p ≤ 1, qual é a probabilidade de que a produção tenha que ser interrompida para regulagem na n−ésima peça produzida? Se X = número de peças boas até a k−ésima com defeito, X ∼ BN(k, p). P (X = n− k) = ( (n− k) + k − 1 k − 1 ) pk(1− p)n−k = ( n− 1 k − 1 ) pk(1− p)n−k. Notas 2.1. Das relações entre as combinações, temos uma forma alternativa da binomial 61 Teoria da Probabilidade
Compartilhar