Prévia do material em texto
XIV ' I PREFÁCIO DA PRIMEiRA EDIÇÃO jeto; pani com a .Sr!! Carol Sloan, por ser uma datilógrafa eficiente e atenta; para com D. Van Nostrand, Inc., The Free Press, Inc: e Mac~ millan Publishing .Cqmpany, por sua permissã'o para reproduzir as. Tábuas 3, 6 e 1, respectivamente; para com McGraw~Hill Book Co., Inc., Oxford University Press Inc., Pergamon Press, Ltda. e P&ntice" Hall, Inc., por suas permissões para citar · determinados exemplos ·no texto, e, finalmente para com minha esposa, não somente por me am- parar no esforço, como também por "deixar-me" e levar nossos :doi.s filhos com ela a visitarem os avós, por dois .cruciais meses de verão, du- rante os quais fui capaz de transformar. nossa casa em uma desordenada, porém tranqhila oficina, da qual surgiu, miraculosamente, a última versão final deste livro. Pullman, Washirigton Abril, 1965 P.L.M. , .·. SUMÁRIO Caprtuio 11 . Introdução à 1Probabilic1~de 1.1 Modelos Matemáticos 1 1.2 Introdução aos Conjuntos 4 1.3 Exemplos de Experimentos Não-Determinísticos· 8 1.4 O ~spaço Amostral 11 1.5 Eventos 13 1.6 Freqüência Relativa 15 1.7 Noções Fundamentais de Probabilidade 17 1.8 Duas Observações 21 Cápftulo~ .;Espaços Amostrais Finitos \ ... 2.1 . Espaço Amostral Finito 26 2.2 Resultados Igualmente Verqssímeis 27 2.3 Métodos de Enumeração 29 -Ca~rtulo\\~ Probabilidade Condfcionada e Independência 3.1 Probabilidade .Condicionada 42 3.2 Teorema de Bayes 49 3.3 Eventos Independentes 52 Capftuio~ Variãveis Aleatórias Unidimensionais 4.1 Noção Geral de Variável Aleatória 66 4.2 Variáveis Aleatórias Discretas 72 4.3 A Distribuição Binomial 75 4.4 Variáveis Aleatórias Contínuas 80 4.5 Função de Distribuição Acumulada 85 4.6 Distribuições Mistas 89 4.7 Variáveis Aleatórias Uniformemente Distribuídas 89 4.8 Uma Observação 91 Caprtuil>~ funções de Variáveis Ale~tórias 5.1 Um Exemplo 97 5.2 Everitos Equivalentes 97 ., 5.3 ·Variáveis .Aleatórias Discretas 100 i 5.4 Variáveis Aieatórias Contínuas 101 ! . I ; ·1 r -t~;;~~-~;:·:-':'· -:"·.. ' _ XVI I SUMÁRIO ~ Caprtulo 6. ~ 6.1 r ~:~ lj 604 i' 6.5 r~ i' I 6.6 I f Capítulo 1. l' r t I 701 702 703 . 704 705 7.6 707 708 709 7010 7011 Capftulo 8. 801 802 8.3 8.4 805 8o6 807 808 Capftulo 9. 901 902 903 9.4 905 '. 906 907 9.8 Variáveis Aleatórias de Duas 0111 Mais Dimensões Variáv~is Aleatórias Bidimensionais Distribuições de Probabilidade Marginal e Condicionáda Variáveis Aleatórias Independentes · · ' ·. Funções de Variável Aleatória Distribuição do Produto e do Quociente de Variáveis Aleatórias Independentes · Variáveis Aleatórias n-Dimensionais o l. Caracterização Adlicio1111al das . · Variáveis Aleatórias O Valor Esperado de Uma Variável AleatóriiJ. Expectância de uma Função de uma Variável Aleatória Variáveis Aleatórias Bidimensionais Prupriedades do Valor Esperado A Variância de uma Variável Aleat6ria Propriedades da Variância de uma Variável Aleatória Expressões Aproximadas da Expectância e da Variância A Desigualdade 'de Tchebycheff O Coeficiente de Correlação Valor Esperado Condicionado Regressão da Média Variáveis Aleatórias Discretas: A de Poisson e Outras A Distribuição de .Poisson A Distribuição de Poisson como Aproximação da Distribuição Binomial O Processo de Poisson·. A Distribuição Geométrica A Distribuição de Pascal Relação entre as Distribuições Binomial e de Pascal A Distribuição Hipergeométrica A Distribuição Multinomial Algumas Variáveis Aleatórias Continuas !mpoll'ital!'ites Introdução A Distribuição Normal ~ Propriedades da Distribuição Normal Tabulação da Distribuição Nonrtal A Distribuição Exponencial Propriedades da Distribuição Exponencial A Distribuição Gama o Propriedades da Distribuição Gama 110 116 121 124 128 131 ' 137 144 149 150 ú6 159 162 165 167 172 175 187 194 . 200 . 203 205 206 208 214 214 215 219 223 223 227 228 ' ·. SUfViÃRIO I XVII I I 9.9 9.10 9.11 9.12 Caprtulo 10. A Distribuição de" Qu~-quadrado Comparações entre D 1 iversas Distribuições A Distribuição Normp Bidimensional Distribuições Truncadas I I A f11..mção Geratrõzi de Momentos ! 10 .1 Introdução 1 10.2 A Função Geratriz de Momentos 10.3 Exemplos de Funções Geratrizes de Momentos 10.4 Propriedades da FunÇão Geratriz de Momentos ~0.5 Propriedades Reprod~tivas 10.6 Seqüências de Variáveis Aleatórias 10.7 Observação ·Final ' Cap ótu !o 11. 11.1 11.2 11.3 11.4 11.5 11.6 Aplicações à Teori~ da Confiabi!idade I Conceitos Fundamenfis . A Lei de Falhas Normal A Lei de Falhas Expdnencial A Lei de Falhas Exponencial e a Distribuição de Poisson J A Lei de Falhas de Weibull Confiabilidade de Sistemas I Capftulo 12. ,Somas de Variáveis Aleatórias ~u,-J~~- G<--0 ...... ,, lv(l/12.1 InJ.odução . I f:Y J? ' 12_2 A Lei dos Grandes N~meros · ., - () 12.3 Aproximação Normal da Distribuição Binomial "ÇJ 'y• 12.4 O Teorema do Limit~ Central ÔJ~· 12.5 Outras Distribuições Aproximadas pela Distribuição ~ \f d Normal: a de Poisson ~ a de Pascal e a Gama l\ fv '\ C 12.6 A Distribuição da So~a de um Número ,'JJ c\ Finito de Variáveis Aleatórias Capftulo ~ A'mostras e Dist~rib~ ições Amostrais 13.1 13 .2 13.3 13.4 13.5 Cap_í~-~~~ f. 14.1 14.2 14.3 14.4 14.5 Introdução Amostras Aleatórias Estatísticas Algumas Estatísticas 'mportantes A Transformação Integral · !Estimação de Parâmetros I Introdução Critérios para Estima~ivas Alguns Exemplos Estimativas de Máxima Verossimilhança O Método dos Mínimbs Quadrados I 230 233 234 236 e 247 250 255 259 260 263 267 268 271 273 274 284 286 288 292 297 299 308 310 312 313 321 329 330 334 339 349 i ~ '' ,- ! ~ ··. ~ ' I· , _ L ,. ,. I. I I I ·I ~ H 1: li ~ ~ li li !I j! i' j! ,. li I• ~· !: li 11 "l i i I .1! l. . .J XVIII I SUMÁRIO 14.6 O Coeficiente de Correlação 14 .7 Intervalos de Confiança 1,4.8 A Distribuição de t de Student 14.9 Mais Sobre Intervalos de Confiança Capftulo 1!5. Testes de IHiõpóteses 354 355 357 360 15 .1. Introdução 370 15.2 Formulação Geral: Distribuição Non~al com V~riância Conhecida 376 15.3 Exemplos Adicionais 381 15.4 Testes de Aderência 385 APÊNDICE 397 RESPOSTAS A PROBLEMAS SELECIONA!)OS 412 INDICAÇÕES BIBLIOGRÁFICAS 420 fNDICE ALFABÉTICO 422 .i 1 ·i Introdução Probabilidade Capítulo 1 1 J" Modeios Matemáticos Neste capítulo examinaremos o tipo de fenômeno que estuda- remos por todo este livro. Além disso, formularemos um modelo matemático que nos ajudará a investigar, de maneira bastante pre- cisa, esse fenômeno. De início, é muito importante distinguir o próprio fenômeno e o modelo matemático para esse fenômeno. Naturalmente, não exercemos influência sobre aquilo que observamos. No entanto, ao escolher um modelo, podemos lançar mão de nosso julgamento crítico. Isto foi espec\almente bem expresso pelo Prof. J. Neyman, que escreveu:* "Todas as vezes que empregarmos Matemática a fim de estudar alguns fenômenos de observação, deveremos essencialmente começar por construir um modelo matemático (determinístico ou probabilístico) para esses fenô- menos. Inevitavelmente, o modelo deve simplificar as coisas e certos por- menores devem ser desprezados. O bom resultado do modelo depende de que os pormenores desprezados sejam ou não realmente sem import&ncia na elucidação do fenômeno estudado. A resolução do problema matemático pode estar correta e, não obstante, estar em grande discotdância com os dados ob- servados, simplesmente porque as hipóteses básicas feitas não sejam confirma- das. Geralmente é bastante difícil afirmar com certeza se um modelo mate- mático especüicado é ou não adequado, antes que alguns dados de observação sejam obtidos. A fim de verüicar a validade de um modelo, deveremos dedu- zir um certo númerode conseqüências de nosso .modelo e, a seguir, comparar esses resultados previ:Jtos com observações." Deveremos nos lembrar das idéias aCima enquanto estivermos estudando alguns fenômenos de observação e modelos apropriados " University oj Calijornia Publications in Statistics, Vol. I, Uriiversity of California Press, 1954. ::! I PROBABILIDADE pax:a sua explicação. Vamos examinar, inicialmente, o que se pode adequadamente denominar modelo detenninistico. Por essa expres- são pretendemos nos referir a um modelo que estipule que as con- dições sob as quais um experimento seja executado determinem o resultado do experimento. Por exemplo, se introduzirmos uma bateria em um circuito simples, o modelo matemático que, presumi- velmente, descreveria o fluxo de corrente elétrica observável seria I = E/R, isto é, a J~i de Ohm. O modelo prognostica o valor de I tão logo os valore:; de E e R sejam fornecidos. Dizendo de outra mail-eira, se o experimento mencionado for repetido um certo número de vezes, toda vez utilizando-se o mesmo circuito (isto ~" conservan- do-se fixados E e R), poderemos presumivelmente esperar observar o mesmo valor para I. Quaisquer desvios que pudessem ocorrer seriam tão pequenos que, para a maioria _das finalidades, a descrição acima (isto é, o modelo) seria suficiente. O importante é que a ba- teria, fio, e amperômetro particulares utilizados para gerai: e obser- var a corrente elétrica, e a nossa capacidade de empregar o instru- mento de medição, determinam o resultado em cada repetição. (Exis- tem detenninados fatores que bem poderão ser diferentes de repeti- ção para repetição, que, no entanto, não influenciarão de modo dig- no de nota o resultado. Por exemplo, a temperatura e a umidade no laboratório, ou a estatura da pessoa que lê o. amperômetro, po- de-se razoàvelmente admitir, não terão influência no resultado.) Na natureza, existem muitos exemplos de "experimentos", para os quais modelos determinísticos são apropriados. Por exemplo, as leis da gravitação explicam bastante precisamente o que ~contece a um corpo que cai sob determinadas condições. As leis de Kepler nos dão o comportamento dos planetas. Em cada situação, o. mo- delo específica que as condições, sob as quais determinado fenômeno acontece, determinam o valor de algumas variáveiS observáveis: a grandeza da velocidade, a área varrida durante determinado pe- riodo de tempo etc. Esses números aparecem em muitas' das fõr:- mulas com as quais estamos familiarizados. Por exemplo, sa- bemos que, sob determinadas condições, a distância percorrida (verticalmente, acima do solo) por um objeto é dada por s = -16t2 + + v0t, onde vo é a velocidade inicial e t o tempo gasto na queda. O ponto, no qual desejamos fixar nossa atenção, não é a forma parti- cular da equação acima (que é quadrática), mas antes o fato de que existe uma .relação definida entre t e s, a qual determina univo- camente a quantidade no primeiro membro da equação, se aquelas no segundo membro forem fornecidas. i i i I ! ! i IN f RODUÇÃO À PROBABILIDADE I 3 - Para um grande número de I situações, ~ modelo matemático determinístico apresentado acima! é suficiente. Contudo, existem também muitos fenômenos que ~equerem um modelo matemático diferente para sua investigação. São os que denominaremos modelos não-deterministicos ou probabüístico~. (Outra expressão muito corou- mente empregada é modelo estocástico.) Mais adiante neste capitulo, estudaremos muito minuciosamente~ como tais modelos probabilísticos podem se~ apresentados. Por oraJ examinaremos alguns exemplos. SuponhaJilOS que se tenha uml fragmento de material radioativo que emita partículas alfa. Com o I auxílio de um dispositivo de con- tagem, poderemos . registrar o número dessas partfculas emitidas durante um intervalo de tempo especificado. É evidente que não poderemos. a,ntecipar precisamente lo nÚiílero de partículas emitidas, runda que se conheçam de modo exato a forma,! a dimensão, a compo- ' . I sição química e a massa do objeto 1 em estudo. Por isso, parece não existir modelo determinístico razoáf el que forneça o número de par- tículas emitidas, por . exemplo n, como uma função de várias carac- terísticas pertinentes ao material ~onte. Deveremos considerar, · em seu lugar, um modelo probabilístico. Como outro exemplo, considere-se a seguinte situação meteo- rológica. Deseja-se deterniinar qual · a precipitação de chuva que cairá · coino resultado de uma tempestade particular, que ocorra · em determinada localidade. Dispõe-s~ de instrumentos para registrar a precipitação. Observações metrorológicas podem nos fornecer considerável informação relativa à t~mpestade que se avizinhe: pressão barométrica em vários pontos, variações de pressão, velocidade do vento, origem e dir,eção da tormerlta, e várias leituras referentes a altitudes elevadas.. Contudo, quão !valiosas essas informações possam ser para o prognóstico da naturez~ geral da precipitação (digamos, fraca, média ou forte), simplesme:b.te não tomam possível dizer-se quanta chuva irá cair. Novament~ estaremos nos ocupando de um ,. I ·fenômeno que não se presta a um . tratamento determinístico. Um modelo prob~billstico explica a sitdação mais rigorosamente. · Em princípio, poderemos ser ! capazes de dizer quanta chuva caiu se uma teoria tiver sido desen~olvida (o que não foi). Por isso, empregaremos um modelo probabilÍstico. No exemplo que trata de I desintegração radioativa, deveremos empregar um modelo probabi- lístico invariavelmente em princípiol ' Arriscando-n.os a adiantarmos! demais na ap~esentação de um conceito que será definido. poster~ormelite, vamos apenas afirmar .que, em um modelo determinístico, 1 admite-se que o resultado efeti:Vo · i . 4 I PROBABIUDADE (numérico ou de outra espécie) seja determinado , pl:)l~ çq~dições sob as quais o experimento ou o procedimento seja executlj,~O, .. Em um modelo não-determinístico, no entanto, as . co~diçqes c!a "e:xpl:lri- rnentação determinam somente o comportamento prob~hÚí~tico (mais especificamente, a lei probabilística) do resuÍtad() : ()b~l:lFYáyeJ. Em outras palavras, em um modelo determinístico 'émpiegâmos "considerações físicas" para prever o resultado, enquantb em ·um modelo probabilístico ernpregfllllOS a mesma espécie de considerações para especificar uma distribuição de probabilidade. 1.2. ~ ntrodução aos Conjuntos A fim de expor os conceitos básicos do modelo probabilístico que desejamos desenvolver, será conveniente conhecer algurn~s idéiM e conceitos da teoria matemática dos conjuntos. Este é um assunto dos mais extensos e muito se tem escrito sobre ele. Contudo, neces- sitaremos apenas de algumas noções fundamentais. Um conjunto é urna coleção de objetos. Usualmente, conjuntos são representados por letras maiúsculas A, B etc. Existem três maneiras de descrever que objetos est~o contidos no ~·anjunto A: (a) Poderemos fazer uma lista dos elementos de A. Por exem- plo, A = { 1, 2, 3, 11 descreve o conjunto formado pelos inteiros positivos 1, 2, 3, 4. (b) Poderemos descrever o conjunto A por meio de palavras. Por exemplo, poderemos dizer que A é formado de todos os números reais entre O e 1, inclusive. (c) Para descrever o conjunto acima poderemos simplesmente escrever A = { x J O :<:::; x :<:::; 1 }; isto é, A é ó conjunto de todos os x, onde x é um número real entre O e 1, inclusive. Os objetos que individualmente formam a cole~ão ou conjunto A são denominados membros ou elementos de A. Quando "à" for um elemento de A, escreveremos a E A, e quando "a" não for um elemento de A, escreveremos a Et A. Existem dois conjuntos especiais que, freqüentemente, nos in- teressarão. Em muitos problemas nos dedicaremos a estudar um conjunto definido de objetos, e não outros. Por exemplo, poderemos interessar por todos os números. reais;· por todas as peças que uma linha de produção durante um período de 24 horas etc. o conjunto fundamental comoo conjunto de todos os ·. ' INTRODUÇÃO À PROBABILIDAD!= I 5 objetos que estejam sendo estudados. Este conjunto é, geralmente representado pela letra U. O QUtro conjunto que deve ser destacado pode surgir da seguinte nrui.neira: Suponha-se que o conjtm~ A seja descrito como o con- I; junto de todos os números reais x, que satisfaçam ~ equação I'' x2 + 1 ==O. Naturalmente, sabemos que não existem tais números; i' isto é, o conjunt~ A não contém qualquer elemento. Esta situação ocorre tão freqüentemente que se justifica a introdução de um nome especial para esse conjunto. Por isso, definiremos o conjunto vazio ou. nulo como o conjunto que não contenha qualquer ele~ento. · Ge- ralmente se representa. esse conjunto por 0. ~ Pode acontecer que, quando dois conjuntos A e B sejam consi- ·derados, ser elemento de A implique ser elemento de B. Nesse caso, p;, diremos que A é um subconjunto .de B,.e escreveremos A C B. In- terpretação semelhante será dada para B C A. Diremos que · dois conjuntos constituem o mesmo conjunto, A = B, se, ·e somente se,- A C B e B C A. Desse modo, dois conjuntos serão iguais se, e so- mente se, eles contiverem os mesmos elementos. As duas seguintes propriedades do conjunto vazio e do conjunto funda.mental são imediatas: (a) Para todo conjunto A, temos que 0 C A. (b) Desde que se tenha definido o conjunto fundamental, então, para todo conjunto A, considerado na composição de U, teremos AC U. Exemplo 1.1. Suponha-se que U = todos os números reais, A = I x I x 2 + 2x ~ 3 = O}, B = I x I (x ~ 2) (x2 + 2x ~ 3) = O} e c = r X I X = ~ 3, 1, 2}. Então, A c B e B = c. A seguir, estudaremos a importante idéia de combinar conjun-· tos dados, a fim de formarmos. um novo conjunto. Há duas opera-_ ç.ões fundai):lentais, e essas operações se assemelham, em· certos as- pectos, à.s operações de adição e multiplicação de números. Sejam dois conjuntos A e B .. Definiremos C como a união de A e B (algumas vezes denomi- nada a soma de A e B), da seguinte maneira: C = lx Jx E ,A ou x E B (ou ambos) ). Escreveremos· a união de A e B, assim: C= A U B. Desse modo, C será formado de todos os elementos que estejam em A, ou em B, ou em ambos. 6 I PÀOBABILIDADE Definiremos D . como a interseção · d~ A e B (al~iiigs y~~es •. P,~no· minada o produto de A e B), da seguinte maneira: .: . , - ·. . . , ·. D = {xjx E A ex E B}. ·. · · . . . ·.. . . . . ~· ·::· ... J:;:.~~-: . L,j·,.~:~~·, ... :..' .... Escreveremos a jnterseção de A e 13, assi:q1: J) =c 4 0 i-:8.: :Rqi:t~ri~ó, D será formado de todos .os elementos queestão ,~~Ae e,mB. ;; .. · · Fiilaimente, ín troduziremos · a noção •· de complem;entc?:·d~ q~ : con...: junto 4., na forma seguinte: . O conhmto· denotado,J>or; i}:) ;cpnstf ... . tuido por todos os elementos que nào esteJam e!llA (mas que ~átej~m no conjunto fundamental U) é denominado ,éoinpletÍlen~o de A;· .. Is'to · é, A= {xjx EE A}. . . · .. Um recurso gráfico, conhecido como Diaura~a d(i fenn, - pód~rá ser vantajosamente empregado quando estivermos combW:and,<;> qon- jun,tos, na maneira indicada acima. Em cada diagrama na}?ig .. J), a região sombreadarenresenta o conjunto sob exame . . · CD AnB IFig. 1.1 :/~~~~' Exemplo 1.2.. Suponha-se que U = { 1, 2, 3, 4, 5; 6, 7, 8/9, io}, A = { 1, . 2, 3, 4}, B = { 3, 4, 5, 6} . Então, encontraremos · que A= {5,.6,7,8,9,10}, AUB= {1,2,3,4,5,6} e A ()B= {3;4}~ Observe-se que, ao descrever um .conjunto (tal como A U B), cada . elemento é relacionado apenas uma vez. As operações de união e interseção, definidas acima para doiS conjuntos, podem ser estendidas, intuitivamente, para qualquer número finito de conjuntos. Assim, defhüremos .A U "B U C como A U (B U C) 0'\1 (A U B) U C, o que é equivalente, como se poderá verificar facilmente .. De modo ànálogo, definiremos A () B n C como . sendo A (l (B () C) ou (A () B) () C, o que também se pode ver'fficar serem · equi~alent~s. É evidente que poderemo~ continuar essas composiçõe!; · de ·conjuntos para qualquer número finito de con- juntos dados. i .J:.!'' i - . . INTRODUÇAO A PROBABILIDADE I 7 I ~ . . Afirmamos que alguns conjqntos são equivalente!'!, por exemplo, A n (B ()C) e (A () B) () c.i Conclui-se que existe Ul)l certo número de tai& conjuntos equivalentes, alguns ·dos quais estão rela- cionados abaixo. Se nos lembrÚmos de que dois conjuntos são o mesmo conjunto sempre que ele:s contenham os mesmos elementos, será fácil mostrar que as afirmaÇões feitas são verdadeiras. O leitor poderá se convencer disso, com a :ajuda dos Diagramas ide Vemi'. 1 (a) A U B = B U A, I (b} A() B = B ()IA, (1.1) (c) A U (B U C)=(A U B) U C) (d) A() (B ()C)= (A() B) ()C. I • ! . ~~~~üp{;)-s.,~li)t·e:c(li}wii~~f~fiU$Uff®1;;:~~-r~Y!v:~~r@.:i:f.í~~~~Ç;t~tf&~?·:,;; , Há- outras identidades de coAjuntos encerrando união, interseção e complementação. As mais irhportantes delas estão enumeradas I a ooguir. A validade de cada uma delas poderá ser verificada com . d d D' d V .I 1 ' s aJU a e um . 1agrama e enn. (e) A U (B ()~C)= (A U lJ) h-(A U C), V U) A() (B.U C)= (ªJnB) k«~. C), (g) .A () 0 = 0, (h) 4.U 0 ~A; ('J) (A() B) =A ÜB, à ~ 0 :: (A u-131 Observe-se que (g) e (h) mo·stram (1.2) I (i) (A u B) = A () B, (k) A= A. I , Uma o~tra"màneira de form~ conjuntos, quando forem dados dois (ou mais) conjuntos, será necessá~a a seguir. i I . . Definição. Sejam dois conjuntos A e B. Denominaremos produto cartesiano de A e B, denotando-o por A X B, o conjunto { (a, b ), a E A, b E B l, isto é, o conjunto de . tod:os os pares ordenados n..os quais o pri- meifo elemento é tirado de A e o ~gundo, de B. \ Exemplo 1.3. Suponha-se queA = {1, 2, 3};B = {1, 2, 3, 4}. Então, A X B = { (1, 1), (1, 2), .. l , (1, 4), (2, 1) . .'., (2, 4), (3, 1), ... , (3, 4)}. I i Observação. Em geral, A X si=F B X A. 8 I PROBABILIDADE A noção acima pode ser estendida da seguinte :maneira: Se.A1 , ••• , A n forem conjuntos, então, A 1 X A 2 X ... X An = {(a! ; a2 , ·;· •• an ), ai E Ai], ou seja, o conjunto de todas as ênuplas ordenadas ~ ·: · Um caso especial importante surge quando cons.ideram<;)S!O produto cartesiano--~~ um conjunto por ele próprio, isto é,AiXA,:o114 •X).l )Ç-A. ···~?f.~my1~§:cit1~~E;~~~~~JJL.,q;g.~,g~~twõs!é}~t~~!~ll~~~~~J}~.$";".,~, onde R é d~coríjunto de todos os números reais, e do espaço eudideano tridimensional, representado por R X R X R. · O número de elementos de um conjunto terá .grandeiiD,portância para nós. Se existir um número finito de elementos no conjunto A, digamos ar, a2,_ ... , an, diremos que A éJinito: Q~~tie.liÍJifli.Pmer0 --~~~J~;~j~~i~:;~- . :§~~~~~;=~~·é!f!;Sk!:f!~?!:;' ou·"injinito numerável. (Pode-se :m:ostrar, por exemplo, ·que\ () c-on- junto de todos os números racionais é numeráveL) :.Finalmente, deveremos considerar o caso de um conjuntoinfinito:não~númerável; este tipo de conjunto possui um número infinito de elementos qUe não podem. ser enumerados. Pode-se mostrar, por exemplo, __ que para quaisquer dois números reais b > ~~ o conjunto · A = J x I a :::; .x :::; b} contém um número não-numerável de elementos, J ~ que pÇ>dererjws associar um ponto da reta dos números reais a cada m)mero .real, o que dissemos acima afirma que qualquer interv'~lo (não deg~nerado) contém mais do que um número contável de pontos. Os conceitos apresentados acima, muito embora representem apenas um rápido exame da teoria dos corijuritds, são sufic'iehtes ·para nossos objetivos: expor, com razoável rigor e pr~ci.são, ·~ idéias fundamentais da teoria da probabilidade. 1.3. Exemplos de Experimentos Não-DeterminísÜcos Estamos agora em condições de examinar o q1,1e enténdemos por um experimento '-'aleatório" ou "não-determinístico". '· {~ais ,'preci- samente, daremos exemplos de fenômenos, para os · qmtis .: rriôdelos não-determinísticos são apropriados. Esta é uma distinção .·que o leitor deverá guardar. Portanto, nos referiremos freS!üêntemen'tea experimentos não-determinísticos ou aleatórios, quando de fato estaremos falando de um modelo não-detefminístico para um experi- mento.) Kão nos esforçaremos em dar uma definição preCisa _desté ~onceito. E.m vez disso, citaremos um grande ~úmer~ de exemplos. que ilustrarão o que temos em mente. 6NTRODUÇÃO À PROBABIUDADE I 9 E 1: Jogue um dado e observe o número mostrado na face de cima. E,: Jogue· uma moeda quatro vezes e observe o número de caras obtido. E 3: Jogue uma moeda quatro vezes e observe a seqüência obtida de caras-e coroas. E 4: Em uma linha de produção, fabrique peças em série e conte o número de peças defeituosas produzidas em um período de 24 horas. Eó: Uma asa de avião é fixada por um grande número de rebi- tes. Conte o número de rebites defeituosos. Es: Uma lâmpada é fabricada. Em seguida é ensaiada quanto à duração da vida, pela colocação em um soquete e ano- tação do tempo decorrido (em horas) até queimar. E1: Um lote de 10 peças contém 3 defeituosas. As peças são retiradas uma a uma (sem reposição da peça retirada) até que a última ·peça defeituosa seja encontrada. O núme- ro total de peças retiradas do lote é contado. E'il: Peças são fabricadas até que 10 peças perfeitas sejam pro- duzidas. O número total de peças fabricadas é contado. Es: Um míssil é lançado. Em um momento especificado t, suas três velocidades coq~.ponentes, v .. , v11 e v. são observadas. E 1o: Um míssil récem-lançado é observado nos instantes tb t2, ••• , t,. Em cada um desses instantes, a altura do míssil acima do solo é re~strada. E 11: A resistência à tração de uma barra metálica é medida. Eu: De uma urna, que só contém bolas pretas, tira-se uma bola e verüica-se sua cor. E 13 : Um termógrafo registra a temperatura continuamente, num período de 24 horas. Em determinada locálidade e em uma data especificada, esse termógrafo é lido. Eu: Na situação descrita em E18, x e y, 118 temperâturas núnima e máxima, no período de 24 horas considerado, são regis- tra,das. O que os experimentos acima têm em comum? (a) Cada experimento poderá ser sob condições essencialmente inalteradas. 10 I PROBABILIDADE (c) Quando o experimento for executado re~t~(l.amente, os resultados :individuais parecerão ocorrer de u:ffia , J~rma .aCidental. Contudo,· quando o experimento for repetÚlo º:tri ·g:~~~I[~3~~m:~-to . de vezes, uma configuração definida ou regulátidade ' surgirá. : É esta regularidade que toma possível construir um íri6cie'13' inatêltáÍico preciso, com o qual se analisará o expetimentCi. l\lhili brde, teremos muito que dizer sobre a natureza e a irnpqrtândade~ia}ágwaridade. Por- ora, o leitor necessita apenas pensar nas repetidas ~ogadas de uma moeda equilibrada. Muito embora caras e cordas- apareçam sucessivamente, em uma maneira quase arbttrária, é f~to . empírico bem conhecido que , depois de uni grande número d~. jogadas, a pro- porção de caras e a de coroas serão aproximadamente Ígu'aiS. . Deve-se salientar que todos os experimentos . . descritos acima satisfazem a essas características gerais. (Evidentemente, a última característica mencionada somente pode ser · verificada . pela experi- mentação; deixaremos para a intuição do leitor '. acreditar que · se o experimento fosse repetido um grande número de . vezes, a regulari- dade referida seria evidente. Por exemplo, se um · g~~nde nÚmero de lâmpadas, de um mesmo fabricante, fosse ensaiado, . presumivel- mente o número de lâmpadas que se queimaria após iOO horas poderia ser previsto com precisão considerável.) Note-sé que o experimento E 12 apresenta o traço peculiar de que somente umres11ltado. é possível. Em geral, tais experimentos não nos :interessarão, porque, realinente, o fato de não sabermos qual particular resultado virá Íl ocorrer, quando um experimento for realizado , é que torna um experimento intere'S8ante para nós. Comentário: Ao descrever os diversos experimentos, nós especificamos não somente o procedimento que tem que ser realizado, mas também aquilo que estaremos interessados em observar (veja, por exemplo, a diferença imtre E z e E 3 , citados anteriormente). Este .é um ponto rrmito importante, ao qual novamente nos referiremos mais tarde, quando explicarmos variáveis aleatórias. Por ora, vamos apenas comentar que, em conseqüência de um procedimento experimental isolado ou a ocorrência de um fenômeno único, muitos valores numéricos diferen- tes poderiam ser calculados. Por exemplo, se uma pessoa for escolliida de um grupo grande de pessoas (e a escoTha real seria o procedimento e:X:perimental previamente mencionado), poderíamos estar interessados na altura daquela pessoa, . no seu peso, na sua renda anual, no número de fillios dela etc. Naturalmente, na ·maioria dos ca~s. nós saberemos, antes de iniciar nossa experimentação, quais serão as características numéricas em que iremos estar interessados. · , 11\!TRODUCÃO À PROBABiLIDADE I 11 1A.~· Definição. -Para cada êxf>eDmêhto ·e do tipo que estamos con- siderando, definiremos o úpâ:Ço amCist;az como <i cÓnjurito de tó:Jõs 'os resultados possíveis de e. Geraltnente representaremos esse conjunto por S. (Neste contexto, S repre,senta o conjwlto fundamental, expli- cado anteriormente.) r· I . ' Vamos considerar cada um dos experimentos acima e descrever um espaço amostral para cada um deles. O espaço amostral S; se referirá ao experimento E;. S6: S1: Ss: S9: S10: Su: s12: Su: 11, 2, 3, 4, 5, 6}. I lo, 1, 2, 3, 4}. {todas as seqüências p6ssíveis da forma a11 a2, aa, a4 }, onde I cada a; = H ou T, conforme apareça ca~a ou coroa na i-ésima jogada. ~ : , {0, 1, 2, ... , N}, onde 1 N é o número máximo q:ue pode ser produzido em '24 hora.S . . I {0, 1, 2,-... , .M}, ond~ M é o número de ·rebites empre- gado. ltlt ~ 0}. . I 13, 4, 5, 6, 7, 8, 9, 10 }. I 110, 11, 12, ... },. i ' I v.,, Vy, Vz I v.,, Vy, v, números reais}.·. {hh· .. , hn jh;;:::: O, i =11, 2, .. . , n}. ITIT~O}. i' I bola preta}. Este espaço amostral éj o mais complexo de todos os co!lsi- derados aqui. Podemos admitir, com realismo, que a tem-. , I . . . . . peratura em determin!1-da localidade nunca possa ocorrer acima ou abaixo de ce*os valores 11! e m. Afora esta .rei- trição, poderemos aceitar a possibilidade de que qualquer I . . gráfico apareça com /determinadas restrições. Presumi- velmente, o gráfico não terá saltos (isto é, el~Ç representará uma função contínua).! Além ~isso, o gráfi~o terá certas características de ,regu\arização, que podem ser resumidllS matematicamente di~eddo-se que o gráfico representa uma , I . . função derivável. Deste modo, poderemos finalmente afirmar que o espaço a~ostral será: IJIJ uma função perivável, que satisfaça a m . .::::; . .::::; j(t) .::::; M, para ltodo t} .. I~ 12 I PROBABH.HDADIE {(x, y)lm:::;; x:::;; y:::;; M}. Isto é, §aéfo11J1acio p0rtodos os pontos dentro e sobre um. triâJ1gulo: no:;~Ia,po . x; ybicli- mensional. · · · .. . · · · ... · ... ,, .-.c-;•. ; ·,-, .> (Neste livro não cuidaremos de espaços amostrais di :•cdfnpl~xi'dade . encontrada em 81a- Ko entanto, tais espaços ariÍ6slrais'''p8dem ' súi:~ gir, mas exigem para seu estudo mais ~Íatemática âvànÇ~dâ>do qúe estamos admitindo aqui.) . e~~;.!~ii:f7~~]~~9r~~x;:~;;:mE:::;s;g;~@.8?::;;~. · estamos '' · .. ·· .. ·.··: . : d@ii::•"'"" Por isso, de ;,~;.·;'~~~~~;~ amostral associado a um experimerito, e P:ão de "o" espaço' amostraL A esse respeito, note-se a dif~re~ça· entre 82 e 8a. Saliente~se, 'tambein~ 'qu~ o r~sul t-~do de ' urri '. ê},~·~~Q}~rho não é necessariamente, um número. Por exemplo, em E i, cada resultado é uma seqüência de caras (H) e coroas (T). Em É9 e E.1o cada re- sultado e formado por um vetor, enquanto em E; 3 , e~d~ resultado constitui uma função . lativamente aos exemplos acima, observamos que 8], 82;. 8a, 84, 8s, .• 81 e 812 são finitos, 8s é infinito numerável, e 8s, 89, 810r 8u, 813 e 814 são infinitos não-numeráveis.:~~=::~~~;:;!~·:::,~~~~~t· :rimento ·Ê6 e seu e~paço amostral associado 81. É eVidente que, quando estivermos realmente registrando o tempo . tot~l t, •durante o qual uma lâmpada funcione, seremos "Vitimas" da precis[b de nosso instrumento de medir. Suponha-se que temos um instruínerrto que seja capaz de registrar o tempo com duas casas decir11ais, por exem.: . pio, 16,43 horas. Com esta restrição imposta, nosso esjlàço amos- t ral se tomará infinito numerdvel: { 0,00, 0,01, 0,02; •: : : }. Além disso, é bastante próximo da realidade admitir quenenhíun8,Jâinpada possa durar 'mais do que H horas, onde H pode ser uín fiúinero muito grande. ConseqÜentemente, parece que se f()i:inos ·completamente realistas na descrição deste espaço amostral, estaremos realmente tratando com um espaço amostral finito: { 0,00, 0,01, 0,02, .. . , H}. O número total . de resultados seria (H/0,01) + 1, que poderá ser um número muito grande; mesmo que H seja moderadamente grande, .r j \ iNTRODUÇÃO À PROBABiii..IDADE I 13 por exemplo se H = 100. Torna-se bem mail:l simples e, matemati- camente, conveniente, admitir que todos os valores de t ~ O sejam .re- sultados possíveis e, portanto, tratar o espaço amostral Ss tal como foi originalmente definido . . Diante desses comentários, alguns dos espaços amostrais des- critos são idealizados. Em todas as situações subseqüentes, oespaço amostral ·considerado será aquele que for matematicamente mais conveniente. Na maioria dos problemas, pouca dúvida ~.urge quanto à escolha adeQuada ·d9 :êsPáçO·· amosti-al. :; ·.-..· .. :. : ··.. . · . -: .. ,.., : .... ·,.:: · .. 1._5. · .:;. : :~:- ·.- ... Eventos Outra noção fundamental é o conceito de evento. <R-~~~ (relativo a um particular espaço amostral S, associado a" Upl expe- rimento e ) < e<:smrp:):es~~At!P.~ti'tfi:C0nlj;un;,t~cl:~§lresu1t~dbsi-'#~~~t;~~-~·· . Na tenninologia. dos conjuntos, um evento é·;;~ ;~bconju~to d~· Ü;·<es paço amostral S. Considerando nossa exposição anterior, isto sig~ nifica que o próprio S constitui um-evento, bem como o é o conjunto vazio 0. Qualquer resultado individual pode também ser to~ado como um evento . . Al~s exe~plos d~ ey~nt()S s~- ~ados ~ - ~~~ir. N.?,yªqí~~te, . nos referimos aos . experimentos 'relacionados aCima: A; sé teféÍ{rií. ao evento asso~iad~ ao . éxpedrh~~tÓ EZ · -· ' · -_ ;· . \ '"· · Al: ul!l número par OCQrre, .isto é, Al = {2, 4, 6}. A2: {2} ;isto é, duas caras ocorrem. A3 : {HHHH, HHHT; HHTH, HTHH.; THHH); isto é, mais caras do que coroas ocorréfam.' - . . . A4: {O}; isto é, todas as peças são perfeitas. {' A6: {3, 4, ..• , M}; isto é, mais do que dois rebites eram defei- tuosos. ·As: { t I t < 3}; isto é, a lâmpada queima em menos de. 3 horas. Au: { (x, y) I y = x + 20}; isto é, a temper~tura máxima é 20° maior do que a mínima. " Quando o espaçó amostral S for finito ou infinito numerável, todo subconjunto poderá ser considerado um evento. [Constitui um I • exercício fácil de provar, e o faremos resumidamente, que se S cdn- tiver n elementos, existirão exatamente 2n subconjuntos (eventos).] Contudo, se S for infinito não'-numerável, surgirá uma dificuldade teórica. Verifica-se que nem todo subconjunto imaginável poderá 14 I PROBABDLIDAIDE ._ ,.:;.;e~~:;:~:~;!~~~;~;;~!;d~~:!;::::;=:=~:~=:~~·~~ .. d.I:J.§t:a;~~J.Cp:lil.~'Wál:ç'ão. Felizmente, . tais subconjuntos>'iiã~:::adffiis~tveis -~·ã;;'~-~~rgem nas aplicações e, por isso, nãO ·'cU:idii.reÍxios:r dê)es . aqui. Na exposição subseqüente, será admitido : tacit~fn~ri't~ ~'que $empre que nos referirmos a um evento, ele .será da espécié :.4u'ê' j~ ~éljriitimos considerar. · · · , ~ · · · Agora, poderemos empregar as várias téGnicas .·de combirtar con- juntos (isto é, eventos) ~ obter novos ·. conhintô~·~· {istó ê, ·eventos), os quais já apresentamos anteriormente. · · . (a) Se A e B forem eventos, A U B será o evento que ocorrerá se, e somente se, A ou B (ou ambos) ocorrêreri\: (b) Se A e B forem eventos, A nB será .o .evel).to que ocorrerá se, e somente se, A e B ocorrerem. (c) Se A for um evento, A será o evento que ocorrehí se, e so- mente se, não ocorrer A. (d) Se A~> . : . , An for qUalquer coléção Íinita deeve~tos, então, U~-1 A; será o evento que ocorrerá se, e somente·se, ao menos um· dos eventos A; ocorrer. ···, (e) · Se A 1, ... , An for qualquer coleção finita de eventos, então n~-1 A; será o evento que ocorrerá se, e somente s~, todos os eventos A; ocorrerem. . . . U) Se A~> ... , An, . .. · for qualquer coleção infini~a (numerável) de eventos, então, Ui-- 1 A; será o evento que ocorre~~ se, e somente se, ao menos um dos eventos A; ocorrer. (g) Se A 11 •• • , An, ... for qualquer coleção infinita (numerável) ' • (Q .. . .:.. . • - .•. :.. . - · : . de eventos, então, ();=1 A; será o evento que ocon.'erá se1 e soinente se, todos os eventos A; ocorrerem. (h) Suponha.se que S represente o espaço amo~f:.L~L~sociado a ~;~~~~~;:;::~~:i~:i::~~~f!~~:;:::::::~;:~;:· ·~~~::;!=~~::· (i) o exemplo contido em (h) pode, obviamente, ser generalizado. Considerem~se n repetições de um experimento & cujo espaço amostràl sejaS: S X S X . .'.X S = {(s 1 , s2 , ••• , sn), si ES, i= 1, •.. , n} :'lr., INf RODUÇÃO À PROBABILfDADE I 15 I representa o conjunto de todos o~ possíveis resultados, quando & for executado n vezes. De certo modd, S X S X ..• X S é ele próprio um . espaço amostral, a saber, o espaçb amostral associado a n repetições . I . . de 8,. I Definição. Dois eventos, A le B, são den~~~Ê_g~,~"t:.@?.tr!mie -ez~ludentes, se eles não puderem 'ocorrer juntos. E~ri;mremos isso escrevendo.,~~t~"'B~rt~~J!lf'''isto é, a 1 interseção de A e B é o conjunto vaziO. I Exemplo 1.4. Um dispositivb eletrônico é ensaiado e o tempo - I . ! total de servjço t é registrado. Admitiremos, que o espaço amostral seja { t it 2:: O). Sejam A, B e cl 1 três eventos definidos da seguinte maneira: A = ·{tjt < 100}; B = {t J.50 '~ t ~ 200i; C.= (tit > 150}. Conseqüentemente, 1 A U B = (tlt ~ 200}; A jn B = {t J50 ~ t < 100}; BUC=(tJt2::50}; BnC={tJ150<t~200}; AnC=O; A u c = {tI t < 100 ou t > 150 J; ~ = {tI t ;::: 100 J; c = (tI t ~ 150 J. I Uma das características fundamentais do conceito de "experi- mento", como foi apresentado n~ seção anterior, é que nÓs 11~0 sa- bemos qual resultado particular Ócorrerá quando o experimento· for . . I realizado. Por ~;mtras palavras, Sf A for um 'evento associado a um experimento, então, não poderembs afirmar com certeza que A irá ocorrer ou não. Por isso, torna-s,e muito importante tentar associar um número ao· evento A, o qual medirá de alguma maneira quão verossírnil é que o evento A venll.a a ocorrer; Essa tarefa nos leva à teoria da prob.abilidade. I i 1.~~efliii&lê~~~a;tiva-), A fim de · motivar a o seguinte procedimento: I Definição. ]A =· nA/n é denominada freqüência relativa do evento A nas n repetições de 8. A f;eqü~ncia relativa f A ap.rese~ta as seguin- tes propriedades, de fácil verificaÇão: . (1) o ~ f A ~ 1. . . I (2) j A = 1 se, e somente se, h. OCOrrer em todas aS n repetições . . I .,, : 16 I IP'ROISAIS8UDAiiJIE (3) !A. :=O se, e somente se, A nunca ocorrer nas;nrepetiçpes. (4) Se A e B forem eventos mutuamerité' ex2ludé#tes;e ~sef~ u B · for a freqüênci!l relativa associada ao ~vento~ ~y ,s, :~B.tio-;]~ •li. fi ·= . = fA + fB. . ... . ···:. ,,_ ,; _ ,_ .. ·. . . (5) fA, .com base em n repétiçõe"s dó ex.periment() 'e' :66nsideiada como uma função de n; "converge" em ceitó "senfído ''prohábilísti_ço paraP (A), quando n -7 oo . · .· · · · ' ' ' • · · Conientárw: A Propriedade (5) está evidentemente expressada um tanto vagamente, nesta seção. Somente mais tarde (Seç.l2.2), estaremos aptos a tornar esta idéia mais precisa. Por enquanto, podemos a~enas afirmar q_{iê ;a-Propriedade (5) envolve a nÕção nitidamente intuitiva de que a freq üêricia ·relativa, ba5eada em um número crescente de observações,tende a se "estabilizar" próximo. de algum •; valor definido . Este não é o mesmo conceito usual de convergência encontrado em alguma parte da Matemática. De fato, tal co.inó af'rrmamos aqui, esta riãó é, de modo algum, uma conclusão matemática, mas apenas um fato e~pírico. A maioria de nós está intuitivamente a par deste fenômeno de estabilização, muito embora nunca o tenhamos verificado. Fazê-lo exige considerável porção de tempo e de paciência, porque inclui um grande número de repetições de um experimento. Contudo, algumas vezes, poderemos ser ingênuos observadores deste fenômenô, como ilustra o seguinte exemplo: Exemplo 1.5. Admitamos que estejamos postados na calçada e fixemos nossa atenção em dois blocos de meio-fio adjacentes. Suponha-se · que comece a chover de tal maneira que sejamos realmente capazes de distinguir pingos isolados de chuvà e registrar se esses pingos caem num . meio-fio ou noutro. Ficamos a observar os pingos e a anotar seu ponto de impacto. Denotando o i-ésimo pingo por Xi, onde Xi = 1 se o pingo cair no primeiro meio-fio, e igual a O se . cair no outro, poderemos observar uma seqüência como, por exemp1o, 1, 1, O, 1, O; 0,0, 1, O, O, 1. É evidente que não seremos capazes de prever onde um particular pingo irá cair. (Nosso experimento consta de alguma espécie de situação me- teorológica que causa a queda dos pingos de chuva.) Se calcularmos a freqüência relativa do evento A ·= { ci pingo cai no meio-fio 1}, então, a seqüência de resultados acima dará origem às Seguintes freqüências relativas (baseadas na observação de 1, 2, 3, ... pingos): 1, 1; 2/3, 3/4, 3/5, 3/6, 3/7, 4/8, 4/9, 4/ 10, 5/11, ... Esses números e .. videnciam um elevado grau de variação, especialmente no início. É intuitivamente evidente que, se o experimento acima continuasse indefmidamente, essas freqüências relativas iriam se estabilizar próximas do valor 1/2. Canse- . _qüentemente, teríamos toda razão em acreditar que, depois de algum tempo decorrido, os dois meios-fios estariam igualmente molhados. ~ ' .·, ·i Oi\!TRODUÇÃO À IP'IROBABIUDADE I H Esta propriedade de estabilidade da. freqüência relaJ;j.va é, por enquanto, uma noção inteiramente intuitiva, porém mais tarde es- taremos aptos a torná-la matematicamente precisa. -~êl:lêí:ã ~§ÍI!i"1fproprieda<!?.:ê';_g,ile'{-Se"~experimentó:ri'er--execntad&"uitr::gr.ande o· , n~~l!o~1le-ve~~S'Fa-frequên:'êÍa-tei!tti~"ª:idaii".éeórtên,Ç!ií.~c.:-álgum.;evento . .q..i4iii~~'hde~a""'i''~:ar.'º-~-.::ovez,"'mêíiõ,ili:;:rn.edi~que,.O""-nYmero~d,~:,re~·- . : ... ·t~~~r?allli!.~-P~~d"ã:- Esta caracterfstica é também conhecida como regularidade estatística. N 6s fomos um tanto vagos em nossa definição de experimento. Quando um procedimento ou mecanismo constituirá, em nossa acep- ção, um experimento capaz de ser estudado matematicani:ente por meio de um modelo não-determinístico ? Já afirmamos, anteriormente, que um experimento deve ser capaz de ser realizado repetid;unente, sob condiçQes essencialmente inalteradas. Agora, podemos acres- centar outra. condição. Quando o experimento for repetidamente realizado, ele deverá apresentar a regularidade estatistica mencio- nada acima. Mais adiante, estudaremos um teorema (denominado Lei dos Grandes Nú:meros) que mostrará que a regularidade .estatís- tica é, de fato, uma conseqüência da primeira .condição: reprodutibi- lidade. .. .. ·~ .. .. 1.7. ·· ~~~~lr:nif~nià~i~~~cfl!~Ni~í1ffi;dade Voltemos agora ao problema proposto acima: atri~uir um número a cada evento A, o qual avaliará quão verossírnil será a ocorrência de A quando' ·o experimento for realizado. Uma possivel maneira de tratar a questão seria a seguinte:--repetir o experimento um grande número de vezes, calcular a freqüência relativa fA e utilizar esse nú- mero. Quando record;nnos as propriedades de j A, torna-se evidente que este número fornece uma informação muito precisa de quão ve- rossímil é a ocorrência de A. Além disso, sabemos que à medida que o experimento se repetir mais e mais vezes, a freqüência relativa f A se estabilizará próxima de algum número, suponhamos · p. ,···Há, con- tudo, duas sérias objeções a esta maneira de tratar a questão: (a) Não está esclarecido ·quão grande deva ser n, antes que se cenheça o n~ mero: 1.000 .? 2.000? 10.000? (b) Uma vez que o experimento tenha sitio c~mpletaÍnente · descrito e o evento A especificado, o número · que estamos. procurando não deverá depender .do experimentador ou da particular veia de sortE) que ele possua. (Por exemplo, é pos- sível que uma moeda perfeitamente equilibrada, , .quando jogada 10 vezes, venha a apresentar 9 caras e 1 coroa. A freqüência rela- tiva do evento A = {ocorrer cara} seria, nesse caso, igual a 9/10 • . 18 I PROBABILIOADE !\o entanto, é evidente que nas próximas 10 jogadas o padrão de caras e coroas possa se inverter.) O que desejamos é um meio de obter tal número, sem recorrer à experimentação. Naturalmente, para. que o número que convencionarmos tenha significado, qualquer experimentação subseqüente deverá produzir uma freqüência rela- tiva que seja "próxima" do valor convencionado, particularmente se o número de repetições, no qual a freqüência relativa calculada se tenha. baseado, for muito grande. Nós procederemos, formalmente, da seguinte maneira: Definição. Seja e um experimento. Seja S um espaço amostral associado a e. A cada evento A associaremos um número real re- presentado por P(A) e denominado probabilidade de A, que satisfaça à.s seguintes propriedades: (1) O ~ P(A) ~ 1. (2) P(S) = 1. (1.3) (3) Se A e B Corem eventos mutuamente excludentes, P(AUB)= = P(A) + P(B). (4) Se A 11 At,. .. , An,. . . forem, dois a dois, eventos mutua- mente excludentes, então, Observe-se que da Propriedade 3, decorre imectiatamente que, para qualquer n finito, A Propriedade 4 não se seguirá; no entanto, quando considerarmos o espaço amostral idealizado, esta propriedade será imposta e, por isso, foi incluida aqui. A escolha das propriedades da probabilidade acima relacionadas é, obviamente, sugerida pelas correspondentes cara.ctcnsticas da frcqüência relativa. A propriedade, antes mencionada como regu- laridade estatística, será mais adiante vinculada a esta definição de probabilidade. Por enquanto, nós apenas afirmamos que se pode mostrar que os números P(A) e f A são "próximos" um do outro (em determinado sentido), se }A for baseado em um grande número de repetições. ~ este fato que nos dá a justificativa da utilização de P(A) para avaliarmos quão verossímil é a ocorrência de A. Por enquanto não sabemos como calcular P(A). Nós apenas arrolamos algumas propriedades gerais que P(A) possui. O leitor INTRODUÇÃO À PROBABILIOAOE I 19 terá que ser um pouco mais paciente (atê o próximo capitulo), antes quE' aprenda como avaliar P(A). Antes de voltarmos a esta questão, vamos enunciar e demonstrar várias conseqüências relacionadas a P(A), que decorrem das condições acima e que não dependem da ma- neira pela qual nós realmente calculamos P(A). Teorema 1.1. Se 0 for o conjunto vazio, então P(0) =O. Demonstração: Para qualquer evento A, podemos escrever A = A U 0. Uma vez que A e 0 são mutuamente excludentes, decorre da Propriedade 3, que P(A) = P(A U 0) = P(A) + P(0). Daqui, a conclusão do teorema é imediata. Comentário: Mais tarde, teremos oeasiAo de ver q11e a reciproca do teorelllA acima nAo é verdadeira. lst.o é, se P(A) • O, nlo poderemos, em geral, concluir que A - 1!, porque existem situações nas quais atribuú:nos probabilidade zero a um evento que pode ocorrer. Teorema 1.2. Se à for o evento complementar de A, então P(A) = 1 - P(Ã). (1.4) Demonstração: Podemos escrever S = A U à e, empregando ~ Propriedades 2 e 3, obteremos 1 = P(A) + P(Ã). Ccmwmtório: Este é um resultado puticulannente útil, porque ele significa que sempre que desejarmos avaliar P(A), poderemos cs.lculu P(Ã) e, depois, obtermos o resultado desejado por subtração. Veremos maistarde que, em mui- Ws problemas, é muito mais fácil calculu P(ii) do que P(A). Teorema 1.3. Se A e B forem dois eventos quaisquer, então P(A U B) = P(A) + P(B)- P(A () B). (1.5) Demonstração: A idéia desta. demonstração é decompor A U B e B em dois eventos mutuamente excludentes e, em seguida, aplicar a Propriedade 3. (Veja o Diagrama de Venn na Fig. 1.2.) Desse modo escreveremos A U B = A U (B () A), B = (A () B) U (B () A). Conseqüentemente, PfA U B) = P(A) + P(B () Ã), P(B) = P(A (J B) + P(B () A). .~ · ' r i.;•' i .r~ ,. { ,, .. .... ' I r I I i .! I. ' l : ~ . 20 I PROBABOUDADE Subtraindo a segunda igualdade da primeira, . obtém~se .. P(A U B) - P(B) = P(A) ----: P(A íi B) e daí chega-se ao resultado. Fig. 1.2 Comentário: Este teorema representa uma extensão imediata da Proprie-_ .dade. 3, porque se A n B = 0, obteremos do enunciado acima .a. Propriedade 3. Teorema 1.4. Se A, B e C forem três eventos· quaisquer, então P(A U B U C)=P(A) + P(B)+P(C)-P(A íi B)-P(A (')C)- - P(B íi C) + P(A íi B n t:). . (1.6) Demonstração: A demonstração consiste em. escrever A U B U C na forma (A U B) U C e aplicar o resultado do teorema anterior. Deixa-se ao leitor completar a demonstração. Comentário: Uma extensão óbvia do teorema é sugerida. Sejam A ii ... ,· Ak, quaisquer k eventos. Então, k k P(Ar u A2 u ... u Ak) = L P(A;) - L P(A; nA;) + 1=1' i<j=2 k + ·E P{AinA;nAr) + ... +(-I)1HP(ArnA2n .. . nAk). i<j<r=a (1.7) Este resultado pode ser facilmente estabelecido porr indução matemática~ Teorema 1.5. Se A CB, então P(A):::;; P(B). Demonstração: Podemos decompor B em dois eventos mutua- mente excludentes, na seguinte forma: B = A U (B nA). Conse- i:. :; 1: INTRODUÇÃO À PROBABiliDADE I 21 qüentemente, P(B) = P(A.) + P(B nA) ;:::: P(A), porque P(B (I Ã) ;:::: ;;:: O, pela Propriedade 1. . Comentário: Este resultado é, certamente, de conhecimento intuitivo, poill ele afirma que se B deve ocorrer sempre que A ocorra, conseqüentemente, · B é mu.Íll pl'ovável do que A. 1.8. .Aig11.1mas Observações (a) Cabe aqui uma palavra de advertência. Da exposição an- terior poderia ser (incorretamente) inferido que quando escolhermos mp modelo probabilístico para a descrição de algum fenômeno de observação, estaremos abandonando todas as relações determinís- ticas. Nada poderia estar ~ais distante da verdade. Nós ainda utilizãm~; o fato de que, por exemplo, a Lei de Ohm I = E/R vale em determinadas circunstâncias. A diferença seria uma diferença de interpretação. Em vez de afirmar que a relação .acima determina I para E e R dados, admitiremos que E ou R (ou ambos) possam variar de alguma maneira aleatória imprevisível e que,· em conse- qüência, I variará ta'Inbém de alguma forma aleatória. Para E e 'R dados, I será ainda determinado pela relação acima. O impor- tante é que, quando se adotar um modelo probabilístico para a des- crição de um circuito, considera-se a possibilidade de que E e R pos- sam variar de alguma maneira imprevisível, a qual somente pode ser descrita probabilisticamente. . Portanto, desde que tenha sen- . tido considerar somente a probabilidade de que E e R tomem certos valores, torna-se significativo . falar somente · da probabilidade de que I venha a tomar certos valores. -- ~- ·7~~::~=~~iflj[~l~!:~;;~~!f;~~~!~~· depenaercnrcomplicação de nossa técnica de mensuração e da exatidão associada a. ela. Por exemplo, se medidas exatas foremJlfo difíceis de obter que leituras repetidas da mesma quantidade condÚzam a resulta- dos variados, um modelo probabilístico será sem dúvida mais adequado para descrever a situação. (c) Indicaremo~ resumidamente que, sob certas circunstâncias, teremos condições de fazer hipóteses adicionais sobre o comportamento probabilístico de nossos resultados experimentais, as quais nos conduzi- rão a um método de avaliação das probabilidades básicas. A escollia dessas hipóteses adicionais pode ser baseada em 'considerações físicas do experimento (por exemplo, propriedades de simetria), evidência empí- .,. ; - - ·. ~' ~:" . . 22 I PROBABILIDADE rica ou, em alguns casos, apenas julgamento :<pesspãl,>bàseado em experiência anterior de uma situação similar! A IreqJ.iêl1ciâ relativa fA pode desempenhar um importante papel em nossa 'deliberação sobre a atribuição numérica de P(A). Contudo,~ imponànte' '·'coriÍ~ieender que qualquer suposição que façamos sobre P(A) deve '''s~r 'fajY:qú'~ " ~êjam satisfeitos os axiomas básicos desde (1) até (4)daDefuiiç'ãô·{1.3): · · · (d) No curso do desenvolvimento da5 idéias bâsicãs datêoria 'da probabilidade, faremos algumas referências a det~rriúnadas. analogias mecânicas. A primeira delas pode ser apropriada a.qili. Etii M~tânica, atribuímos a cada corpo B sua massa, digamos m(.B)~ ''Effi .§~guút"a'~ fa- remos diversos cálculos e obteremos várias condüsÕÚ sobre o compor- tamento de B e suas relações com outros coipos, iÍxirita(P,as -qliais envolvem sua massa m (B). O fato de que · nós podere·fu.os' ter que recorrer a alguma aproximação para obter reâlméntt m(B) pâra uin . corpo especificado não diminui a utilidade do coritéitó ' de hiassa~ Semelhantemente, estipularemos para cada evento A assocüid.() aoespaÇo amostral de um experimento um número P(A ), denominado 'probabili- dade de A, e satisfazendo nossos axiomas básicos. Ao calci.ílar reallliente P (A) para um evento específico, nós teremos que fazer hipÓteses adicionais ou que obter uma aproximação base ada em evidência. empírica. (e") . 1!; muíto importante compreender que nós tenhamos pos- tulado a existência do número P(A), e que tenhamos postulado de- terminadas propriedades que esse número possui. A validade das várias conseqüências {teoremàs), decorrentes desses postulados, 'de modo algum depende da maneira pela qual iremos obter um valor numérico para P(A). 1!; essencial que este ponto fique claro. Por exemplo, admitimos que P(A U B) = P(A) + P(B). A fim de em- pregar esta relação para a avaliação concreta de P(A U B), deveiemo~ conhecer os valores de ·P(A) e de· P(B). Explicaremos, i-esuffiida- mente, que sob certas circunstâncias, nós poderemos fazer suposiçõês adicionais que conduzam a um método de avaliação dessas probabi- lidades. Se essas (ou outras) suposições não forem fundamentadas, poderemos ter de recorrer à experi~entação a fim de alcançar o valor de P(A) a partir de dados reais. A freqüência relativa fA desempe~ nhará nisso um importante papel e será, de fato, utilizada para apro- ximar P(A). Contudo, é importante saber que j A ,o P(A) ní'ío slto o. rncHllll\ coisn.; que nó11 ~~ponaH ni.iliznrom01-1 j A Jl l~l'l~ t\proJ<iouu• /'(A) ., qt11, li!llllpl'l q111 11011 rt •ft'IÍI'Illll ll 1L /'(ti), 1'1\I ,HIIIIIIIHI 111111 111r11 11tlo IIII Vn loll' \lllll l,llltlclo t 1 1101 11 1fl1nllll11111111111" J~ 1'11111 /'( ,1) , clt 111'1111 1'11111 -~---- ------- -- --- - INT;RODUÇÃO À PROBABILIDADE I 23 [ preender que estaremos tão-somenie substituindo um valor postulado por urna aproximação obtida exp~rirnentalrnente. Quão boa ou má essa aproximação possa ser, de. ~odo algum influencia a estrutura lógica de nosso modelo. Muito ~mbora o fenômeno que o modelo tente representar tenha sido levadÓ em conta na construção do mode- lo, nós nos teremos distanciado do bróprio fenôrnen~ (ao menos tempo- :rariarnente), quando entrarmos no i-eino do modelo. I Problemas I I I I 1.1. Suponha que o conjuntO funqamental seja ÍQI'Ill8do pelos- inteiros. po- mtivos de 1 a. 10. Sejam A= (2, 3, 4) 1, B = (3, 4, 51, e C= (5, 6, 7). Enu- mere os elementos dos seguintes conjuntós: - ·- . - .. I I (a) A n B. (b) A U B. (c) A n ~· (d) A n (B n C). (e) A n (B U C)· 1.2. _ Suponha. que o conjunto ~undamental U seja dado por U = (x!O s; x ~ 2). Sejam os conjunto8 A e B definidos da forma. seguinte: A= (xll/2 < x~ 1) e B = {xll/4~ x < 3/2). Descreva os seguintes con- juntos: I r (a) A U B. (b) A U B. (c) A n IJ, Cd> :A n B. I1.3. Quais das seguintes relações si\.o verdadeiras? I - (a) (A U B) n (A U C) = A U (~ n C). (b) (A U B) = (A n B) U B. (c) A C\ B = A U B. (d) (A Li B) n c-= A n B n C. (e) (A n B) n (B n C) = e. I i 1.4. Suponha que o conjunto fund~ental seja. formado por todos os pontos (x, y) de coordenadas ambas inteiras, e que estejam dentro ou sobre a fronteira do quadrado limitado pelas retas x = O, jy = O, x = 6 'e y = 6. Eriuroere .os ele- mento,s dos seguintes conjuntoo: ! I (a) A= ((x,y)jx2 + y2 ~ 6). (~) B = ((x,y)Jy~ x~l. _ (c) C = {(x, y)jx ~ y2}. (d) B q1 C. (e) (B U A) n Ç· ! 1.5. Empregue diagramas de Vem\. para estabelecer as seguintes relly;õoa: (a) A C B e B C C implica quk A C C. " (b) A C B implica q\10 A - A n B. (c) A c B I implica que- ·:B c A. (d) A c B ilnpliCII quo A u c c IJ u c. (lll A n B I.; 0 e c c A implicam quo B () c - 0. 1 ,0, I'OI)I 'IIli\ HIU\111 rlr t 1\IHII lill (ll\ dr (HIIf)IIÇ O tlflO 11\1\r()!l,l\iUI 1(1 foi(tullm (/J) '"' 11 o r(tl(ll 1,11111111 (N), ~~~ I)IIIJifl \ ll 1Uijll111l01UIIlrl/1 I! 1111" < llllldl~Jtll l'IIV, Hl.l'l\r),., I , l1rl•t l11 III 11 1 lj\11 tlllr I prl~ll' l tlr1l11 1.111111111 1'111111!111111 '/ll~ ~~~],.lu (u(ll l•tt<llf ti I •(1111 l(llllilo 111 V''~ lt ulttuu llhlu 111~(1111 ' 1111111hlk llltlllo 1(111• '"'"III ""' I" 11111 111 l1111111 r I h riU VI' IIII I IIM~II Ulljllll(l 111(1111' I I '""' ""'" ' '' 2<l I PROBABILIDADE . · · -::-. frj). (a) Uma caixa coi:n N lâmpad!IS contém: r lâmpa<;llj.S ~- (r < ;:?'!) , com fila-: mento partido. Essas lâmpadas são verificadas \l!Íia a urnii, at.é .9ue .l,l!P-11 1~1!! pada défeituosa seja encontrada. Descreva um espaÇ0, ~kÇ;if~i :par~ : este e~ rimento.. .,.... · ' ·· · · ·· '· · ... , .. ,_·_ .. ·"·· ·/· ·-'' · '· . /' ' . • . . . _. , --~ _. <·: ... , __ :,~~ ... ,~ -._.' . (b) Suponha que as lâmpadas ·acima sejam verlficaâili uiriâ' à. •·uma; até que todas as defeituosas tenham sido encontradà.s. Déscreva: fe~p~Çi;: ~m6St~al para este experimento . -~~ '.~ · '. :. . 1.8. Considere ' quatro objetos, á'f-õl:t;ticiiiif;td'!J' . Suponha que a . or~m em que tais objetos sejam :listados represente o resultado de um experilp.ento. Sejam os eventos A e B definidos assim: A. = -fâ"êSf~lll!.~priméha:.-'-Posi~o); . B ~ lb"·el!t:t''ria":se-gnndB."-posição l . · (a) Enumere todos os elementos do ·'es~~m0st1>~J;h- (b) Enumere todos os elemtmtos dos ey~entos<4 n B e A U iJ: 1.9. Um lote contém pe~as pesando 5, 10, 15, .. . , 5Q gr11mas. : Admitamós que ao menos1 duas pe~as de cada peso sejam_ ensontradas no, !<;>te~ Duas ~as sãoretí;adas dà~ I0;te .. Sejam X o peso da pri~eita peça escolhid,a;}l .Y o pe'so q~ segunda. Portanto, o par de números (X, Y) rep_resentá : um .. resultl),do _simples do experii:ne\lto. Empregando o plano XY, marque o espaç.o amostral~ os segtün- tes eventos: · (a) [X= Y). (b) !Y> XI. (c) A ·segunda pe~a é duas vezes mais pesada que a primeira. (d) A primeira peÇa pesa menos 10 ~ama$ que a segtmda -p~a. (e) O peso médio de duâs p~ças é meno~ do ~ue 30 gramas.·· Q;;) burante-:m ;~~rodo de 2~--horas, ein algum moment:O X, uma chave é posta na posição "ligada". Depois, em algum momento futuro Y (ainda du- rante o mesmo período .de 24 horas), a chave é virada para a posi~ão "desligada". Suponha que X e Y sejam medidas em horas, no eixo dos tempos, com o início do período na origem da escala. O resultado do experimento é constituído pelo par de números (X, Y). (a) Descreva o espaço amostral. (b) Descreva e marque no plano XY os seguintes eventos; (i) O circuito está ligado por uma. _hora ou ~enos. I (Ü) O circuito está ligado no tempo z, onde zé algum instante no período dado de 24 horas. . (iii) O circuito é ligado antes do tempo lt e desligado depois do tempd 12 (onde também 11 < t2 são dois instantes durante o período de 24 -hora.S· especificado). (iv) O circuito permanece ligado duas vezes mais tempo do· que desligado. /f:11'1 Sejam A, É e C três eventos associados a um experimento. Exprima em ~~ões de conjuntos, as _segtüntes afirmações verbais: Ao menos um dos eventos ocorre. Exatamente um dos eventos ocorre. INTRODUÇÃO À PROBABILIDADE I 25 (r) Exatamente dois dos eventos ocorrem. (d) Não pais de dois dos eventos ocorrem simultaneamente. 1.12. Demonstre o Teor 1.4. l ' 1.13. (a) Verifique que para dois eventos quaisquer, Ar e A2, temos que P(Ar U A2) S P(Ar) + P(A2) .. (b) Verifique que para quaisquer n eventos Ar, . . . , An, temos que P(Ar U . .. U An) S P(Ar) + ... + P(An). (Swestdo: Empregue a indução matemática. O resultado enunciado em (b) é denominado desigualdade de Boole.] . ~.14. O Teor. 1.3 trata da probabilidade de que ao menos um de dois eventos A ou"B ·o~rra. O seguinte enunciado se refere à probabilidade de que exalmMnte um deis eventos A ou B ocorra. Verifique que P[(A () B) U (B () A)] ·= P(A) + P(B) - 2P(A () B) . . @ J ~;n certo tipo de motor _ elé~ri~ falha se ocorrer uma das seguindteass srtuàçoes: emperramento dos :r,nancars, querma dos enrolamentos, desgaste escovas. Süponha que o emperr~tnén);o seja· dua.s vezes ma i~ pr.ováyel do que 1\ queima, esta ·sendo quàtro -..:e~es mais pro~ável 'do 'que ' o 'fles~alite, dàs es~ovas: . ' Q;at,será. ·a;' ProBabilidàde de 'que-a--fàlba · seja~flevida' a _c.ada um~· dessas\ circun 1 s- tânçill.ll? . ,, ,. ~-,.. / • ·'.<! ")~':1"6.) Suponha que_ A .e B sejam eventos tais que P(.Á) = x, P(B) = y, e P(~~) = i. · Exprima cada uma das seguintes probabilidades em termos de x, y e z. (~) P(à U B). (b) P(à () B). (c) P(A U B). (d) P(A n Ii). 1.17. Suponha que A, B e C sejam eventos tais que P(A) = P(B) = P(C) = = 1/4, P(A n· B) = P(C () B) = o e P(A () C) = 1/8. Calcule a probabilidade de. que ao menos um. dos eventos A, B ou C ocorra . .r;?:~·· . '-r.1-8. Uma instalação é constituída de duas caldeiras e umamáquina.Admita que o evento A seja qqe a _!TI~quina esteja em boas condições de funcionamento, enquanto. ,os ~veritos Bk (k := 1, :n são os eventos-de que a k-ésima caldeira esteja em boas condições. O evento C é que a instalação possa funcionar. Se--a instalação puder funcionar sempre que a máquina e pelo menos urria.das caldt;jras funcionar, expresse os eventos C e C, em termos de A e dos Bk. ' .~"'"',;~_...;., )~ ('.....t.ts~· Um mecanismo tem dois tipos de unidades: I e · II_. Suponha que .se disponha de duas unidades do tipo I e três unidades do tipo I( Defina os eventos Ak, k= 1, 2eBj,j= 1, 2, 3 daseguintemaneiía:Ak:ak-ésimaunidade do tipo I está funcionando adequadamente; Bj= aj-ésima unidade do tipo II está funcionan- do adequadamente. Finalmente,· admita que C represente o evento: o mecanismo funciona. Admita que o mecan1smo .funcione se ao menos uma unidade do tipo I e ao menos duas unidades do tipo II funcionarem; expressé o evento C em termos dosAk e dosBj. I , · 1 ·.;' . . ' ... , '~ Espaços Amostrais Finitos Capí.tulo 2 2.1. Espaço Amostral Finito Neste capítulo nos ocuparemos unicamente de experimentos para os quais o espaço amostral S seja formado de um número finito de elementos. Isto S A fim de caracterizar P(A) para este modelo, deveremos ini..: 'cialmente considerar o evento formado por um resultado simples, algumas vezes denominado evento simples ou elementar, A ~ {a;}. Procederemos da seguinte maneira: A cada evento simples {a;} associaremos um número p;, deno- minado probabilidade de {a;} 1 que satisfaça às seguintes condições': (a) p;;,:::o, i= 1,2, ... ,k, (b) P1 + P2 + ... + Pk = 1. [Porque {a;) é um evento, essas condições devem ser coerentes com aquelas postuladas para as probabilidades dos eventos em geral, como foi feito nas Eq. (1.3). É fácil verificar que isso se dá.] Em segu_ida, suponha-se ,que um evento A seja constituído por r resultados, 1 :::; r:::; k, a saber · · onde j;, j~,;· ., ;};representam mn qualquer'<'.Q§~;fq,~tfêsj de 1 até k. Conseqüentemente, conclui-se da Eq. (1.3), Propriedade 4, quei 1 I I ESPAÇOS AMOSTRAiS fiNiTOS 1 27 • "?>~~.'õ'.':..~~~~~-- --~- - • • - ! • I ~~~!~t~~~'f"!'·a atnbmçao dr probabilidades Pi a cada evento elementar {ad, sujtjto às condições (a) e (b) citadas anteriormente, determina ~,.:~~~~nte P(A) para lcada evento A C S, onde P(A) é dado pelãE~f~'t} 1 . , . Para avaliarmos os p; individuais, algllina hipqtese referente aos resultados individuais de_ve seJ feita. . · Exemplo 2.11.. Suponha-se que somente • tres resultados sejam possiveis em um experimento, a saber, ah .<li e a3• Aléni .disso, su- ponha-se _que. a1 seja duas vezes Fis provável de o.correr que a2, o qual por sua vez é duas vezes mai~ provável de ocorrer que a3• Portanto, P1 = 2p2 e P2 = 2p3. Já que P1 + P:l + P3 = I, te- remos 4pa + 2pa + pg = 1, o qul finalmente dá 1 I 2 4 Pa = 7• P2l 7 e P1 = T· Comentdrio: Ns exposição que se .. $egue, empregaremos a expressão "igual- i . mente verossúneis" para signüicar "igu~lmeote prová'\éis". A hipótese mais co~um~nte I feita para ;espaços amostrais fini- tos é a de que todos os . sejam igualmente verossímeis. • \ I • Esta · hipótese nãO pode ser, · tomada como segura; ela deve ser cuidadosamente justificada. ;Existem muitos experimentos para os quais tal hipótese é assegurad11, mas existem também muitas si- . tuações experimentais nas quais i seria · absolutamente errôneo acei- tar-se essa suposição. Por exeJ?~lo, seria b~~;Sta.nte irreal supor que seja igualmente verossímil não ocorrerem chamadas telefônicas em um centro entre 1 e 2 horas da ~adrugada e entre 17 e 18 horas da tarde. I "'~~==~~· l-~·rução P1 + ... + p~c =:= 1 torna-se kp• = 1· para todo, i. t Disto de- , formado de r resultados, teremos 1t muito importante ··C· om.onleii.der que a expressão de P(A) acima é apenas uma cons~qüên~i~ qa de,, que todos, os resultados o"::\ 28 I PROBABILIDADE sejam igualmente verossimeis, e ela é aplicável somente . quandO essa suposição for atendida. Ela certamente não serve como .· uma · defi- nição geral de probabilidade. ·- Exemplo 2.2. Um dado é lançado e . todos os r~sriliados se su- põem igualmente verossimeis. O evento A ·-~c~r~er'á. se, e. somente se, um número maior do que 4 aparecer, isto é, A =:: { 5, ' 6}: Con- seqüentemente, P(A) = 1/6 + 1/6 . == 2/6. r-:>\ ~ v Exemplo 2.3. Uma moeda equilibrada é · at_irada .. çluas vezes. f_ W Seja A. o evento: {aparece uma cara). Na avaliação _de P(A), a ~ ~ análise do . . problema poderia ser a seguinte: O espaço amostral é -~ 3 S ={O, 1, 2} onde cada resultado representa o número _ de ~aras ~ que ocorre. Portanto, seria encontrada P(A) ;, 1/3! Esta análise ~ é obviamente incorreta, porque no espaço amostral.cónsiderado aci~a; ' =r todos os resultados não são igualmente verossímeis. A fim de aplicar · !f os . métodos expostos, deveremos considerar. em s .eú lugar o espaÇo t amostral '= IHH, HT, TH, TT}, onde H ·i:épresenta cara, e ·T -. oroa. Neste espaço amostral todos os resultados são _ igualJ!lente verossimeis e, . por isso, obteremos como soluçãó cbrreta de · nosso problema: P(A) = 2/4 = 1/2. Poderíamos empregar corretamente o· · espaço S da seguinte maneira: Os resultados O e 2 ··são igualmente verossímeis, enquanto o resultado 1 é du~s vezes mais provável que qualquer um · dos outros. Portanto, P(A) =: 1/2, o que concorda com a resposta anterior. Este exemplo ilustra dois aspectos. Primeiro, deveremos estar bastante I SegUrOS de que tod~S OS resultados pOSSam SUpOr-Se igual.:_ mente verossíme\s, .antes de empregar o procedimento 'acima. Se- gundo, poderemos freqüentemente, por uma escolha apropriada do espaço· amostral, reduzir o problema a outro, em que todos os resul- tados seja,;_ igualmente verossímeis. Se~pre 'qne possível, isto deve . ser feito r porque g~ralmente· , torna o cálculo . máis si.rhples. Este aspectQ.será-de novo mencionado em exemplos subseqüentes. Muito freqüentemente, a maneira pela qual o experimento -é executado determina se os result!tdos possíveis são igualmente ve- rossímeis ou iíão. Por exémplo, suponha-se que retiremos um para- fuso de uma caixa /que ·coiitenh~ tr~s parafusos de tamanhos dife~n tes. Se simplesmente escolhermos o parafuso este:rrdendo a mão dentro da caixa e apanhando aquele que tocarmos primeiro, é óbvio que o parafuso maior terá maior probabilidade de ser escolhido que os outros dois. No entanto, etiquetando cuidadosamente cada para.:. fuso com um número, escrevendo o número em um ·cartão, é esco- ~ . IESI?AÇOS AMOSTIRA~S .fiNDTOS I 29 lhendo um cartão, tentaremos garantir que cada parafuso tenha de fato a mesma probabilidade de ser escolhido. Assim, poderemos nos meter em enorme trabalho a fim de assegurarmos que a suposição matemática de resultados igualmente verossímeis seja de fato apro- priada. ' Nos exemplos já vistos e em muitos que se seguirão, trataremos d:a escolha ao aeliso de um ou mais objetos de uma dada coleção de ~:.~;~::::::;~~,::=:!::!~~:~~~~::foe';:/:ion'hamQ~. (a) Escolher ao acaso.um obJeto, dentre N objetos, significa qiUle cada objeto tem ã mesrn.a: Pl)Obabilidade de ser esc,o!hido, isto é, · · -b ~ ). r · . ~ "· ,.~~·), Pro (escolher a;= lN, t = 1, 2, ... ,N. o l'!.'J.,<;~':?Gi':J/"i,::fc, . .-1, ~..11"1 í((j de·:;, ~ ' ""r/Z (b) Escolher ao acaso dois obJetos, dentre N objetos, significa que cada par de objetos (deixada a'ordem à partertem a mesma pro- babilidade de ser escolhido que qualquer outro par. Por exemplo, se devemos escolher ao acaso dois objetos dentre (ai; a2, as, a4), obter a1 e a2 é então tão .provávêl quanto obter a2 e as etc. '·Esta for~ula ·r;ão'"levanta-imediatamente a questão de quantos pares diferentes existem. Admita-se que existam K desses pares. Então, a proba- bilid~-;!,~~~R~/K. Logo,, Vft~~:m;,ç§~i~2:S~l~~iS~?). /,..........(~) Escolher ao acaso n objetos (n ::; N) dentre N objetos signi- / fica que cada ~nupla, a saber a;,, a;,, . .. , a;n é tão provável de ser / escolhida quarito qualquer outra ~nupla. ,. / i Comentário: Já sugerimos acima que se deve tomarextremo cuidado durante ., o procedimento experimental, para assegurarmos ,que a suposição matemática q~ ~ / , ..... . ) . • • I 1 .:-~ t• =-+ ~ .• 4 .tl .P~-<J ~"'Y) \ "escolher. ao acaso" seJa atendtda.. .t ,, r1• .1 ; ... r , i li ·, ,<'= "'\ C ÇJ L-.· jlt,1 '-·· '"" \ .. . 1 . -~''{_ t:· " ~ ~e.. ' ·~ r. t.,.,.,. . ..,.. - or:';;....-r- .., . \~.--·'if'> €;--~/t.NiVJ;Dt. ?ki de . v , . 2.3. Métodos de Enumeração Deveremos fazer uma digressão, a esta. altura, para aprendero mos como enumerar. Considere-se novamente a forma já vista de P(A) a saber P(A) = r/k, :'Onflfu~Ji~O'inlffil:ero"'io:t·a:l;;€hle:matt:eir.a:s..-- . -~;~:::~!!1:~=:~~;:~;~~~t~~;~!!!~~~;:~:;:~~:~~:" . aqui;-pequena difi~uld~de-foi ençontrada para calcular r e k. · Mas nós precisamos estudar sit~ações apenas um poupo mais complica- das, para percebermos a necessidade de alguns procedimentos siste- máticos de contagem ou enumerâção. I li I ,, 30 I PROBABIUDADIE / lp _,. / ,:;ljl~~~{~~~r,·.~ Uma partida de cem peças ,é ,comppsta ,de ~O . peçM-defeituosas e 80 peças perfeitas. n ·ez dessas .. peçás 'são esco- lhidas ao acaso, sem reposição de qualqu~r peça· escolhida antes que a seguinte seja escolhida. Qual é a probabilidade de que exatarnente metade das peças escolhidas seja defeituosa? · · Para analisarmos este problema, consideremos ·o seguinte ·espa- ço amostral S. Cada elemento de S é. constituÚ:lo deqez possíveis peças da partida, (i,, i2, . . . , i,o). Quantos resultádos des~es existem? E dentre esses resultados, quantos têm a característica de que exa- tamente a metade das peças seja defeituosa? Nós, evidentemente, precisamos ter condições de responder a tais questões a fim de resol- vermos o problema em estudo. Muitos problemas semelhantes dão origem a questões análogas. N'nST"puucmí:::i)eç~egumte~...,a.p.re~ tãiêffio'S'::~àlgumas=téeni:cas~si1fteiji4Hj~.as,,;dg~êriDttmY.a~aeo Suponha-se que ·um procedimentopossa ser de n 1 ma~eiras. Admita'-se que um- segundo procedimento, designado por 2, possa ser executado de n2 maneiras. Suponha-se, também, que cada maneira de e~ecutâ.r 1 possa ser· seguida por qualquer daquelas para executar 2. Então, o procedimento formado por 1 seguido de 2 poderá ser executado de n 1 • n 2 maneiras. Para indicar a validade deste priiJ.cipio, é ~ais fácil considerar o seguinte tratamento sistemático; p i"íg. 2.1 COnsiderem-se um ponto P e duas retas L 1 e L2. Admita-se que o procedimento 1 consista em ir de P até L1, enquanto o procedimento 2 consista em ir de L 1 até L2• A Fig. 2.1 indica como o resultado final é obtido. Comentário: Obviamente, esta regra pode ·ser estendida a qualquer número de procedimentos. Se existirem k procedimentos e o i-ésimo procedimento puder · set executado de n,; maneiras, i = 1, 2, .. ; , k, então o proc.edimento formado por 1, seguido por 2, .. . , se'guido pelo procedimento k, poderá ·ser executàdo de l'l1ll:! • • • nk rrumeiras. ESPAÇOS AMOSTRAIS FINITOS I 31 Exemplo 2.5. UDll). peça manufaturada deve passar por três estações de controle. Em cada estação, a peça é inspecionada para determinada característica e marcada adequadamente. ~a primeira estação, três classificaçõe..> ~il.o possiveis, enquanto nas duas últimas, quatro classificaçõe!l são po!~!l{veis. Conseqüentemente, exilitem 3 - 4 - 4 = 48 maneiras pela:; quais uma peça pode ser marcada. B. Regra da Adição. Suponha-se que um procedimento, de- signado por 1, possa ser realizado de n1 maneiras. Admita-se que um segundo procedimento, designado por 2, possa ser realizado de n2 maneiras. Além disso, suponha-se que não seja possível que ambos os procedimentos l e 2 sejam realizados em conjunto. Então, o número de maneiras pelas quais poderemos realizar ou I ou 2 será n1 + n2. Novamente, empregaremos um tratamento esquemático para nos convencermos da validade da regra da adição, como a Fig. 2.2 indtca. p L,~l, Fig. 2.2 Comenúirio: Esta regra também pode ser generalizada da seguinte maneira: Se existirem k procedimentos e o i-ésimo procedimento puder ser realizado de n; manein.s, i ~ 1, 2, ... , k, entAo, o número de m&neiras pelas quais poderemos realizar ou o procedimento 1, ou o procedimento 2, ou ... , ou o procedimento k, é dado por n1 + n2 + _ . + nA:. supond<H!e que dois quaisquer deles nlo se pos- sam realizar co llJltament.e. Exemplo 2.6. Suponha-se que estejamos planejando uma via- gem e devamos escolher entre o transporte por ônibus ou por trem. Se existirem três rodovias e duas ferrovi~, então existirão 3 + 2 = 5 caminhos disponíveis para a viagem. C. Permutações e Arranjos. (a) Suponha-se que nós temos n objetos diferentes. De quantas maneiras "p" poderemos dispor (per- mutar) esses objetos 'l Por exemplo, se tivermos os objetos a, b e c, P<>deremos considerar as seguintes permutações: abc, ccb, bac, bca, cab e cba. Portanto, a resposta é 6. Considere-se, em geral, o se-... ._ __________________________ __ ·'I . 32 I I"ROBAB!UOADIE O primeiro comparti,mento pode ser ocupado por qualquer uma das n maneiras, o segundo compartimento por qualquer u~a. das (n - 1) maneiras, .. . , e o último comparÜmentO apenas por uma maneira. Portanto, aplicando-se a regra da multiplicação, vista acima, verifica-se que a caixa poderá ser carregada de n(n-1) (n- 2) . .. 1 maneiras. Este número aparece tão freqüentemente em Matemática que se adotam um nome e um símbolo especiais para ele. Definição. Sendo n um inteiro positivo, definimos n! = · (n)(n- I) (n- 2) ... 1 e o denominamos fatorial de n. Também definimos O!= 1. Dessa maneira, o número de permutações de n objetos diferen- tes é dado por (b) Considerem-se novamente n objetos diferentes. cA<gQp§t9:~- .• ~~~::;~fi!!~~~~~~:;~!e~v:!~:!~~~-~:;;r-~~~~~~]1!~3~~~~: , por ::11Jf;. ··Recorremos novamente ao esquema acima, de encher uma caixa de n compartimentos; desta vez simplesmente paramos depois que o compartimento de ordem r tenha sido ocupado. Assim, o pri- meiro compartimento pode ser preenchido de n maneiras, o segundo de (n- 1) maneiras, ... e o de ordem -r de n- (r- I) maneiras. Portanto,- o procedimento completo poderá ser executado, novamente aplicando-se a regra da multiplicação, de n(n -'- 1) (n - 2) ... (n- r + 1) maneiras. Empregando a notação · de fatorial, introduzida acima, poderemos escrever D. Combinações. C.on8iderem-se, novamente, n objetos dife- rentes. Agora, trataremos da cont&g<em do número de mweiras de ESPA'ÇOS AMOSTRAIS FINITOS I 33 escolher r dentre esses n objetos sem. considerarmos a ordem. Por exemplo, temós os obj~tos a, -b, ~ ';':Z/ ~ :; =: 2; desejainQ~· contar ab, ac, ad, bc 1 bd e cd; por outras palavras, não contaremos ab e ba, por- que os mesmos objetos estão incluídos e somente a ordem é diversa. Para obtermos o resultado geral, recordaremos . a· fórmula dedu- zida acima: o número de maneiras de escolher r objetos dentre n, e permutar os r escolhidos é n!/(n- r)! Seja C o número de maneiras . de escolher r denl;re os n, não considerada a ordem. (Isto· é, C é o número procurado.) Observe-se que, uma vez que r objetos tenham sido escÓlhidos, existirão r! maneiras de permutá-l~s. Conseqüen-:- temente, aplicando~se novamente a regra da multiplicação, junta- mente com esse resultado, obteremos C 1 __ n! r.- (n- r)! Portanto, o número de maneiras de escolher r dentre n objetos dife- rentes, não se considerando. a ordem, é dado por. C= . n! . r!{fl.- r)! Este número surge em muitas passagens da Matemática e, por isso, um símbolo especial é empregado pará éle. Escreveremos rl(n~ r)! = ( ~) Para nossos objetivos atuais, ( ~) somente fica definido para n in- teiro positivo e r um inteiro tal que O :5_ r :5_ n. Contudo, pode- remos definir (~) · de modo mais geral, para qualquer número real n e para qual<Iuer inteiro não negativo r, na forma seguinte: ( n) = n(n-l)(n-2) ··· (n- r+ 1). r r! . Os números ( ~) são freqüentemente denominados coeficientes bino- miclis, porque eles. aparecem como co!)ficientes no desenvolyimento da <e;lq)ressio binomial (a+ b)n. I Se n for um inteiro positivo, (a+ w = = (a+ b) (ar+ b) ..• (a + b). Q~ando a multiplicação tiver sido eKecutada, cada termo será formado de k elementos a, e de (n - k) elementos b, k =O, 1, 2, .. . ,n. Quàntos te~osda forma akbn-k 34 I PROBABiLIDADE existir~? Simplesmente contaremos o númeci ,iJ.e>lniuiei.ráB posSf .. veis de escolher k déntre os n elemen~s a, ·débiandó deiãdó a'otdém. Mas isw é justamente dado por ( ~) ~· Dai ob~rtridso "~Jeé collhe- cido como o reorema birwmial: (a+ b)" ~ ± (n)a~bn-k_ . ·. . •-o k . . (2.2) Os números (;)apresentam muitas propriedades in~~ess;mtes, ape- nas duas das quais mencionaremos aqui: (A . merios que . ~e diga expressamente de modo diverso, admitiremos que n sej~ inteiro posi- tivo e r um inteiro, O ~ r ~ nJ · ~ fácil verificar algebricamente as duas identidades acima. Basta desenvolverem-se, em cada uma, · o primeiro e o segundo membros, e verificar que são iguais. Existe, contudo, outra maneira de verificar essas "'id~ntidades, que emprega a interpretação que demos para ( ~), . a · saber, o nú- mero de maneiras de escolher r dentre n coisas. (a) Quando escolhemos ·r dentre n coisas, estamos ao mesmo tempo deixando (n:.... r) coisas não ·escolhidas, e, por isso, escolher r dentre n é equivalente a escolher (n ·- r) dentre n. Ora, isso é exa- tamente a primeira identidade a verificar. (b) Vamos fixar um qualqm~r dos n objetos, por exemplo o pri- meiro, a1. Ao. escolher r objetos, a1 estará incluído ou estará excluído, mas não ambas as coisas. Portanto, ao contar o número de maneir!LS de escolher r objetos, poderemos aplicar a Regra da Adição, expli- cada anteriormente. Se a1 for excluído, então deveremos escolher os r objetos dese- jados dentre os restantes (n - I) objetos, e existem ( n ~ 1) maneiras de se fazer isso. Se a1 for incluído, entã:o somente(r - I) mais objetos deve~ ser escolhidos dentre os restantes (n - I) objetos e isto pode ser feito de ( ~ = ~) maneiras. Conseqüentemente;· o .número procu- rado é a soma desses dois, o que verifica a segunda identidade. :~ f. I . . ESPAÇOS AMOSTRAIS FINITOS I 35 . I N [ f" · b' · · ( n ) t" t'd Comentário: este contexto, os c~e 1c1entes momm.lS k em sen 1 o somente se n e k forem inteiros não-negativos, com O ,;;; k ,;;; n. Todavia, se escre-. I vermos i - I n . n! _ n(~-l) ... (n -k+ l) ( )=---- I ·' k k!(n-k)! k! I observaremos que a última expressão temi sentido se n for qualquer número real e k for qualquer inteiro não-negativo. Portanto, I I 3 (-3)(+ 4) ... (-7) ! . c ) = -----,-,...----- 5 I 5! e assim por diar1te. I Empreg;uido · esta versão estendida dos· coeficientes binomiais, poderemos estabelecer a forma generalizada do teorenk binomial: . I . n ooi n k (l+x) =E' ( )x ·· kJo k I ' I Esta série tem significado para qualquer ;n real e para todo x tal que I· X I < 1. Observe-;<;e que, se n for um inteiro posithp, a série infinita se reduz a um número finito de t~rmos,porque, neste caso, ( ~) f O, se k> n. i . • Exemplo 2.1. (a) Dentre oi:o l pessoas, quantas conússõ~s de tres membros podem ser escolhidas ? Desde que duas corrussões sejam a mesma comissão se forem cbnstituidas pelas mesmas pessoas (não se levando em conta a ordem e~ que sejam escolhidas), · teremos · ( ~ ) = 56 conússões possíveis. 1 (b) Com oito bandeiras difere~tes, quantos sinais , feitos com tl'ês bandei;ra.s se podem obter? Este problema parece-se muito com o anterior. No entanto, aqui a ordem acarreta diferença e, ,por isso, obteremos 8!f5! = 336 siwüs. : · · · (c) Um grupo de oito pessoa.S é formado de cinco homens e três mulheres. Quantas coiDÍllSões ~e três pessoas podení. ser cons- tituídas, .· incluilldo exatamente dois 1 homens? · Aqui deveremos fazer duas coisas: escolher dois homens (dentre cinco) e escolher uma . I mulher (dentre três). Daí 1 obtermos como 1 número procurado ( ~) · ( ~ ) = 30 comissões. ! (á) Agora poderemos verifica~ uma afirmà.ção feita anterior- mente, a · saber, a de que o númerq de subconjuntos (ou partes) de 36 I lf'ROBABIUDAOIE um conjunto constituído de n elementos é igüàJa 2" :(coritados o conjunto vazio e o próprio ()onjunto) . . · Siwplesine11te a.ssoçiemos a cada elemento o valor um ou zero, conforme esse elemento deva ser incluído . ou excluído do subconjunto. Existe~ du~s .· maneiras de rotular cada elemento e existem a,o ~oqo p, desses elementos. Daí a regra da multiplicação nos dizer que existem 2 · 2 · 2 · · · 2 = 2" rotulações possíveis. Mas cada rotulação particular representa uma escolha de um subconjunto. Por exemplo, . (1; 1, O, ,0, o;· ... , O) constituiria. Ó subconjunto formado exatamente por d.1 e · ~~- Ainda, (1, 1, •... , 1) representaria o próprioS, e (0, O, ... , O) . representaria . o conjuntá vazio. (e) Poderíamos. obter o resultado acima, pelo emprego da Regra da Adição, na forma seguinte: Para obter subconjuntOs, .deveremos escolher o conjunto vazio,. aqueles subconjuntos co:D,stituídos . exata- mente por ~m elemento, aqueies constituídos exat~nÍenÚ~ por dois elementos, ... , e o próprio conjunto constituído por todos os n ele- mentos. Isto seria feito de maneiras. Ora, a soma desses coeficientes. binomiais é exatamente o desenvolvimento de' (1 + 1)" = 2": Voltemos agora ao . Ex. 2.4. De · uma partida formada . por 20 peças defeituosas e 80 peças perfeitas, escolhemos ao acaso 10 (sem· reposição). O número de maneiras de fazer isso é · e~). Daí, a probabilidade de achar exatamente 5 peças defeitu0sas e · 5 perfeitas entre as 10 escnlhidas ser dada por (2~) (~o)_ e~) Por meio de logaritmos de fatoriais (os quais se acham tabuls.dos), a expressão acima pode ser avaliada como igual a 0,021. Exemplo ·2.8. Vamos generalizar o problema acima. Admi- tamos que temos N peças. Se. escolhermos ao acaso n delas, sem repo- sição, teremos ( ~) diferentes amostras possíveis, todas elas com 111 · rilesma. probabilidade de serem escolhida.S. Se as N peças forem !~~madás por r 1 da classe A e r2 da, classe B · (COJ1l r1 + r2 = N), ESPAÇOS AMOSTRAIS !FINITOS I 37 então, a probabilidade de qu~ as n peças escolhidas sejam exatamente 111 da classe A e (n- s1) da classe B será dada por (A express·ao acima se denomina probabilidade ltipergeomélrica, e será aillda reencontrada.) Comentdrw: 11: muit;o importante <éspecificar, quando falarmos de peças G!lxtra!das oo acaso, SG!l a eS1:nlh& é · com ou sem reposiçl!.o. Na maiori& dos casos concretcs, pretenderemos a última. Por exemplo, qus.ndo inspecionamos certo ndmero de- peças manufs.turadas a fim de descobrirmos quantas defeituosas po- deriw existir, geralmente não tencionaremos examinar a mG!lSma. peça. duas vezes. Já disSG!l!D.()8 que o número <l.e maneiras de e.gcolher r coiSilll dentre n, não considerada B ordem, é dado por (~). · O. número de maneiras de escolher y coisas dentre n, com repoaição, é dado por n•. Neste caso, eataremoa interessados na ordem em que as peç:ns sejam escolhidas. ··- · . Exemplo 2.9. Admitamos que se escolham ao acaso dois objeios, dentre os quatro denominados a, b, c e d. (a) Se escolhermos sem reposição, o espaço amostral S poderá. ser representado da forma abaixo: S = ((a, b); (a, c); (b, c); (b, d); .(c, d); (a, d)}. Existem ( ~ ) = 6 resultados passiveis. Cada um desses resultados indica somente quais os dois objetos que foram escolhidos e não a or- dem em que eles foram escolhidos. (b) Se escolhermos com reposição, o espaço amostral §' poderá -ser representado por: S' = { (a, a); (a, b);_ (a, c); (a, d); (b, a); (b, b); (b, c); (b., d);}. (c, a); (c, b); (c, c,); (c, d); (d, a); (d, b); (d, c); (d, d) Existem 42 _ = 16 resultados possíveis. Aqui, cada um desses resul- tados indica quais objetos foram escolhidos e a ordem -em que eles o foram. Escolher ao acasq implica que, se escolhermos sem repo- sição, todos os resultados em S serão igualmente verossimeis, enquanto se escolhermos com reposição, então todos os resultados em S' serão igualmente verossímeis. Portanto, se A for o evento {o objeto c é I 'Í 38 I PROBABILIDADE escolhido} I então teremos: de . s, P(A) = 3/f, ;=( 1/2 se ' eS(!Olh~rffios se~ reposição; e de S', P(A) = 7/16 se escdlhermôa com;-re~~siÇão. E. _ _,.Ji!e7f/ttiil&$r§<ÇÕW,4lu'úits:c;Jtléirient&~:,B~e'ffie~ftvs~' · Em. todas . as técnicas'"â~:.:-êiiumeraçã~ já apresent~das, . admitimos que ~deis os objetos considerados fossem diferentes (isto é, distinguív(lis). No entanto, não é sempre essa a situação que ocorre, · Suponha-se, a seguir, que temos n objetos, tai!l que n~ sejam de uma primeira espécie, nz de uma segunda espécie, -., .;•m< .de .;\una k-ésima espécie, com n1 + nz + ... + n~c = _n. - Nesse CaS!), o 'nú~ mero de permutações possíveis desses n objetos .é dado por n! n1!nz!. . . n~c! Deixa-se ao leitor a dedução dessa fórmula. Note-se ~tie, se todos OS objetos fossem diferentes, teríamos TU = 1, i ·:.: 1j 2, ; ·~ . 1 k, é, conseqüentemente, a fórmula acima se reduzirià a n!, que é o res'll1- . tado obtido anteriormente. Comentán"o: Devemos .salientar mais uma vez que a atribuição realística de probabilidades a resultados individuais de um espaço amostral,( ou a mp.a.éoleção de resultados, isto é' um evento) constitui alguma coisa que nã:o pode sei déduzi~a matematicamente, mas que deve ser originada de outras considerações. Por 'exem- plo, poderemos recorrer a determinados traços simétricos do experimento para ' averiguar se todos os resultados são .igualmente prováveis. Além disso;poderemos construir um procedimento de amostragem (por exemplo, escolhendo :• um:ou vários indivíduos de uma população especificada) de tal maneira que' seja rai:oávd admitir que todas as escolhas sejam igualmente prováveis. Em muitos outi:os casos, quando nenhuma suposição básica natural sejaapropriada, deveremos recorrer à aproximação da freqüência relativa. Nós repetiremos o experimento n'vezes e·, em seguida, calcularemos a proporção de vezes em que o resultado (ou eveiltÓ) efu es- tudo tenha ocorrido . Ao empregar isto como uma aproximação, sabemos que é bastante improvável que esta freqüência relativa difira da ''Verdadéira" pfõbàbili~ dade (cuja existência tenha sido especificada por nosso modelo te6rico), de tim valor apreciável, se n for suficientemente grande. Quando for impossível estabe- lecer suposições razoáveis sobre a probabilidade de um resultado e também impossível repetir o experimento um grande número de vezes (em Virtude de considerações de custo ou de tempo, por exemplo), será realmente bastante sem sentido prosseguir com um estudo probabilístico do experimento, exceto em uma base puramente teórica. (Para um comentário adicional sobre este mesmo ponto, veja a Seção 13.5). ' 2.1. O aeguÍnte grupo de pessoas está numa ·sala: 5 homens maiores de 21 anos; 4 homens com menos de 21 anos deidade; .6 mulheres maiorés de 21- anos, ·e ·.· li ~ ..ti "'{'< -, ''!' I"'\ j, ,J .. .J " r ''..]'- .,..:\ DOt;, \ . -~-...\ r .r-.,5"'<---J \ "J' V'" \}( ESPAÇOS AMOSTRAIS FINITOS I 39 3 mulheres menores. Uma pessoa. é esdolhida ao ace.So. Definem-se os seguint..es eventos: A= {a pessoa é ~aior de'2i1 an~sl; 'E= (a. ,pessoil. é menor de 21 anos).;, C,;;,· (.a. pessoa. é homem); D ;= (a. ~oa. .é mülhe'rl, ~ CS.!~e: · (a) P(B U D), (b) P(à n C). ·. ~ E~· um~ s~J,la., 10 pessoas estãd usando emble~as numerados de 1 até 10. Tr~OII8 são escolhidas ao acaso e I convidadas a saírem da sala simultanea- ... t ···' mente. r.O número de seu_!~mblem_~. é _~nota.do. . . .. · .... ::. . . l .. , .... ·:.:·.·. ~ .. . :·:-: .. - ·.:..:.:~ -~-: .... ~:.:-~,..:.-~;::-:;.::.r::::::::;~.-:;":-~_--:,-·::~:::::: .. , ... (a) Qual é a. probabilidade ·d~ .qtle .o menor número .de .ern~~IDJ!oAlCja .-5? ... ,.,, ' (b) Qual é .. ~ p~~b~hÜidad~ d~ que lo' ~~iJ;·~;j;~;~d~·~~bl~ma ~ej~ 5? / . .·· ... \ i . . ,_ ~ . .. ' ·-· .. 2.3. (a) Suponha que os três dígitoS.l, 2 e 3 s~jam escritos em ~rdem*a- tória. Qual a probabilidade· de que ao menos um dígito. ocupe seu lugar próprio? (b) O ~esmo que em (a), com os \dígitos 1, 2, 3 e 4. . i · · - (c) ·o mesmo que em (a), com os idígitos 1, 2, 3, ... , n. SugeStão·: Empregue (1.7) . ! (d) Examine a resposta a (c), quarldo .n for grande. . . I . 2.4. Uma remessa de 1.500 a,rrueias contém 4ÔO peças defeituosas e 1.100 perfeitas. Duzentas arruelas são escolhidas ao acaso (sem reposição) e classi~ ficadas. . .. I · · (a) Qual a probabilidade de que sejam encontradas exatamente 90 peças defeitUOSas? ; ' , , r, . I· . . • ,; (b) Qual a probabilidade de que sei encontrem ao. menos 2 p 1 eças .defeituosas? 2.5. Dez ficha~ numeradas <:le 1 até 10 são misturadas em uma urna. Duas. fichas, nu:merad~ ._<X, Y), são extr~!das jda urna, sucessivame,nte : e, sem reposição. Qual é a probab1hdade de que seJa X +t- Y ·= 10? .f.J.__. l J (1. . ,r// "~ · 1 . r • ) o'-"~ . 2.6. Um lote é formado de 10 ar~i~os bons, 4 ~rr: d~feitos menor~~ e 2 com . ' ' : \ ' . / \ "\.. . defeitos graves; U:m arti"go é dcolnido lf acãso. ··Ache a probab,ilidade de que: (a) . Ele não tenha defeitos. j (b) ,EJel nii.o t;nh~ d~reitos gra':-es. • · . (c) E!~ ~u ·seja p~rfei~· ou 'tenh~· d~feitos graves. • - ,~· - I , ,'·~ · . 2.7. s 'e do lote 1~~rtigos descrito [no Probi. :2.{!, dois artigos f~re~ escolhi- . dos (sem rep,osiÇ.ão), áché a probabilidàd~1de que: ~ L . .-:::) t.a) Ambos- sejam' perfeitos. · (b} Amb~s"'-tenham defeitos gr~~eà, (c) ~o meno.s um. seja -perfeito. (d) No máxill]ó úin seja perfeito. (e) Exatamente Úm • sejã ·.Perfêltó' . . -(j1""Neuhum deles teuba l defeitos graves. ,....Cg) Nenhum deles seja . / 1_ ! ....._ " ./' perfeito. -~ ~ · · 2.8. Um produto é montado em 1 três estágios. No primeiro estágio, exis- tem 5 linhas de montagem; no segundo lestágio, existem 4 linhas de montagem e no terceiro estágio, existem 6 linhas d,e montagem . De qúantás maneiras dife- rentes poderá o prod.utó se deslocar durante o processo de montagem? I . . . 2.9. Um inspetor visita 6 máquinas diferentes durante um dia . A fim cie evitar que os operários saibam quando 1ele os irá. inspecionar, o inspetorvaria a ordenação de suas visitas. De quantas maneiras isto poderá ser feito? •·' . I 4 40 I lf'ROBABBUDADE man!~· ;~:á m=~ueC:7:~:~~/:!e3f~h~~;:~;<;~ ;~":~1:;'i;,pç quantas 2.1~ . Eirist0m 12. categor~ de d~feitos ~~~6~' :.ât0't~~f~ç~ -~J;anrifatu rradm, e 10 tipoo de defeitos graves. De quantM'~a,fi~ir~ :pode~q.'. Je<iirer, 1 de- :~J;,~S~~SS;j~l}~~~#;;;;,, (b) Adm1W. que esses mecanismos sejam ins't~l'ados- 'eni âetemiiriâda 'ordem (lin~) preestabelecida. De quantas ~aneir!lll o si&t~rria .po~~f.4 '; ~er: disposto, se dois mecanismos adjacantes não estiverem em igul!.l -pqsiçã~ -~-.:':·, : .. .. (c) Qu~mtas maneiras de disppr· serão possíveis, se ,8omentç. as -posições .a e b 1orem usadas, e o forem com igual freqüência? . __ 1 : ... ,. __ · ·:.- , _,,." .''·'" . (d) Quantas maneiras serão possíveis, se somente duas. posições fo~em usa,. das, e d~as posições .uma ocorrer três vezes mais freqüe~te~ez;_f.~' q~~ -~ ~utra? . . . ·.,· ,. t' ~ .. f• . ·: I . -2.13. Suponha que de N objetos, n sejam escolhidos ao acaso, com reposição. Qual sem SI probabilidade de que nenhum objeto·seja escolhido maiS do qiui'uroa vez? (Admita n < N.) , 2.'14. Com as seis letras a, b, c, d, e, j quantas palavras-có~igo de 4 letras poderão ser foriDSidas se: ·(a) Nenhuma let~_a puder ser repetida? (b) Qualquer letra. puder ser repetida qualquer · núi:nero de_ vezes-? 2.15. Supondo que ( 9i) . =a e (O:) = b, expreSstJ ( 19W)emtermos de 111 e b. (Sugeswô: . N ao ca.lcule as expr~ões acima, para . resolver ~ . p;oblema:) 2.16. Uma caiu contém etiquetas numeradas 1,· 2, ... , n. Duas etique- tas_ são escolhidas ao acaso. Determine a probl),bilidade de que os ·números das <etiquetms ooj&m inteiros consecutivos se: (a) As etiquetas forem escolhidas sem reposição .. _ {b) As etiquetas forem escolhidas com reposição. 2.17. Quantos subconjlintos se podem formar, contend~ . a~- ·p-tenos um ele- mento, de um conjunto de 100 elementos? 2. ~gj. Um inteiro é escolhido ao a.ca.so, dentre os números 1, 2, ~ . . , 50. Qual 00~ a probabilids.de de que o número esoolhld9 seja divisível por 6 ou por 8? 2.19. Dentre 6 números positivos e 8 negativos, escolhem-se ao acaso .4 números (sem reposição) e multiplicam-se esses números. Qual, será aprobabili- dade de que o produto séja. um número positivo? 2.20. Determinado composto qufmico é obtido pela. mistura de 5 Ú~uidos diferentes. P ropõe-se despejar um lfquido em uin tanque e, em seguida, juntar os outro~ lfquidos sucessivSJ,mente. Todas as seqüências possíveis devem ser ensaiadas, para verificar-se qual delas dará o ~elhor resultado.· Quantos ensaios deverão ser efetuados? \ .I ., I I I \ I I ESPAÇOS AMOSTRAIS FINOTOS I 41 2.21. Um lote contém n peças, das quais se sabe serem r defeituosas. &l a orden{ da inspeção das peças se fizer ao acaso, qual a probabilidade de que a peç&· inspecionada em k-ésimo lugar (k ~ r) seja s última peça defeituosa contida no lote? 2.22. Dentre os números O, 1, 2, ... , 9 são escolliidos ao acaso (sem repo- sição) r números (O <r < 10). Qual é a probabilidade de que não ocorram dois números iguais? '. 1,,: .. ""." "·! Probabilidade Condicionada e Independência 3.1. P·robab.ilid.ade Cond,icionada . Capítulo 3 . l ·Vamos . reexaminar a diferença entre extrair uma peça de um lote, ao acaso, com ou sem reposição. No Ex. 2.4, :o lote estudado tinha a seguinte composição: 80 não-defeituosàs e 20 defeituosas. Suponha-se que escolhemos duas peças desse lote: ·(a) com reposi- ção; (b) sem reposição. ,. · Definamos os dois eventos seguintes: A = {a primeira peça é defeituos~); B = {a segundapeça é . defeituosa) . Se estivermos extraindo com reposição, P(A) = P(B) = 20/100 = = 1/5, porque cada vez que extrairmos do lote, existirão 20 peças defeituosas no total de 100. No entanto; se estivermos extraindo sem reposição, os resultados ~ão serão tão imediatos. É: ainda ver- . dade, naturalmente, que P(A) = 1/5. Mas e sopre P(B) ? É evi- dente que, a fim de calcularmos P(B), dB:veremos conhecer a compo- siçãq do lote no momento de se extrair a segunda peça. Isto é, deve- remos saber se A ocorreu ou não. Este exemplo mostra a necessidade de se introduzir o seguinte importante conceito. Sejam A e B dois eventos associados ao experimento e. De~ .notaremos por P(BIA) a probabiiidade condicionada d~ evento B, quando . A tiver ocorrido. No exemplo acima, P(B I A) = 19/99, porque se A t iver ocorrido, então para a segunda extração restarão somente 99 peças, das quais 19 delas serão defeituosas. Sempre que calcularmos P(B IA), estaremos essencialmente cal.:. culando P(B) em relação ao espaço.amostral reduzido A, êm lugar de ··'.. I . \_ PROBABILIDADE CONDICIONADA Ê.INUEP.ENDENCIA I .4l~ I fazê-lo em relação ao espaço ambstral original S. Consideremos o Diagra$ de Venn da Fig . . 3.1. r---~--------·s A B (]) !Fig. 3.1 Qu:kdo . calcularmos · P(B) estâl:emos nos per~taiido quão provávEl! será estar- D;J.OS em! B, sabendo que · devemos_ -estar em S. ~ quando calcularmos P(B I A) .esta- remos p~rguntando ·quão provável será, es- tarmos eii). iJ,. sabendo que ~evemos estar em A, i(Isto é, o ·espaço amostral ficou redmido Ide S para A.) Logd, daremos uma definiçãJ rigorosa <teP(BIA). Por enquan~ to, contudo, empregaremos nossd noção intuitiva de 1 probabilidade d.. d d. I con ICIOna a e aremos um exemplo. 1-· Exemplo 3.1. Dois dados ~quilibrados são lançados, regis- trand~se o resultado ~orno (x1, x2~, onde Xi é o resultado do i-ésimo dado, ~ = 1, 2. Por Isso, o esp3:ço amostral S pode ser represen- tado pela seguinte lista de 36 re~ultados igualmente prováveis. ( (1, I)'" S = ) (2, I) . { (6, :I) I . (1, ~) (1, 6) ) , (2, 2) . (2, 6) ~ I c (6, 2) (6, 6) ) ' Consideremos os dois eventos seguintes: . I A = {(x1, x2) I x1 + X2 = 10t B = {(x1, x2) I x1 ,> x2}. I . I . . Assim, A = {(5; 5), (4, 6), (6, 4)} e fl. = ·{(2, 1), (3, 1), (3, 2), ... , (6, 5)}. · Portanto, P(A) = 3 3 6 e P(B) = l~ · · E P(B 14) = ~, :uma ve.z; qüe . o espaço amostral é, _ agora, forma!do por A (isto é, ·três resultados), e somente um desses três resultadJs é coerente com o evento B. De . . I . modo semelhante, poderemos calc~lar P(A !B) ,= I/15. Finalmente, vamos calcular PCA () B) . . O evento A () B ·ocorre se, e soii).ente se, a soma dos dois \dados for 10 e se o primeiro dado tiver, apresentado um valor maior 1 que o segundo dado~ Existe ape- nas um desses resultados e, por isso, P(A () B) = . 1/36. Se fizermos , . I um exame cuidadoso dos vá'rios números já calculados, concluiremos I ' que P(AIB) = P(A () B) P(B) i I el P(BIA) = P(A () B) · · · . P(A') · i i 44 I lí'IROBABBUDADIE ,, Essas relações não surgiram apenas do particular exemplo que <Consideramos. Ao contrário, elas são bastante gerais, e_ nos .<ião um caminho p3;ra definir rigorosamente a probabilidad~ ·condicionada. Para sugerir essa definição, voltemos ao conc~it<J de frequência relativa. Admitamos que um experimento s tenha ~ido. repetido n vezes. Sejam nA, nB e nAnB o número de vezes que, respectiva- mente, os eventos A, B e. A () B tenham ocorrido em n repetições; Qual o significado de nAnB/nA? Representa a frequência relativa de B naqueles resultados em que A tenha ocorrido. . Isto é, nAnB/nA é a frequênc.ia relativa de B, condicionada a que A tenha. ocorrido. Poderemos escrever nAn~/riA, da· seguint~ forma:- fUnB nAnB/n . }AnB =--· nA nA/n }A · onde }AnB e }A são as frequências rel~tivas dos eventos A ()B e A, respectivamente. Como já dissemos (e explicaremos ~ais tarde) se n, o número de repetiçõesfot grande, }Anil f)erá próximâ de P(A () B) e Ú ·será próxima de P(A), Conseqüentemente, a relação acima sugere que nAnB/riA . será próxima de P(B I A). Por isso, estabelece- remos a seguinte definição: . Definição: P(BiA) = P(A n B) I desde que P(A) >o. (3.1) P(A) Comentârios: (a) :f: importante co~preender que isso não ·é um teoremil. (nós não demonstramos coisa ·alguma), nem é tim axioma. Apena.s introduzimos a noção intuitiva de probabilidade condicionada e, . depoi.~, estabelecemos uma. definição ·formal daquilo ·que essa noção significa. o fato de que no!lSÍ!. defiriiÇão formal corresponde à noSsa noção intuitiva· é fundamentado. pelo .parágrafo que precede à definição. (b) l!: assunto simples verificar que P(B IA) para A fixado, satisfaz aos várioo posttdados de probabilidade das Eq. (1.3). (Ver ·Probl., 3.22.) IstO é; temos (1') O~P(B!A)~l, (2') P(SIA) = 1, (3') P(BiU~~IA),;P(B1 !A)+P(B2lA) se Bt()B2='0, (3.2) _ (4') P(Bt u B2 u ···IA)= P(BtlA) + P(B2IA) + ·: · · se · B; nn; =e para i ~j. (c) Se A= S, P(B I S) =P(B n S) I P(S) =P(B). (d) A cada evento B c S poderemos associar dois números, P(B), a proba- bilidade (não-condicionada) de B, e P(B 1 A), a probabilidade condicionada de ._·. B, desde que _algüm evento A (para o qualP(A) > 0) tenha ocorrido. Em gerai, · essas·.; duas medidas de probabilidade atnouirão probabilidades diferentes ao I :~ .· ·~ . . ·.; 1 ;_:. PROBABILIDADE COi\lDBCiOI\lADA rE ii\lDrEI"rENDIÊi\lCiA I 45 evento B, como indicaram os exemplos precedentes. Dentro em breve, estudare- mos um caso especial importante, para o qualP(B) e P(B I A) serão iguais. (e) Observe-se que a probabilidade condicionada está definida em termos . da medida de probabilidade não-condicionada P, isto é, se conhecermos P(B) para todo B c S, poderemos calcular P(B 1 A) para todo B c S. Deste modo, temos duas maneiras de calcular a probabilidade condicionada P(B I A): (a) Diretamente, pela consideração da probabilidade de B einm ~relação ao espaço amostra! ~~:Cduzido .Al. (b) Empregando a definição acima, onde P(A n B) e P(A) são calculados em relaÇão ao espaço amostr~l original S. Ccmientário: Se A = S, obteremos P(B IS) = P(B () S)/P(S) = P(B), porque P(S) = 1 e B () S = B. Isto é como seria de se esperar, porque dizer que S ocorreu é à.penas dizer que o experimento joi realizado. N u Tab. 3.1 E M ·. 40 30 20 10 60 40 70 30 100 Exemplo 3.2. Suponha-'se que um escritório possua 100 má- quinas de calcular. Algumas dessas máquinas são elétricas (E), enquanto outras são manuais (M); e algumas são novas (N), enquanto outras são muito usadas (U). A Tàb. 3.1 dá o número de máquinas de cada categoria. Uma pestsoa entra no escritório, pega uma má- quina ao acaso, e descobre que é nova. Qual será a probabilidade de que seja elétrica? Em termos da notação introduzida, desejamos calcular P(E I N) . Considerando-se somente o espaço amostral reduzido N (isto · é, as 70 máquinas novas), temos P(E IN) = 40/70 = 4/7. Empre- gando a definição de probabilidade condicionada, temos que P(E 1 N) = P(E n N) = 40/IOO = .!. : P(N) 70/100 7 ' A mais importante conseqüência da definição de probabilidane condicionada acima, é obtida ao se escrever: P(A n B) = P(B I A)P(A) ou, equivalentemente, .. .-.~·':. · .. 11 46 I PROBABILIDADE P(A n B) =P(A ' i B)P(E) . .... (3;3.a) . Isto é, algumas vezes, mencionado como o teore_ma. da ·miiltiplicação de probabilidades. · · · '" . · Podemos aplic~r esse teorema para calcular a ptobabÜidade da ocorrência conjunta dos eventos A e B. Exemplo 3.3. Consideremos novamente o 'lote forma<;lo . de ·. 20 peças defeituosas e 80 não-:defeituosas, estudado no início' da Seç~ 3.1. Se escolhermos ao acaso duas peças, sem reposição, qu.ai se~á a pro-: babil~ade de que ambas as peças sejam defeituosas? Como anteriormente, definamos os eventos . A e . B, na seguinte forma. A = {a primeira peça é defeituosa l;B = {a segunda peça é defeituosa l· Conseqüentemente, pediremos P(A (I B), qtre poderemos cal- cular, de acordo com a fó~da acima, como P(B\A) P(A). ::'i1as, · P(B I A) = 19/99, enquanto P(A) = 1/5. Portanto, P(A. (I B) = =: 19/495. ') Cornentdrjo: O teorema da multiplicação de probabilidades (3.3.a) pode ser · generalizado para mais de dois eventos, da seguinte maneira : p [A 1 n A 2 n ... n An J = =P(Á 1 )P(A 2 I A 1 )P(A 3 I A,,A 2 ) ... P(An I A, ... Ari -1). (3.3.b) (a) A nB=íl (b) A :: B (c) B c A (d) Nenhum desses casos Fig. 3.2 Examinemos agora, rapidamente,. se poderemos fazer uma afir- · geral sobre a grandeza relativa de P(A jB) e P, (A). Consi- quatro casos, que estão ilustrados pelos Diagramas de Fig. 3.2. Teremos: porque A não poderá ocorrer se · B --~~· --~---=-~~-·-·· .. . • ' .. · ' :::. :;:. · . 1- ,/.' Íl: ' \ I": l l · L IPROBABIUDADE CONDiCIONADA E INDEPENDÊNCIA I 47 I (b) P(A I .8) = P(A í1 B)/P(B) I= [P(A)/P(p)l ~ P(A), já que O~ P(B) ~ 1. i (c) P(A IB) = P(A í1 B)/P(B) \= P(B)/P(B) = 1 ~ P(A). . (d) Neste caso nada poderem4s afirmar spbre a grandeza rela- tiva de P(A IB) e P(A). 1 . · · · I Observe-se que em dois dos casos acima, P(A) ~ 1 P(A I B); em~ um caso, P(A) ;:::: P(A !B); e no qu~rto caso: não podemos fazer qual- quer comparação~ I . · · Até aqui, empregamos o conceito de probabilidade condicionada . a fim de avaliar a p~obabilidade de [ocorrência conjunt~ de dois even- ;tos. Poderemos aphcar esse conce1to em outra manem• rle calcular • a: ·.probabilidade de um evento suhples A. Necessitaremos ·da se- ·•. g\J'in:te 'definição: f I . Definição. Dizemos que os e~entos B 11 B 2, ••• , Bk representam :uma partição do espaço amostral S, f uando (a) B ; íl Bi . = 0, para todo i ~ j. . I . /c (b) U B; =S. (c9 P(B;) > O para todo i. Explicando: Quando o experimento E é realizado um, e somente I I .· . um, dos {'V~ntos Bi ocorre. I·, · · · (P?r exemplo: na jogada de um dado, B1 ~ 111,_21; B2 = •{3, 4, 5) e B3 = {6} representariam uma partição do espaço amo~trhl, enquanto C 1 = I i, 2, 3, 4) ~ c2 = 't j4, 5, 6) não o representariam.) Fig.·3.3 Consideremos A um evento qual- quer referente aS, e B 1, B2, .. .', B~c uma partição de S. O Diagrama de Venn na Fi~. 3.3 ilusira isso para k = 8. · Portan~o, . poderem~s escrever . I A = A íl B1 U A n B2 U ... U A íl Bk. . . I . . . I . Natura.lmcntc, alguns dos conjunto~ A n Bi poderãó ser vazios, mas . , I . . isso não invalidá essa decomposição de A. O ponto importante é que todos os ~ven.tos A n B11 •• • ,)A í1 B~r, são dois a ,dois mutua- mente excludentes. Por isso, poderemos aplicar a propriedade da . ' I ;•. : '! · I I I I I 48 I IPROBABIUDADIE . , __ ,: adição de eventos mutuamente éxcludentes"[Eq." '(t3)k !e-es~rever P(A) = P(A n B1) + P(A (1 B2) + ~ -.. -+;rDí. :n ~k). ·. ·· :l · · · ;t ... _:: _ _..._!::-· /-.~!- ~ - r,.:f ':. ·' • .. _ Contudo, c'ada termo P(A () B;) pode ser expresso na forma P(iq B;): ·P(B;) c, daí, obteremos o que se denomi;1a o teoremà -'d3: J;;·obaliili- dade total: · ' P(A) = P(AIB1)P(B1,) + P(AjB2)P(B2)+ ... +P(AIBk)~(nS (3.4) - Este resultado representa ~ma relação extré;n~~e,ite .útil, - porque freqüentemeqte, quando P(A) é pedida, p~dc_ ser difícii ,calculá-la diretamcnte. No entanto, com a informação adicional de qÚe B; tenha ocorrido, seremos capa~es de calcula~ P(A.IB;) ~. e~ - seguida, empregar a fórmula acima. · -· - Exemplo 3.4. Consideremos (pela última vez) o lote de 20 peças defeituosas c 80 não-defeituosas, do qual extrairemos duas peças, sem 1·eposição. Novamente definindo-se A e B como iguais lJ. _A = I a primeira peça extraída é defeituosa J, B = I a _segunda peça extraída é defeituosa}, poderemos, agora, calcular P(B), assim: P(B) = P(BIA)P(A) + P(BjA)P(A} Empregando alguns dos "cálculos realizados no Ex:. 3.3, ~ncontramo~ q ue 19 1 20 4 l P(B) = -·-+- ·- = - - 99 ' 5 99 5 5 Este resultado pode ser um tanto surpreendente, especialmente se o leitor se recordar de que no início da Seç. 3.1 encontramo!:! que _!(I!) = 1/5, quando extraímos- as peças com reposição. Exemplo 3.5. Uma determinada peça é manufaturada por três _ fábricas, digamos _1, 2 e 3. Sabe-se que 1 produz· o dobro de peças que 2, e 2 e 3 produziram o mesmo número de peças (durante um período de produção especificado). Sabe-se também que 2 por cento - das peças produzidas por l e por 2 são defeituosas, enquanto 4 por · . . 4 ' cento daquelas produzidas por 3 são defeituosas. Todas as peças . produzidas são colocadas em um dep6sito, e dep,ois . uma peça é- ex- traída ao acaso. Qual é a probabilidade de que ess; peça seja de- "ÍE)ituosa? .. , - ·;;<Vamos introduZir os seguintes , eventos: A = I a peça é defei- tuº~~ }-, ~~ = , I a peça provém de 1}, B2 = I a peça provém de 2}, - B.:~ :;::""')~~pe~a provém de 3 J. ::.:; PROBABiUDADIE CONDICIONADA IE iNDEPENDÊNCIA I 49 Pede-se P(A), e empregando-se o resultado acima, poderemos escrever: P(A) = P(A JB1)P(B1 ~ + P(A JB2)P(B,) + P(A IB3)P(B3). Ora,-P(B1)=1/2, enquantó P(B 2)=P(B3)= 1/4. Também, P(AIB1) = = P(A I B2) = 0,02, enquanto P(A I B3) = 0,04. Levando-se esses vm~ lores à expressão acima, encontraremol;l P(A) = 1!},025. Comentário: A seguinte analogia com o teorema da probabilidade total é · observada em Quí~ica:· Sup~nha-se que ternos k frascos contendo diferentes soluções de um mesmo sal totalizando, digamos, um litro. Seja P(Bi) o volume do i-ésirno frasco e seja P(A IBi) a concentração da solução no i-ésirno frasco. Se reunirmos todas as soluções em um só frasco e seP(A) denotar a concentração· da sq~tição resultante, teremos: P(A) = P(A JB1)P(BI)+ ·=·+PIA IBJ,)P(B~~:). Poderemos empregar o Ex. 3.5 para sugerir outro importante resultado. Suponha-se que uma peça seja retirada do depósito e se verifique ser ela d~feituosà~ Qual é a probabilidade de que tenha sido produzida na fábriCa 1? Empregando a notação já introduzida, pede-se P(BdA). Pode- remos calc~lar esta probabilidade como uma conseqüência da seguinte exposição: ·Seja B 1, B2, .. . , Bk uma partição .do espaço amostral S e seja A um evento associado a S. Aplicando-se a definição de pro- babilidade . condicionada, poderemos escrever P(BdA) = ~(A JB,)P(B;) :L j = 1 P(A I B;)P(B;) 1: =: 1, 2,. o., k. ~3.5) Este resultado é conhecido como Teorema de Bayes. É também denominado fórmula da probabilidade das ;,causas" (ou dos "antece- dentes"). Desde que os B.; constituam uma partição do êspaço amos- . trai um, e somente um, dos eventos B; ocorrerá. (Isto ' é, um dos eventos B; deverá ocorrer e somente um poderá ocorrer.) Portanto, a expressão acima nos dá a probabilidade de um particular B; (isto·· é, uma "causa"), dado que o evento A tenha ocorrido~ A .fim de aplicar esse teorema, deveremos conhecer os valores das P(B;). Muito freqüentemente, esses valores são desconhecidos, e isso limita a apli- cabilidade do teorema. ,Tem havido considerável controvérsia sobre o Teorema de Bayes; ele é perfeitamente. correto matemati- . camcnte; somente a escolha imprópria dos P(B;) pode tornar o . resul- tado discutível. ~':'·. -, .. 50 I PRQBABIUDAD!: Voltando ao problema proposto a~ima, , ~ agqra, apltca114o a Eq. (3.5), obtemos: P(B IA) = (0,02)(1/2) . .. . _; - 'o .4··· 0· 1 . . (0,02)(1 /2) + (0,02)(1/4)+JQ;p4)(JL~) ·.:~ ,.' ~. ~ ' Comentário: De novo, podemos encontrar para :ó· Tê:or~inâ ~e . Baye~, uma analogia da Química. Em k frascos, temos soluções docmesino saCporém de concentrações diferentes. Admita-se que o ·volume totaL das ·soluções seja um litro. Denotando por P(Bi) o volume da s~lU:çio do i~êsiino frasco, e a concentra- ção do sal nesse· i-ésimo frasco por P(A lEi), verificaremos que a Eq. (3.5) forneee a proporção da quantidade total do sal que é encontrada; no·i-ésimo frasco. O seguinte exemplo do Teorema de Bayes nos ·dará uma oportuni- dade para introduzir a idéia dodiagrama de árvore, um esquema bas- tante útil para analisar determinados problemas. Suponha-se que um grande número de caixas de bombons sejam compostas de dois tipos, A e B. O tipo A · contém 70 por cento de · bombons doces e 30 por cento de bombons .amargos, enquanto no ti- po B ·essas percentagens de sabor são inversas. Além disso, suponha-se que 60 por cento de todas as caixas de bombons sejam do tipo A, en- quanto as restantes sejam do tipo B. Você agora se defronta com ó. seguinte problema de decisão: uma caixa do tipo desconhecido lhe é oferecida. Você terá. per:inissão para tirar uma amostra de bombom (uma situação reconhecidamente irrea- lística, mas que nos permitirá introduzir idéias importantes, sem ficar muito complicado), e com esta informação você deve .decidir se adivi- nha que a caixa que lhe foi oferecida é do tipq A ou se do tipo B. O seguinte "diagrama de árvore" (assim denominado por causa dos vários passos ou ramos que aparecem) nos ajudará a analisar o problema. (Sa e sa correspondem, respectivamente, a escouier um bombom de ·saJ:>or doce ou um bombom de sabor amargo.) I"IROBAB!UDADIE CONDiCIONADA E INDEPENDÊNCiA I 51 i I Façamos alguns cálculos: I I P(A) = 0,6;P(B) = 0,4;P(Sa IJi) = 0,7; . P(Sa I:A) = 0,3;P(Sa IB) = 0,3;1P(Sa IB) = 0,7 . . Desejamos realmente saber: I . I P(A ISa), P(AIS0 ), IP(BISa) e, P(BlSa). · I . I . Suponha-se que realmente ret~remos um bombom de sabor doce. Qual decisão seríamos mais tentados a tomar?· Vamos comparar I P(A lSa) ~ P(BiSa). Empregando a fórmula de Bayes, teremos , . I . · · _ P(Sa IA)P(A) P(A IS a)- P($a iA)P€A) + P(Sa IB)P(B) I (0,7)(0,6) 7 (0,7)(0,6) +(0,3)(0,4) =9. i . . . I Cálculo semelhante dará. . j . P(BISai) = 2/9 . . Dessa maneira, baseados na evidência que tivemos (isto é, a tirada de urh bombom de sabor doce) é ~i vezes mais provável que nós este- jamos _diante de uma caixa do tipojA, em vez de uma do tipo B. Con- seqüentemente, podéríamos presurhlvelmente decidir que uma caixa do tipo A foi apresentada. (Naturalmbnte, nós poderíamos estar errados. A sugestão desta análise é que esta~errios escolhendo aquela alternativa que pareça ·a mais provável, com base na evidência liffiitada que ti- vermos.) . I Em termos do diagrama da ánrore, o que era realme~te necessário (e foi ·feito) era uma análise parai o pas~~do. I Assim, dado. o que f?i observado Sa, neste caso iqual a probabilidade de que o tlpo A seJa o envolvido? I . , , . I . . . . . Uma situação mais interessante surge, se nos for permitido tirar dois bombons antes de decidir sci se trata do tipo A ou do tipo_ B. Neste casó, o diagrama de árvore aparece ássim: ' · ' · ·. -. I . . . I i' ' J 'i t: I, ; li I [.' 52 I PROBABHUDADE A B · No problema 3.26, você será chamado a decidir de qual dos dois ti- pos, A ou B, você tirou ·a amostra, na dependência de · qual seja Óbser- vado dentre três resultados experimentais possíveis . . 3.3. Eventos Independentes Ja·consideramos eventos A e B que não podem ocorrer conjun- tamente, ü1to é, A (I B = 0. Tais eventos são denominados mutua- mente excludentes, ou eventos incomi>atíveis. Observamos anterior-· mente que se A e B forem mutuamente excludentes, então P(A IB) =: O, porque a ocorrência dada de B impede a ocorrência de A. No outro extremo, temos a situação já estudada, na qual B :,) A e, conse- qÜentemente, P(B I A) = L . Em cada uma· das sitúações mencionadas, saber que B já ocorreu nos da · algumà "nforinação bastante definida referente à probabili- dade . de ocorrência de A. Existem, porém, muitas situações nas quàis saber que algum evento B ocorreu não tem qualquer interesse quanto à ocorrênciaou não ocorrência de A. Exemplo. 3.6. Suponhamos que um dado equilibrado seja jogado duas vezes. Definamos os eventos A e B, da seguinte forma: A = {o primeiro dado mostra um número par}, .~ B =<= I o segundo dàdo mostra um 5 ou nm 6}. · ~ inttrltivamente compreensível que os evento~ A e B são intei- ramente não . relacionados. Saber que B ocorreu não . fornece qual- qUer illformação sobre a ocorrência de A. De fato, o seguinte cál- culo mostra isso. Tomando como nosso espaço amostral os 36 resul- .. . . . IPIROBAIBU.DDlADIE COI\!DiC~OI\!AIDIA ~ H\IDEIPIENIJIÊNCiA I 53- tados igualmente prováveis, considerados no Ex. 3.1, encontraremos que P(A) = 18/36 = 1/2, P(B) = 12/36 = 1/3, enquanto P(A () B) = = 6/36= 1/6~ Conseqüentemente, P(A IB) = P(A () B) f P(B) = = (1/6)/Ü/3) = 1/2. Deste modo encontramos, como seria de se esperar, que a proba- ~ . bilidade absoluta (ou não condicionada) é igual à probabilidade coli- dicionada P(A I B). Semelhantemente, . P(lUI A) (t) 1 . P(BjA) = P(A) - = (f) = 3 = P(B). Daí, pod~rlamos ser tentados a dizer que A e B serão indepen- dentes se, e somente se, P(A IB) = P(A) e P(BIA) = P(B). l\fuito embora isso~pudesse ser essencialmente apropriado, existe outra forma de colocar a questão que contorna a dificuldade encontrada aqui, a saber, que tanto P(A) como P(B) devem ser não-nulos para que as igualdades . acima tenham significado. Consideremos P(A () B), supondo que· as probabilidades condi- cionadas sejam iguais às correspondentes probabilidades absolutas. Teremos: P(A () B)= P(AjB)P(B) = :P(A)P(B), P(A () B) = ['(B I A)P(A) = P(B)P(A). . . Desse modo, desde quienem P(A) nem P(B) sejam iguais a zero, veri- ficamos que as probabilidades absolutas serão iguais às probabili.- da.des condicionadas se, e somente se, .,e(A () 1J) = P(A) P(B). Em . : :r-- . c~mseqüência, formulamos a segú.inte definição, a qual sell.'á tàmbém válida quer P(A) óu P(B) seja nulo: · . . I . . . . . Definição: A e B ser.ão eventos independentes se, ·e somente. se, P(A () B) ~ P(A)P(B). (3.6) Comenlário:· EsW. definiçil.o é, essencialmente, equivalente àqQ.ei& I!Ugerida !!.Cima, a Sa.ber, que A e B são independentes quando P(B!A) = P(B) e. P(A IB) = = P(A). . Esta. última for!IU!I ·é ligeiramente mais intuitiva, porque diz precisa- mente o que se t).nha. tentado dizer antes: que A e B ileril.o indePendentes se o co- nhecimento da. ocorrência de A de nenhum modo infltienciar. a probabilidS.de da . ocorrência. de B. Peio exame do seguinte exemplo, vê-se que a definição formal acima adotadm. apresenta também uma oerta1atra.çio intuitiva. Exemplo 3t7 .. Consideremos novamente ' o Ex. 3.2. Inicial~ mente examillaremos apenas a tabela abaixo, em que sii.Q forneddÇ>s . 54 I PROBABiLIDADE somente os valores marginais. Isto ·· é; existem 60 ináqúiiias · elétri- cas e 40 manuais, e delas 70 são novas enquanto ao.;sãd usadas. E M Nu I I· 7o 30 ~--------~--~ 60 íoo Existem muitas maneiras de preencher as· .casas da tabela; con- cordantes com os totais marginais dados. · A seguir apresentaremob algumas dessas possibilidades. E llf E M E llf N 16: 10 I 70 N 130 40 I 70 N I:: 281 70 u 30 30 u 30 .o 30 . u 12 30 60 40 100 60 40 100 60 40 100 (a) (b) (c) Consideremos a Tab. (.a). Aqui todas as máquirias elétrica8 são novas e todas as ·máquinas usadas são manuais. Desse modo, existe uma conexão óbvia (não necessariâmente causal) entre a ca- racterística de . ser elétrica e a de ser nova. Semelhántemente, na Tab. (b), todas as máquinas manuais são novas e todas as· máquina9 usadas são elétricas. Também, uma conexão definida existe entre essas características. No entanto, quando chegamos à Tab. (c), a situaçãO fica bem diferente: aqui, nenhuma relação evidente existe. Por exemplo, 60 . por cento de todas as máquinas são el~tricas, e exatame~te 60 por cento das máquinas usadas são . eÍétricas. Se- nielhantemen; e, 70 por cento de todas as máquinas são novas, · enquanto exatamente 70 por cento das · máquinas man1,1ais são novas etc; Portanto; nenh)lma indicação está evidente .de que a carac- terística de "ser nova" e de "ser elétrica" tenham qualquer cone- xão uma com a outra. Naturalmente, esta tabela foi construída justamente de modo a apresentar essapropriedade. Como foram obtidos os valores. das casas da· tabela? ·Apenas com o . emprego da . Eq~ (3.6); isto é, porque P(E) = 60/100 e P(N) = 70/100, deveremos ter, para independêp.cia, P(E () N) = P(E) P(N) :/42/100. Daí, a . riasa' na tàbela que indique o número de m:áquina~ elétricas novas deverá conter o número 42. As outras casas seriam obtidas de ma- Jlei~a análoga. mai?ria das aplicações, teremos que adotar a hzpôtese de ín,- . .,,...,ii;;>~ a-. de' dois eventos A e B, e depois empregar essa suposição . .. .P(A () B) como igual a P(A) P(B). Geralmente, PROBABILIDADE CQNDICIONADA E INDEPENDÊNCIA I 55 i condições físicas sob as quais q experiment~ seja realizado tornarão possível decidir se tal suposição será justificada ou ao menos apro- ximadamente justificada. I I Exemplo 3.8. Consideremés um lote grande de .peças, digamos 10.000. Admitamos que 10 pof cento dessas p~ças sejam defeituosas e 90 por cento perfeitas. Duas peças são extraídas. Qual é a pro- babilidade de que ambas. sejarJ perfeitas? . I Definamos os eventos A e B,, assim: I . A = I a primeira peça -é perfeita}, I . B = I a segunçla peça é perfeita}. ''<:t. Se adill.itirmos que a primeira Jeça seja reposta, antes que a segunda seja escolhida, então o~ eventoJ A e B podem ser consideràdos inde- pendentes e, portanto, P(A. h B) = (0,9) (0,9) = 0,81. Na prá- tica, contudo, ·a ~egunda peça éj escolhida sem a reposição da prim~ira peça; neste caso, .1 P(A n B) = P(E I A)P(A) = 1 ~999 (O 9) . ! . 9999 ' I que é aproximadamente igual a 0,81. Assim, muito embora A e B não sejam independentes no sebdo caso, a hipótese de independên- cia (que siinplifi~a considerav~lmente os · ~ cálculos) . acarreta apenas um erro desprezível. (Recorde~se o objetivo de um .mod.elo matemá- tico, tal como foi apresentado i na Seç. 1.1.) Se existissem somente poucas peças no lote; cligÍlmos j30, a hipótese de independência teria acarretado um erro grande. . Por isso, torna-se importante · verificar cui~adosamente as condiçõ~s s?b as quais o e~:rimen~q é realizad?, a f1m de estabelecer a validade de uma -supos1çao de mdependênCia . entre os vários eventos. i · . · .. · E,xemplo 3.9. Admitamos) que ,um mecanismo, seja constituído por dois componentes montados em série, como indicado na Fig." 3.4. I . Cada componente tem uma probabilidade p de não 'funcionar. Qual será a probabilidade de ·que o: mecanismo funcione ? . i -~ . .,Fig, 3.4 I 1!; evidente que o mecanis~o funcionará s'e, e somente se, ambos às componentes estiverem funcionando. Por isso, 1 · Prob (o mecanismo funcione) [= Prob (C1 funcione e C2 funcio11e). ._., .. -.'; .. I I I I . I I · I . 'j . • ' I ·. " .. L 56./ PROBABIUDADE :·.,! A informação fornecida não nos permite continuiJ.r · sem, que, se saiba (ou se suponha) que os dois mecanismos trabalhem mdeperidénteJnimte um do outro. Isto pode, ou não, ser uma sup~siÇão:' r~àlista, depen- dendo. de como as duas partes sejam engatadas. . Se admitirmos que . ru3 duas partes trabalhem independe~terh~~te, 9l:ite~e~~~ .·· pár,a a · · probabilidade pedida o valor (1- p)2, · . · · · · · · Será importante para nós, estendermos a noção dejndependên- cia para mais de dois eventos. Consideremos, iriicialm~nte, três eventos associados a um experimento, digam~s A, B e C. · Se A e B, A e C, B e C forem independentes doiS a dois (no sentido acima), então não se concluirá, em geral, que não exista dependência entre os três eventos. O exemplo seguinte (um tanto artificial) ilustra esse ponto. Exemplo 3.10. Suponha-se que joguemos dois dados. Definam- se os eventos A, B e C da seguinte forma: A = {o primeiro dado mostra um número par}, B = I o segundo dado mostra um número ímpar ), c = I ambos os dados mostram números ímpares ou ambos mostram números pares} . Temos P(A) = P(B) = P(C) = 1/2. Além disso, P(A () B) = = P(A rt C) = P(B rt C) = 1/4. Portanto, os três eventos são todos independentes dois a dois. Contudo, P(A n B n C) = = O ;é P(A) P(B) P(C). Este exemplo sugere a seguinte definição. Definição . . Diremos que os três eventos A, B e C são mu.tUOr mente independentes ~e, e somente se, todas ru3 condições seguintes fo- rem válidas: P(A n B) = P(A)P(B), P(B rt C) = P(B)P(C), P(A rt C)= P(A)P(C), (3.7) P(A rt B rt C) = P(A)P(B)P(C). Finalmente, generalizaremos esta noção para n eventos, na se~te definição: Definição. Os n eventos Ah A2 , •• • , An serão mutu9:,mente inde- pendentes se, e somente se, tivermos para k = 2, 3, . .. , n: P(A;1 rt A;2 rt · · · rt A;k) = P(A;1)P(A;2) • • • P(A;t)· (3.8) (Existem . ao todo 2n - :n· - 1 condições aí arroladas; veja o Probl. 3.18.) PROBABILIDADE COI\IDiC~ONADA E iNDEPENDÊNCUA / 57 Comentário: Na maioria das aplicações, não precisaremos verificar todas essas condições, porque nós geralmente admitimos a independência (baseada na- quilo que conhecermos do experimento). Depois, empregaremos essa suposição para calcular, digamos P(A,, (I A;, (I · · · (I A;k) como P(À;,)P(A;,) · · · P(A;k). Exemplo 3.11. A probabilidade de fechamento de cada relé do circuito apresentado na Fig. a:s é dada por p. Se todos os relés fun- cionarem independentemente, qual será a probabilidade de que haja corrente entre os terminais L e R?. f--l~· 1 2 _ R 3 4 f--j Fig. 3.5 Represente-se por A; o evento {o relé i está fechado J, i = 1, 2, 3, 4. Represente-se por E o evento {a corrente passa de L para R). Em consequenCia, E = (A1 (J A2) U (A3 (J A4). (Observe-se . que AI n A2 e A3 n A4 não são mutuamente excludentes.) Portanto, P(E) = P(A1 (J A2) + P(A3 (J A,) - P(A1 () A2. n A3 ri A,) = p2 + p2- p4 = 2p2- p'. o (' . . Ex~:mplo 3.12. Suponhamos novamente que, para o circuito da Fig. 3.6, a probabilidade de que cada relé esteja fechado é p, e que todos os relés fúncionem independentemente. Qual será a proba- bilidade de que exista corrente entre os terminais L e R? Empregando a mesma notação do Ex. 3.11, teremos que P(E) ~ P(A1 (J A2) + P(A6) + P(A3 n A4)- P(A1 (J A2 (J As) - P(Al (J A2 ri AJ ri A4) - P(A6 (J A3 () A4). + P(At (J A2 Íl As n A4 () A6) == p2 + p + p2 - p3- p'- p3 + p5 = p + 2p2- 2p3- p' + p~. Vamos encerrar este capitulo com a indicação de uma bastante comum, mas errônea, resolução de um problema. I ~ . I ~ '. 1 ! , 11 d : i .. 58 I PROBABiLIDADE Exemplo 3,13 .. Admita-se que dentre seis:pârafusosf 'dois ·sejam menores do que um comprimento ei!pecificado)< ·Se':'d9is'::doi(parafU:7 sós forem escolhidos ~ '.• acaso, qual 's~rá a 'Pióoàb\úa:i<Ié: ~e . que os dois parafusos mais curtos sejam extraídos? . Seja Ai o êveiíto {o i-ési~ mo parafuSo escolhido é curto J, i = 1, 2. Portanto, desejamos calcular P(Al nA%), . A sohição 'correta é obtida, naturalmente, escrevendo A solução comum, mas incorreta, é obtida escrevendo-se Naturalmente, o importante é que, muito embora a respost.a esteja numericamente correta, a identificação de 1/5 com P(A 2) é incorreta~ 1/5 representa P(A2IA 1). Para calcular P(A 2) corretamente, escre- veremos 3.4. Considerações Esquemáticas; Probabilidade Condicionada e Independência A abordagem esquemática seguinte poderá se.r útil para compreen- der a probabilidade condicionada. Stiponhamos que A e B Sejam dois eventos associados a um espaço amostral ·para o q]Jal as várias probabi- lidades estão indicadf s no Diagrama de Venn, dado :ila Fig. 3 .7. 0,2 !Fig. 3.7 Tem-se P(A n B) = 0,1; P(A) = 0,1 + 0,3 = 0,4 eP(B) =;= 0,1 + 0,4 = . . = 0,5. ' PROBABILIDADE CONDICIONADA E INDEPENDÊNCIA I 59 I I . Em seguida, representaremos asl várias probabilidades pelas áre(ls dos retângulos, como na Fig. 3.8. Exti cada caso, as regiões somhreadas indicam o evento B: no retângulo cti esquerda, estamos representando A í1 B e, no da direita, A' í1 B. I ' · 0,2 · B' 0,4 B Agora, admitamos que se deseje balcular P (B I A). Por isso, neces- sitamos somente considerar A, isto él A' pode ser ignoradono cálculo. Observamos que a prop.orção de B A é 1/4. (Poderemo~ também ve-.' rificar isso pela aplicaçãb da Eq. (3. : P(B I A) = P(A í1,B) ! P(A) = = 0,1ÍÔ,4 = 1/4.) Portanto, P(B' I ) = 3/4, e nosso diagrama repre-. . . , I . . , , . sentando essa probabilidade . seria dado pela Ffg. 3.9. . 1,0 B' 0,75 B . i fig. ~.9 o A' j / Observe-se, também, que se A fqr dado como tendo ocorrido, toda a probabilidade (isto é, I) deverá se~ associada ao evento A, enquanto nenhuma probabilidade (isto é, O) e:stará associada a A'. Além disso, observe-se que, no retângulo d~ esqu~rda, representando AI somente os v;uores individullis mudaram na Fig. 3.8 para a Fig. 3.9 (cuja soma é 1, , em lugar de 0,4). Contudo, as propor~ões dentro do retângulo permane- ceram as mesmas (isto é, 3 :1). · ' ,i I \ 60 I PROBABIUDADIE V amos também ilustrar a noção de independência; empregap.do a abordagem esquemática introduzida· anterionilente. Supàiiljaljlcis ~;qüe A .. e B sejam como indicado na Fig. 3.1 O. Nesse caso; as 'prÇi (e:·,:~qe,s nos dois retângulos, represéntando A e A', são as mesmas: 3:1 fiõ,dois casos. Por isso, teremos P(B) = 0,1 + 0,15 ~ 0,25 e P(B n 'A}~ = 0,1/0,4 = 0,25. . . o B 1 0,3 B A !Fig. 3.10 0,45 A' ~ ~ B' o r ~?'~ j B Finalmente, observe-se que, simplesmente olhando a FÍg . .3.8, poderemos também calcular as outras probabilidades condicionadas; : P (A I B) = l/5 (desde que 1/5 da área total retangular representando \festeja ocupada por A'); P (~' I B) = 4/5 . . \.problemas ~ . 3.1 ;'\ A urna r' contém x· bolas brancas e y bolas ve~:melhas. A ur.n.a. ·2. con.- tém z bol~{>ranca.s e v bolas vermelhas. Uma bola é escolhida ao acaso da 'ur.na ~ e posta na ur"na 2. A seguir, uma. bola é escolhida ao aca,so da urna 2. Qual será a probabilidade de que esta bola seja branca? 3.2. Duas válvulas defeituosas se misturam com duas válvulas pedeita.s. As. válvulas são epsaiarlBs, UillA a uma, até.que amb&S as defeitu~as sejam encontradas. · (a). Ql.lal ~á a -prbbabilidade de que a últirrui. vs.!~l:i. defeiru0S& seia encon- trada.no segundo ensaiO?- . ' (b) Qual será a prpbabilidade de que a última válvula defeituosa seja encon- trada no terceiro. e"D.Sai@ ? · · (c) .. Qual 9erá a probabilid8.de de !lUe a úl.ltãma vá.!vuia defeitu~sa sejae~coa- tr.ad.a n.o qu.o.rto ensaio? ' . . . .. . ·. ·'.(d) Some os 11úmeros obtidos em (a), (b) e (c) aciina. O tesultado é surJ?re- eO:dente? .·-· - - --· _ __:_ ____________ ~ . !~ . I . J , j :I .. \ _) PROBABULIOADE CONDICIONADA E INDEPIENDÊNCDA I 61 3.3. Um_a caixa contém 4 válvulas defeituosas e 6 perleitl).S. Duas vil.lvul,as são extr11ída8 juntas: Uffil!. delas é em;aiada e -se verüic~~< ser perfeita. · .QW1l a · idarde de que a outra válvula também seja perfeita? No' problema anterior, as válvulas são verificadas e;xtrai.ndo-se uma v v a ao acaso,, énsaiandoca e repetindo-se o procedimento até q_ue todaS as 4 vá.lvulas defeituosas s_ejam encontradas. Qual .será a probabilidade de que a quarta vá.lvula defeituosa.,seja encontrada: (a) No quinto ensaio,? (b) No décimo ensaio? 3.5. Suponha que A e B sejarn-eventos independentes l).Ssociados a um ex- > ;..perimento. Se a probabilidade de A ou ·s ocorrerem fm: igual a 0,6, eJ;Jquanto a. • probabilidade da ocorrência de A fOJ; igual a. 0,4, determine a probabilidade da ocorrência de B. 3.6. Vinte peças, 12 das quais são defeituosas e 8 perfeitas, são inspecio- nadas uma a pó~ .a outra. Se essas peças forem extraídas ao. acaso, qual será a. probabilidade de que: (a) As duas primeiras peças sejam defeituosas? (b) As duas primeiras peças sejam perfeitas? • (c) Das .duas primeiras peças inspecionadas, uma seja. perfeita e a outra defeituosa? r . 3.7. Suponha que temos duas urnas. 1 e 2, _cada uma· corri duas gavetas. A urna 1 contérn uma moeda de ouro. em uma gaxeta e uma moeda de prata na outra gaveta; enquanto a urna 2 contém uma moed.a de ouro em cada gaveta .. Uma urna é escolhida ao acaso; · a seguir uma _de .=s ·gavetas é aberta ao ~caso .. Verifica-se que a moeda encontrada nessa gaveta ,é de ouro. Qu11l a probabili- dade de que a moeda provenha da urna . 2? . 3.8. Um saco contém três' moedas, uma das quais foi cunhada cm;n 'duas caras, enquanto as duas outras moedas são normais e não viciadas. Uma mpeda é tirada ao acaso do saco e jogada quatro vezes, em seqüência. Se sàir cara toda vez, qual se~.á a probabilidade de que essa seja a moeda de duas caras? . · 3.9. Em uma fábrica .de parafusos, as máquinas A, B e C produzem 25, 35 lll 40 por cento do total produzido, respectivamente. Da produção de cada. máqUi- na, 5, . 4 e 2 por cento, respectivamente, silo parafusos defeituosos. Es.colhe-se ao . acaso um parafuso e se verifica. Sf1t defeituoso. Qual será a probabilidade de que o parafuso venha da máquina-A? Da B? Da C? - .1. . ( ' ·3.10. Sejam A e B dois eve,ntos associados a- úrll experimento. Su:p.onha que P(A) = 0,4, enquanto P(~ u,.~,~ =;~0,7, . Seja ,P(B)·_:= t :· .. ..____ [ (a) Para que valor de '?• A e .B -serão ~utuai,Dente · excludentes? (b) Para que valor de p, A e B serão mdependentes? 3.11. Três componentes C1, C2 e C3, de um mecanismo são postos em série (em li9!;Ja_reta). Suponha que esses C?JHPOÍ1~ntes sejam dispostos em ordem alea- tória. Seja R o evento ( C2 est4 à direhil>d;~ . C1l. e seja S o evento ( C3 está à di- ~- reita de Cd .. Os eventos R e-S são indep~ndentes? Por ,.qilê? ~ 3.12. Um dado é l ançado e, independentemente, uma carta é extrafda de um bara.lho completo (52 cartas). Qual será a probabilidade de que: III' li !j ' . ! • · i! !! !I ~ 1 ,, q: 'I ~i l !! " i' li ,, :• !1 :I ' I 1: li 11. ii :j li _.) ,J I! ! I ! l I i I i ,. !.;. r I I I 62 I PROBABiLIDADE ···. _ (a) O dado mostre um número par . e a , c~t~ta ~~ja A~ ,Uffi-, ·Jil~ip~;\Y,em:Ellbo? ;,: 3~ ~~o n:::: :::::e:::s::t:í:~â~::11sà:t:.~jgii~fj~t~f\l;:~oo: exemplo, 1011, 1100 etc.) Esses núrn~rós têrri i!1J:p,~r~~~WP.ll~~i! ~~ .~~t4[i~~o de computadores eletrônicos. Suponha que um iilíxn~ró'';})iriário.'<sei~~:!?izrtil(lO' de n dígitos. Suponha que a probabilidade de úrli -dígito ilrtotrêtdi'ii:li'â:r~cet 'seja P e que os erros em diferentes dígitos sejam independentes i.im\ .'âo~ · Ói.itros. ''Qual será a probabilidade de formar-,se um nú171:ero incorr.eto? . · . . : . ·. :' .. 3.14. Um dado é atirado n vezes. Qual é a probabilidad~ de que "6" apa- . reça ao ID.eno~ uma. vez em n jogadas! ··,.· ·· 3.15. Cada uma de duas pessoas j~ga três rnoe~as eq~liÚbr;das. · Qual é a probabilidade de que elas obtenham o mesmo número de carS:.S ?. . " . .. 3.16. Jogam-se dois dados. Desde que as faces mostrem números dife- rentes, qual é a probabilidade de que urna face seja 4? 3.17. Sabe-se que na fabricação de um certo 11rtigo, defeitos. de um ' tipo .ocorrem com JJiobabilidade 0,1 e defeitos de outro Úp(; com probabilida'de · Õ,Ó5. Qual'l' será a probabilidade de que: i . (a) Um a.rtig~ ~o tenha .a~b<)s os tii>os de defeitos? (b) Um ãrtigo 'aéja defeituos'o? - · · -- .' . - (c) u~ artigo' ~e"nha ~~nas· ,irn.c~q--~a'rJefcl~o: sabido que"é defeituoso? _,_ ______ __ 3:18. Ve.rifique que o núm.ero de condições impostas· pela Eq, (3.8) é dado por 2n- n- 1. 3.19. Demonstre que, se A e B forem eventos independentes, também o serão, A e Ii, A e B, A e Ii. . . . . 3,20. Na Fig. 3.ll(a) e (b), suponha que a probabilidade ~e que cada relé esteja fechado seja p, e que cada relé seja aberto ou fechado independentemente um do outro. Em cad~ CMo, determine a probabilidade de· que a corrente pas.se de L para R. · · · (a) (b) fig. 3.11 3.21. DuM ·máquinas A e B,· sendo operadas independentemente, podem ter alguns desarranjos cada dia. A Tab. 3.2 dá a distribuição de probabilidades dos desarranjos· para cada máquina. Calcule M segUinte!) probabilidades: (a) A e B tenham o mesmo número de desarranjos. , (b).O nli.rooro total de dsstln':IDjos seja menor que 4; me~~.or que 5 .. ..· 1-. , , , i ·f ! • ·f:'ROBABIUDADE CONDICIONADA IE iNDEPENDENCIA I 63 . I I (c) A tenhà mais desarranjos que B. f· (d) B tenha duas vezes mais desarranjos que · A . . (e) B tenha 4\!iesarranjos, quando se li saiba. que B ,iá tenha tido 2 desar- ranjos. U) o número mínimo de desarranjos ~as - duas máquinas . seja 3; seja menor do que 3. (g) O JILúmero má.ximo de desarranjos das máquinaS seja 3; seja maior que 3. Número de desa.rranjós A B o 0,1 0,3 1 0,2 0,1 2 I Tab. 3.2 I 0,3 I 0,1 4 5 6 0,09 0,07· 0,04· 0,1 0,15 0,15t 3.22. Verifique pelas Eqs. (3.2) que, se~do A flxo, P(~ IA) satisfaz aos váriO!! post~os da probabilidade. I . . 3.23.. Se cada eleinento de um determinante d~ segunda. ordem for zero ou um, qusJ será a probabilidade de que o jvaior do detenrunante seja positivo? . (Admita que· os elementos do dete_rminante j sejam escolhidos independentemente, a cad_a valor se atri,buindo a probabilidade ~/2.) . 3.24. Verifique que o teorema da multiplicação P(A n B) = P(A I B)P(B), estabelecido para dois eventos, pode ser estkndido para três eventos, da seguinte maneira:. . I , . . "- _, P(A (JB n C)= P(AIB n C)P(BIC)P(C). \ ... . ) . · . 3.2~ Uma montagem eletr.ônica é fonilada de dois subsistemas A e B. De \iiro~meQ.tos de ensaio anteri9re8, as· seg1uintes probabilidades . ser admitem co- nhecidaS~ j · P(A falhe) = 0,20, P(A e B falhem) i= 0,15, P(B falhe 8o::inho) := 0,15. • . /" I. ·' ·' Cllllcule as seguintes probâbilidades: I . . (a) P(4. falhe I B teiilia falhado). (b) I P(A falhe sozinho). . .. , . . . ·, , . I . .. 3.26. Conclua à análise do exemplo djldo na Seção 3 .2, pela decisão de qual dos dois tipos de caixa de bombons, A ou B, foi apresentada, ba~eando-5e na evidêncià·dos dois bombons que foram tiradÓs na amostra.· " I , · 3.27. Sempre que um experimento é! realizado, a ocorrência de um parti- cu1ar evento A é igual a 0,2. O experimento é repetido independentemente, até que A ocorra. Calcule a proba~ilidade de qu~ seja necessário levar a cabo o experi- mento até a quarta vez. : · · 3.28. Suponha que .um equipamento 1 possua N v.ílvulas, todas necessárias para seu funcionamento. A fim de localizar uma válvula com mau funcionamento, faz-se a substituição de cada válvula: sucessi~amente, por U)Ila '?Ílvula nova. Calcule a probabilidade de que seja necessário trocar N válvulas, se a probabilidade (cons- tante) de uma válvula estar desarranjada por lp. · I . ! 3.29. Demonstre:SeP (A I B) >P (A), então,P (B I A) >P (B) . . I I I 64 I IPROBABHUDADE 3.30. Uma válvula a vácuo pode provir de três fabricantes, com probabili- dades p, = 0,25, P2 =. 0,50 e p 3 = 0,25. As probabilidades de que, ·durante determinado período de tempo, a válvula funcione bem são, respectivamente, 0,1; 0,2 e 0,4 para cada um dos fabricantes. Calcule a probabilidade de que uma válvula escolhida ao acaso funcione bem durante o período de· tempo especifiiido. . . . : 3.31. Um sistema elétrico é composto de dois comutadores do tipo A, um do tipo B, e quatro do tipo C, ligados como indica a Fig. 3.12. Calcule a probabi- lidade de que uma pane no circuito não possa ser eliminada co~ a chave K, se os comutadores A, B e C estiverem abertos (isto é, desligados) com probabilidades 0,3; 0,4 e 0,2, respectivamente, e se eles operarem independentemente. Fig. 3.12 3.32. A probabilidade de que um sistema fique sobrecarregado é 0,4 duran- te cada etapa de um experimento. Calcule a probabilidade de que o sistema deixe de funcionar em -três tentativas independentes do experimento, se as proba- bilidades de falhas em 1, 2 ou 3 tentativas forem iguais, respectivamente, a 0,2; 0,5 e 0,8. ··.~ 3.33. Quatro sinais de rádio são emitidos sucessivàmente._Se a recepção de cada uni for 'independente'·d~ recepção de outí:o, e se .essas probabilidades forem 0,1; 'b,2;0.,3 e o,4;respectivamente, .calcule a probabilidadé de que k sinais venham a ser recebidos pàia: k;,; 0', 1; 2, 3, 4. ' 3.34. A seguinte (de algum modo simplória) previsão de tempo é empregada por um amador. :0 tempo, diariamente, é classificado como "seco" ou "úmido", e supõe-se que a probabilidade de que qualquer dia dado seja igual ao dia anterior seja uma constante p (0 < p < 1). Com base em registras passados, admite-se que 1? de janeiro tenha probabilidade {3 de ser dia "seco". Fazendo f3n = probabilida- de (de que o 1 n-ésimo dia do ano seja "seco"), pede-se obter uma expressão para 13n em termos de {3 e de.p. Calcule também limn..., "" f3n. e interprete o seu resulta- do [Sugestão: Exprima f3n em termos de 13n _ 1-J · 3.35 .. Três jornais A, B e C são publicados em uma cidade e uma recente pesquisa entre-_9'S leitores indica o segufute: 2Q por cento ~êem ;i; 2Q., PO! CeJ:lt<2_ -lêem B; 14 por cento lê~m ,C; 8 por ce!ltO lêem A e\8._;_5,. pot.cento lêem A ·-e Ç; .2 porceflt? lêem A, f1 e. Ç; ~ 4p_:por .cento lêe~B,~ ~f]ara um adulto .esco!hiêlo' ao acaso; calcule a probabilidade de que: (a) ele não leia qualquer dos jornais; \ ' i 1 I I ·I I I .J, I'ROBAIBDUDADE CONDICIONADA E iNDEPENDÊNCIA I 65 (b) ele leia exatamente um dos jornais; (c) ele leia ao menos A e B, se se souber· que ele lê ao. menos um dos jornais publicados. 3.36. Uma moeda equilibrada é jogada 2n vezes. (a) Obtenha a probabi- lidade de que ocorrerá um igual número de caras e coroas; ( b) Mostre que a probabilidade calculada em (q_) __ ,,uma função decrescente de n. 3.37. Cada uma das n umas: Urna 1, Urna 2, ... , Urna n, contém a bolas brancas e fi bolas pretas. Uma bola é retirada da Urna 1 e posta na Urna 2; em se- guida, uma bola é retirada da Urna 2 e posta na Urna 3, e assim por diante. Final- mente, uma bola é retirada da Urna n. Se a primeira bola transferida for branca, qual será a probabilidade de que a última bola escolhida seja branca? Que acon- tece, se n _, co? [Sugestão: Façapn = Prob (a n-ésima bola transferida seja branca) e exprima Pn em termos de Pn _ 1·l 3.38. A Urna 1 contém a boias brancas e fi bolas pretas, enquanto a Urna.2 contém fi bolas brancas e a pretas. Uma bola é extraída (de ·uma das umas) e é em seguida reposta naquela uma. Se a bola extraída for branca, escolha a próxima bola da Urna 1; se a bola extraída for preta, escolha a próxima bola da Uma 2. Continue a operar dessa maneira. Dado que a primeira bola escolhida venha da Urna 1, calcule Prob (n-ésima bola escolhida seja· branca) e também o limite dessa probabilidade, quando n _,. oo. 3.39. Uma máquina impressora pode imprimir n letras, digamos a 1, ci 2·, ••• , "'n- Ela é acionada por impulsos elétricos, cada letra sendo produzida por um impulso diferente. Suponha que exista uma probabilidade constante p de imprimir a letra correta e também suponha independência. Um dos n impulsos, escolhido . ao acaso, foi alimentado na máquiria duas vezes e, em ambas, a letra a 1 foi im- pressa. Calcule a probabilidade de que o impulso escolhido tenha. sido para impri- mira1 . 1l I I i ! I 1 I· i ! ; ' Variáveis Aleãtórias Unidimensionais · Capítulo 4 4.1. Noção Geral de Variável Aleatória Ao descrever o espaço amostral de üm experimento, ·não especi- ficamos que um resultado individual necessariamente seja um nú:.. mero. De fato, apresentamos alguns exemplos nos quais os resul- tados do experimento· não eram uma quantidade numérica. Por exemplo, ao ·descrever uma peça manufaturada, podemos empregar apenas as categorias "defeituosa" e "não defeituosa". Também, ao observar a temperatura durante o periodo de 24 horas, podemos simplesmente registrar a cwva traçada pelo termógrafo. .Contudo, em muitas situações experimentais, estaremos interessados na men- suração de alguma-coisa e no seu registro como l.iin número. Mesmo nos casos menci.onados acima, poderemos atribuir um número a cada resultado (não numérico) do experimento. Por exemplo, podererp.osatribuir o valor um às peças perfeitas e o valor zero · às defeituosas. Poderemos registrar a temperatura máxima do ·dia, ou a temperatuTa mínima, ou a média das temperaturas máxima e mínima. Os exemplos acima são bastante típicos, de uma classe muito geral de problemas: em muitas situações experimentais, desejamos atribuir um nú-mero real x a todo elemento 8 do espaço amostral B. Isto é, x = X(8) é o valor di) uma função X do espaço amostral no espaço dos números reais. Com isto em mente, formulamos a seguinte definição. Definição. Sejam S um experimento e S um espaço amostral associado ao experimento. Uma junção X, que associe a cada ele- mento 8 E 8 um número real, X(8), é denominada vari.ável aleat6ria. Comentários: (a) A terminologia acima é um tanto infeliz, mas é tão uni- versalmente aceita·, que não nos afastaremos dela. Tornamos tão claro quanto . possível que X é uma funçao, e contudo, a denominamos uma variável (aleatória)! VARIÁVEIS AlEATÓRIAS UNI DIMENSIONAIS I 67 (b) E evidente que nem toda funçãt imaginável pod~ ser considerada uma variável aleatória. Um requisito (embora_ hão seja o mais geral) é que, para todo · número real x, o evento [X(s) = x] e,p-~a t.odo intervalo/, o evento [X(s)E/] têm probabilidades bem definidas, con~stentes com os axiomas básicos. Na maioria das aplicações, essa dificuldade não surge e nós não voltaremos a ·nos referir a ela. I I . (c) Em a.lgunias situações, o resultado \1: do espaço amostral já eonstitui ,a .caracterlatics num~ca . que desejamos li reíiistrar. \ Simplesmente tomaremoa X(s) = s, a função 1dentJ.dade. _ (d) Na maior parte de nOSBI!. sub5eqii:ente exposição sobre vo.riáveis alea- tórias, não necessitaremos indicar a natur~za funcional de X. · Geralmente, esta- remos interessados 'tios valores po~veis d~ X, mais do que de onde el~ se origi- nam. Por exemplo, suponha-se que atiremos duas moedas e considéremos o es~ paço associado a este experimento. · Isto! é, S = {HH, HTi TH, TTI. - · . I Definamos a variável aleatória da seguintfi maneira: X é o número de caras (H) obtidas nas duas moedas. Daí, X(HH) = 12, _ X(IIT) = X(TH) = 1 e X(TT) =O. S = espaço amostral de ·& llx = valores possívei~ de X ! . i I -Fig. 4 1 .1 I (e) 11: muito importante . compreende~ uma. exigência fundamental de uma função (unívoca) : A cada sES coi:respohderá exatamente um valor X(s). Isto I. . I está apresentado esquematicamente na Fig. 4.1. Diferentes valore 1 s de s podem levar ao mesmo valor de X. Por exempJolr na ilustração acima, verificamos que X(HT) = X(TH) = 1. . , - I - . ·o espaço Rx, conjunto de tod~ os valores possíveis de X, é algumas vezes denominado contradc'minio. De certo modo, podere- mos considerar Rx como um outro ~aço amostral. O espaço amos- tral (original) S corresponde ao reshltado (possiv~l:m:!mte não-l'lumé- rico) do experimento, enquanto Rx lé o espaço amostral·, IJSSOCiado à variável aleatória X, . representand4 a característica numérica que nos poderá interessar. Se for X(s), = s, tererrl.os S ::= Rx. . Muito embora estejamos prevezUdos do perigo didático inerente a dar muitas explicações para umÁ mesma coisa, 'vamos salientar que püderemos pensar em u:ma.. variá.t el aleatótia :X, de du~ maneiras: (a) Realizamos o ·experimento 1E que dá um regultado sES; a seg;,.ir cal~ulamos o número X(s). ! 68 / PROBABIUDADE (b) Realizamos 8, obtemos o resultado ~.e (imediatamente) calculamos X(s). Neste caso, o número X(s) é~;>ensado éo~o ovr6- prio resultado do experimento e Rx se toma o . espli,ÇO amost~al do experimento. ·. . ·· - -' A diferença entre as interpretações (a) e (b) é percebida com · dific1,1ldade; é relativamente secundária, mas me1;ecedora de, atl~nção. Em (a), o experimento essencialmente. termina com a obs~rvação de s. · · A avaliação de X(s) é considerada alguma coisa qile é feita poste- .· 'riormente, e que não é influenciada pela aleatoriedade de 8. Em · (b), o experimento não é considerado concluídO ·até que o ni1mero X (s) tenha sido realmente calculado, desse modo se originando o e.S- paço amostral Rx. l\iuito embora a primeir~ interpretação, (a), seja aquela ·geralmente pretendida, a segunda interpreta'ção, (b), pode- rá ser muito útil e o leitor deverá lembrar-se dela. Aquilo que estamos dizendo, e isso ficará cada vez inais claro nas seções posteriores, é que no estudo das variáveis. _ aleatórias estaremos mais interessados nos valores que X toma do qlle em sua forma funcio- nal. Conseqüentemente, em muitos casos, ignoramos completamente o espaço amostral subjacente no qual X pode ser definido. Exemplo 4.1. Suponha-se que uma lâmpada tenha sido posta em um soquete. O experiment,o será. considerado terminado quando a lâmpada se queimar. Qual será um possível resultado, s? Uma das maneiras de descrever s seria apenas registrar o di'a e a ho_ra em que ' a lâmpada se queimou, por exemplo: 19 de maio, 16 h e 32 min. Em conseqüência, o - espaço am~stral poderia ser rep~e~entado por S = { (d, t) I d = dia, t = momento do dia). Presu~iyelmente, a variável alpat6ria que interessa é X, a duração até queimar. Ob~er ve-se que, uma vez que s = (d, t) tenha sido observado, o cálculo · de X(s) não inçlui qualquer aleatoriedade. Quando s é especificado, X (s) fica completamente determinado. As du~. interpretações explicadas acima -podem ser aplicadas a este exemplo, como se segue. Em -(a), consideramos o experimento terminado Cdm a observação S = (d, t), O dia e a hora. 0 cálculo de X(s) é realizado -depois, abrangendo um& operação aritmética simples. Em (b),_ consideramos que o experimento somente estará terminado depois que X(s) tenha sido calculado · e um,... número; por exemplo, X(s) = 107 horas seja então considerado o resultado do exi>erimento. Pode-se salientar . que análise semelhante se aplicaria a qual- quer outra variável que interessMSe, por exemplo, Y(s), a tempe- ratura da sala no momento em que a lâmpada se tenh& queimado. VARiÁVIEUS ALEATó,~ IAS UNiDRMENSiONAiS I 69 ( ' Exemplo 4.2. Três moedas são atiradas sobre a mesa. Tão ·iogo as moedas repousem, !!), !fase / 1aleat6ria" do experimento tenni- _lllOU. Um resultado simplea 8 poderia consistir ~a descrição deta: lhada de como e onde as moedas pousaram. · Presumivelmente, estaremos oomente intereesados em certas características numéricas. · •ciadas a este experimente. Por exemplo, poden2.mos avaliu: X(s) número de caras que apareceram, Y(s) distância máxima entre duas moedas quaisquer, Z(s) distância mínima das moedas a um bordo qualquer da mesa. Se for a variável X que interesse, poderemos, como se explicou no exemplo anterior, Íncluir a avaliação de X(s) na descrição de nosso experimento ·e, depois, simplesmente afirmar que o espaço amostral associado· ao experimento é {0, 1, 2, 3), correspondendo aos valores de X. Conquanto muito freqüentemente venhamos. a adotar esta interpretação, é importante compreender que a contagem do número de caras é feita depois que os aspectos aleat6rios do experimento te- nham terminado. · Comentário: Referindo-nos a variáveis aleatórias, empregamos quase sem exceção ~etras maiúsculas, como X, Y, Z etc. Contudo, quando falamos do valor que essas variáveis. aleatórias tomam, usaremos, em geral, letras minúsculas, como x, y, z etc. Esta é uma distinção muito importante a ser feita e o estudante pode bem parar para considerá-la. Por ·exemplo, quando nós falamos em escolher uma pessoa ao acaso, de alguma população designada, e medimos sua altura (em centí- metros, por exemplo), poderemos nos referir aos resultados possíveis como uma variável aleatória X. Poderemos então formular várias questões sobre X, como indagar se P (X;;, 60). No entanto, uma vez que tenhamos escolhido uma pessoa e medido sua altura, obteremos um valor específico de X, digamos x. Por isso, não teria sentido indagar se P (x;;, 60), uma vez que x é ou não é ;;, 60 . Esta distinção entre uma variável aleatória e seuvalor é importante e nós voltaremos a fazer referência a ela. Quando estivermos interessados nos eventos associados a um espaço amostral S, verificaremos a necessidade de examin~r os eventos relativamente à variável aleatória X, isto é, subespaços do contra- domínio Rx. Bastante freqüentemente, certos . eventos associados a S são "relacionados" (em um sentido a ser explicado) a eventos associados com Rx, na seguinte forma: I Definição. Sejam um experimento 8 e seu espaço amostral S. Seja X uma variável aleat6ria definida em Se seja Rx seu contrado- mínio. Seja Bum evento definido em relação a Rx, isto é, B C Rx. 70 I PROBABILIDADE Então, A será definido assim: A= {8 E SjX(s) E B) . (4.1) Explicando: A será constituído por todos os resultados em S, para os quais X(s) E B (veia Fig. 4.2). NesÍe c~o, direnios que A e B são event08 ~qu.ivalenle8. Fig. 4.2 Coment6,rios: (a) Dizendo a mesma coisll, com :inenos rigor: A Ei B serão equi- valentes sempre que ocorram juntos. Isto é, quando A ocorre, B ocorre; é inver- samente. Porque se A tiver ocorrido, então um resultado 8 :terá ocorrido, para o qual X(li) E B ~~ portanto, B ocorreu. Reciprocamente, se B ocorreu, um valor X(s) terA sido observa<;lo, para .o qual 8 EA e, portanto, A, ocorreu. . . . {b) É impÓrtante ·compreender que, -'em ·l1~ssa defuriçA~ ·de ·evcmtoS equiva- lentes, A ·e B sãCI associados .a espaços amostrais diferentes. . . Exemplo 4.3. Considere-se a jogada ·de duas moedas. Dai, S = •I HH, HT, TH, TT}. Seja X ·o número de carp.s ob'tidC>-. Por- ·tanto, Rx = {O, 1, 2}. Seja B = {1}. Já que X'(IIT) = X('I'Il) =··.11 se, e somente se, X(s) = 1; temos que A= IIIT, THj é·equiva:lenteaB. Agora, daremos a seguinte importante definição. Definição. Seja B 1im evento no ·contra:dO'l'IlÍnio Rx. Nesse caso, definimos P(B) da seguinte maneira P(B) = P(A), onde A= Is E SJX(s) EB}. (4;2) Explicando: Definimos P(B) igtl.al à pro·babilida:de do evento A C S, ;o q\~al é equivalente a B, no sentido ·da Eq. (4.1). Ccnnentár (qs : (a) Estamos ·admitindo que probabilidaacs possam ser asso- ciadas a. eventos ·em S. Portanto, a. definição acima. torna possível atribuir .pro- babilidades a ev-entos associados a Rx em termos·de probabilidades·definidas sobreS. (b) É realmente possível demonstrar ·que P(B) deve ser definida tal como . e fizemos. Contudo, isto envolveria algumas dificuldades teóricas que desejamos evitar e, por isso, procedemos ·como acima. (c) Desde que na formulação ·da Eq. (4.2) .os eventos A e B se referem a. espaços amostrais diferentes, deveríamos realmente empregar notaÇão diferente ·qJ:ando. nos ·referíssemos a probabilidades definidas sobre S ·e àquelas ·aefinidaa .s9bie Rx, digamos alguma. coisa tal como P(A) e Px(B). No entanto, .não .fare- VARIÁVEiS ALEATÓRIAS UNDIOIMENSIONABS I 71 I mos isso, mas continuaremos simplesmeJep•escrever .P(A.) e P(B). ·o contexto em que tais expressões apar"'çam tornará lcÍara a interpretação. · (d) As probabilidades associadas a eventos ~o .espaço amostrai (original) S são, de 'certo modo, determinadas por "{orças .fora de nosso controle", ou como às vezes se diz :•pela. Natureza". A comppsição de uma fonte radio~iiva •que erniW. partfculas, a dmpos1ção de um grande numero de pessoas ·que façam éhamaàa!l telefónicas durante certa hora, e a agit~ção térmica que aê ·origem a 'Um fluxo ·ou as condições atmosféricas que dêein ofigem a urna tempe5tade, ilustram esse as- pecto. Quando introduzimos. uma variável aleatólia X e seu··contradomfnio Rx estl!,rnos induzindo probabilidades nos ev~ntos associados a ·'Rx, as quais serão es- tritamente determinadas se as probabiliclades associadas a ·e~entos em S forem especificadas. I ' Exemplo 4.4. Se as moedas I consideradas 'llQ Ex . . 4:3 -forem "equilibradas", teremos P(HT) = P(TH) = 1/4. Poft;a'Il'OO, P(HI', TH) = 1/4 + 1/4 = 1/2. (Os cálculos acima são m:ria. lt!onsequência direta de nossa suposição fundaxrlental referente à :propriedade ·de equilíbrio ou simetria das moedas. ii Visto que ·o evento ·I X = 1}' é equivalente ao evento {HT, TH}, empregando a Eq. (4.1); teremos. que P(X = 1) == P(HT, .TH) = l/2J [Na realida:de não 'e:lciste escolha I . para o valor de P(X = 1) .. coeren~e com a Eq .. (4.2), uma ·vez que P(HT~ ·Til) tenha sido determinada. 1l': neste sentido que probabi- . !idades associadas a eventos de Rxj são induzida.'l.l 1 Comentário: Agora qúe jil. -esta:belecebos a existência de ·uma funl,li!.o ·de pro- babilidade indozida. sobre o contradomiJio de X- Eqs. (4.1 ·e 4.2)- achamos . . I , . . . conveniente . l!Jlprimir a natureza. 'funcional de X. Por isso, escreverein!ls ·(como fizemos no ·e~plo ·acima) P(X = 1) = 142. O que se quer dizer é que, um certo evento no ·espsço amostral S, a saber ·(HT, THI = (s}!X(s) = 11 •ocbrre com pro- babilidade 1/2. Da.! atribuirmos ·essa m~sma probabilidade, ao ·evento (X = 11 no contradom!U:ió. · Continuaremos a escr~ver expressões sernelha.n~s a P(X = 1), . I . P(X ~ 5) etc. t muitc imporlánle para o I,eitor compreender o que essas expressões reslm:ente representam. I . I I Uma v.ez que as probabilidad~s associadas aos vááos resultadoe (ou eventos) :no contradomin:io R~ tenham sido determinadas (mais precisamente, induzida.S), ignor.arbmos freqüentemente o espaço amostral original S, que deu orige~ a 'essas probabilidades. Assim, bo exemplo anterior, ·• simplesmepte estaremos inter~ssados em Rx =' {O, 1, 2} e as probabilidaqes assCJciad'as (1/4, 1/'i, 1/4). O fato, de que ·essas probabilidades s~jam determinadas por uma função . de probabilidade definida ~obre o! espaço amostral original s, não nos interessa, quando estamos ap:enas interessados em estudar os valores da v~riável aleatória X. I Ao apresentar, em minúcias, lrmito~ dos 1 importantes con:tieitos ·referentes a variáveis aleatórias, J julgamos conveniente distinguir 72 I I'ROBAB!UDADE dois casos importantes: as variáveis aleatórias discretas e as variá- veis aleatórias contínuas. 'De}z"-nição. Seja X uma variável aleatória. Se o número de va- l ores possíveis de X (isto é, Rx, o. contrado:riúnio) for finito ou infi- nito numerável, denolninaremos X de variável aleat6rja discreta. Isto é, os valores possíveis· de X, podem ser postos em lista como x11 · x2, . ... , Xn. No caso finito, a lista acaba, e no caso infinito ntiínerá- vel, a lista continua indefinidamente. Exemplo 4.5. Uma fonte radioativa está eMitindo partículas a. A. emissão dessa.s partículas é observada em um dispositivo contador, durante um período de tempo especificado. A variável aleatória seguinte é a que intere3sa: X = número de partículas observada{~. Quais são os valores possíveis de X? Admitiremos que esses valores são todos os inteiros não negativos, isto é, R.Tt: = (O, 1, 2 . .. , ·n, . .. }. Uma obje~ão com que j ~ nos defrontamos uma vez pode, novamente, ser levantada neste ponto. Pode-se argumentar que durante um es- , pecificado intervalo (finito) de tempo, é impossível observai· mais. :. do que, digamos N partículas, onde N pode ser um inteiro positivo muito grand~. Conseqüentemente, os valores possíveis para X real- mente seriam: O, 1, 2, . .. , N. Contudo, torna-:se matematicamente ·mais simples considerar a descriÇãO idealizada feita .acima. De fa- to, sempre que adniitirmos que os valores possíveis de unta variá- vel aleatória X sejam infinito numerável, estaremos realmente consi- derando uma: representação idealizada de X. À yista de nossas explicações anteriores da descrição prob~bi lística de eventos com um ,número finito ou infinito numerável de elementos, a descrição prol?abilística d~; uma variável aleatória dis- creta não apresentà.rá quakruer dificuldade. Procederemos da se- guinte maneira: Definição. Seja X uma, variável aleatória discreta. "Portando, Rz, o contradomínio de X, será formado no máximo por Um número in- finito numerável de valores x1, x2,. • • A calla poss[vel resultado x' associaremos um número p(xi)= P (X = x;), denominado probabi- lidade de . x;. ·Os . números p(x;), .i = 1, 2, . . . devem satisfazer às .. VAR!ÃVIEOS ALIEAlJ"Ó~QAS UI\IIDiilfiiEI\ISOONA!S I 73 seguintes condições: (a) p(x;) ~ O para todo i, "' (b) L p(x;) = 1. (4.3) oi=l A função p, definida acima, é denominadajun;ão de probabilidade (ou função de probabilidade no ponto) dá.'V!i.riável aleatória X. A coleção de pares [.r;, p(.ri)], i= 1, 2, ... , é. algumas vezes denominada distribuição de probabilidade de X. Comentários: (a) A escolha. particular dos números p(x;) é presum!Velmente- determinn.da a partir. do. função de probabilidade associada. aos eventos no espaço Fig. 4.3 amostral S, no qual X. seja definida. Isto é, p(x;) = P[s IX(s) = :r;]. [Veja as Eqs. (4.1 e 4.2).] Contudo, já que es tamos interessados apenas nos valores de X, isto é, Rx, e as probabilidades IISSociadas a. . estes valores, estaremoS novamente suprimir,c:lo _a. natnre~a fun.cional de X. · . . (Veja a Fig. 4.3.) Muito embora, tia. maio- ria dos casos, os números sejam de fato determinados a partir da distribuição de probabilidiules em algum espaço amostral subjacente s, qualquer conjunto de números p(:í:i), que satisfaçam às Eqs. (4.3), pode servir comi:> descrição proba.bi- llstica apropriada de uma variável aleatória discreta. (b) Se X tomà.r apenas um número finito de : valores, digamos XlJ ••. ,xN, então p(x;) = O para i > N, e1 portanto, a série infinita na Eq. (4.3) se transforma em uma soma finita. (c) Podemos salientar, novamente, uma análogia com a Mecânica, ao con- siderarmos a massa total de uma. unidade distribuída sobre a reta real, com a massa total concentrada nos pontos x11 X2, . . . Os ·números p(x;) representam a quan- tidade de massa localizada. no ponto x;. (d) A interpretação geométrica (Fig. 4.4) de uma. distribuição de probabi- lidade é freqüeritemente útil. p(x) 111 I ii J ~x Fig. 4.oll 74 I PROBABIUDADIE Seja Bum evento associado i variável aleatória X; isto é, B C Rx (Fig. 4.5). Suponha-se, especificamente, que B = I x,;1, x;w .. }. Daf, P(B) = ..f'[s!X(s) E B] (porque esses eventos são equivalentes) :::, P[s!X(s) = x;i'j = 1, 2, ... ] = f:p(r;1). . . i=l .... (4. 4) Explicando: A probabilidade de um evento B é igual à iíoma das probabilidades dos resultados individuais aSsociados com . B. Comentários: (a) Suponhamos qué a variável aleatpria disereta X possa tomar somente um número finito de vàlores, X 1 , ... : ; Xfif. Se os resultados forem igualmente prováveis, então teremos obviamente p(x,) == ... = p(xN) = 1/N. (b) Se X tomar um número infinito numerável de vàlores, então é impossível ter todos os valores igualmente prováveis; porque · não poderemos satisfazer à condição . :E oo p (xi) = 1, se tivermos p (xi) = c para todo i. z= 1 , (c) Em todo intervalo finito, existirá no máxi:Íno um número finito de valores possíveis de X. Se algum desses intervalos não contiver qualquer desses valores possíveis, nós atribuiremos a ele probabilidade zero. Assim, se Rx = = [x,, x2 , ••• , Xnl e se nenhum xiE [a, b],entãoP [a"" X"" b] =O. ExemjJlo 4.6. Suponhamos que urna vái~Ià' eletrônica . seja posta em um saquete e ensaiada. Admitiunos que a ·p:robabilidàde de que o teste seja positivo seja 3/4; daí, á p~ob~bilid~e _dé que s~2 ja negativo é igual a 1/4. Admitamos também que estej~os ensai:. ando uma partida grande dessas válvulas. Os ensaios : ~ontinuam até que a primeira vál~la positiva apareça. Definàmqs a variá- vel aleatória, assim: X é o n,úmero de testes · neÚss.ârios para con- . cluil' o experimento. O espaço amostral associado ·a este experi- mento é: s ==: I+, - +, - - +, - +, ... }. Para determinarmos a dist~il:>uição. de probabilidáde de X, racioCl- p.aremos da seguinte forma: os valores possíveisde X são 1, 2, . .. n, •..• (estamos, obviamente, tratando com um espaço amostral idealizado). E será X = n se, e somente se, as pri:!neiras (n - l), válvulas forem negatjvas e a. '(.1.-ésima válvula for positiva. Se aceitarmos que a condição ·de 1Uill1 váLvula não influencie a condição de 'outra, pode- remos escrever ( 1 )n-l.( 3) p(n) == P(X = n) = 4 4 , n = 1, 2, .. •; VARIÁVEIS ALEATÓRIAS UNIDIMENSIONABS 1 75. I I - - Para verificarmos que esses valores de p(n) satisfazem à Eq. (4.3) observaremos que \ ' · .. 3 ( \ 1 1: ) L p(n) = - 1 + - + - + · · · n=l 4 1 4 16 . 3 i 1 =--~ -- = 4 1\-_!_ . I. 4 1. , -I ' I Comenl.árw: Estamos empregand6 aqui o resultado de que a. série gpomélrica 1 +r+ r+ ... çonv~rge para _1.'(1 t- ~) sempre q~e· \r I < 1. ~ste é lUD re- sultado que será menciOnado mu1las vezes. Suponha-se que ,deseJemos calcular · P(A), onde A 6 defini.d.o como: 10 exphimento termina. depois 'de um nú!l;leco paJ: de repetições.! Empregando n. Eq. (414); teremos~ .. I P(A) = L p(2ni = .2_ + 2_1 + · · · 71=1 i 16 256 3 I 1 ' 3 I 1 = --:16 (1 +: ~ + .. ·) = 16 --~- = 5 . i 1 - 16 I 4.3. A Distribuição Bi.nomial\ Nos prmamos capítulos, estJdaremos pormenorizadamente algu- mas variáveis discretas importantk Agora estudaremos apenas uma delas e, em seguida, a empregar~mos para ilustrar alguns conceitos importantes. \ . ! Exemplo 4.7. Suponha que ~eças saiam ,~e uma l~nha de produ- ção e sejam classificadas como defe~tuosas (D) ou como não-defeituosa~ (N), isto é, perfeitas. Admita que três dessas peças, da produção de um dia, sejam escolliidas ao acaso e Classificadas de acordo com esse es- quema. O espaço amostral para es~se experimento, S, pode ser assim, apresentado: i . I I . •I S = {DDD, DDN,DND,NDD,NND,NDN,DNN,NNNJ. . I I . . (Outra maneira de descrever s ,é como s = s 1 X Sz X s3' o produ- to cartesiano de St, S2 e S3, onde c~daSi = {D,N}.) Suponhamos que seja 0,2 a probabilidade de uma peça sér, defeituosa e 0,8 a de ser não-defeituosa. A4rnitamos q~e essas probabilidades ' 76 i PROBABUUDADIE sejam as mesmas para cada peça, ao menos enquanto durar o nosso estudo. Firialmente, admita-se que a classificação . de qualquer peça em particular, seja independente da classificação de qualquer outra peça . . Empregando essas suposições, segue-se q~e as probabilidades associadas aos vários resultados do espaço ariwstral S, como se explicou acima, são: (0,2)3 ' (0,8)(0,2)2 ' (0,8)(0,2)2 ' (0,8)(0,2)2 ' (0,2)(0,8)2 ; (0,2)(0,8)2 ; (0,2)(0,8)2 , (0,8)3 . Geralmente, nosso interesse não está. dirigido para os resultados .indivi- duais de S. Ao contrário, desejamos tão-somente cànhécer qiuzntas peças defeituosas seriam encontradas . (não interessà:ndo . a ordem em que tenh'am ocorrido). Isto é~ desejamos estudar a variáv~l aleirtóriaX, a qual atribui a cada resultado s e S o número de peças defeituosas encontradas em s. Conseqüentemente, o conjunto dos valores possí- veis de X é {0, 1, 2, 3}. Poderemos obter a distribuição de probabilidade de X, p(xi) = = P(X = xi), .da seguinte maneira: X = O se, e somente se, ocorrer NNN; X = 1 se, e somente se, ocorrer DNN, NDN, ou·NND; X= 2 se, e somente se, ocorrer DDN, DND, ouf!DD; X = 3 se, e somente se, ocorrer DDD. (Note-se que {NNN} é equivalente a {X= O} etc.) Ent'ão, p(O) = P(X =O)= (0,8)3 p(l) = P(X = 1) = -~ (0,2)(0,8)2 , p(2) = P(X = 2) = 3(0,2)2 (0,8), p(3) =P(X = 3) = (0,2)3 • Observe que a soma dessas probabilidades é igual a 1, porque .a soma pode ser escrita como igual a (0,8 + 0,2)3 • Comentdrio: A explicação dada ilustra como as probabilidades em um con- tradomínio Rx (neste caso {0, 1, 2, 3}) são induzidas pelas probabilidades defmi- das sobre o espaço amostral S. Porque a hipGtese de que os oito Í esultados de S = {DDD, DDN, DND,NDD,NND,NDN, DNN, iiNN} tenham as probabilidades daçlas no Ex. 4.7, determinou o valor de p(x) para todo x e Rx. VARIÁVEiS AlEATÓROAS UI\!DD!MIENSOONAHS I 77 Vamos agora generalizar as noções introduzidas no ex. anterior. Definição: Consideremos um experimento E e seja A algum '"evento associado a E. Admita-se que P(A) = p e conseqüentemente P(A)= 1 - p. Considerem-se n repetições de E. Daí, o espaço amostral será formado por todis as seqüências passiveis I a1, á2, . . . , an I, onde cada a; é ou A ou A, dependendo de que tenha ocorrido A ou A na i-ésima repetição de E. (Existem 2n dessas seqüências.) Além disso, suponha-se que P(A) = p permaneça a mesma para todas as repetições. A variável aleatOria X será assim definida: X = número de vezes que o· e-vento A tenha ocorrido. Denominaremos X de va- · riável aleatória binomial, com parâmetros n e p. Seus valores possí- veis são evidentemente O, 1, 2, ... , n. (De maneira equivalente, dire- mos que X tem uma. distribuição bmoinial.) As repetições individuais de E serão denominadas Provas de Bernouilli. Teorema 4.1. Seja X uma variável binomial, baseada em n repetições. Então, P(X = k) = ( ~) p1'(1- Pt-lc, k =O, 1, ... , n. (4.5) Demonstração: Considere-se um particular elemento do espaço amostral de S satisfazendo à condição X = k. Um resultado como esse poderia surgir, por exemplo, se nas primeiras k repetições de E ocorresse A , enquanto nas últimas n- k r~petições ocorresse A, · isto é, AAA· · · AÃAA· ··A. k n-· k Como todas as repetições são independentes, a probabilidade desta seqüência particular seria plc(l - p)n-k, mas exatamente essa mesma probabilidade seria associada a qualquer outro resultado para o qual X = k. O número total de tais resultados é igual a {~), por- que deveremos escolher exatamente k posições (dentre n) para o evento A. Ora, isso dá o resultado acima, porque esses (~) resul- tados são todos mutuamente excludentes. 78 I PROBABILIDADE · ........ · Comentários: (a) Para verificaJ' nO!lflO resultado, . ~bªervemos que empre- gando o teorem,a binomial temos . . . · . > · I:~~o P(X = k) = Lk=O m pk(l ~ p)n~~ =; [p + (1 '- p)]n = "1" = 1, como era de se esperar. · Como as probabilidÍld~ '(k) pk(f:...:. p)ii-k São obtid&S . pelo desenvolvimento da expressão binomial[p + (i C:: p)];.;/eí'a+ecelle a deri'omi~ nação de distribuição binomial. . ' · . (b) Sempre que realizarmos repetiÇões indep.eridentes_' de uni:experiinento e estivermos interessados somente em uma dicotOmia- defeituoso ou nãc:i-def.eic tuoso (perfeito).; dureza acima ou abaixo de certO padrão;, nível .,de ruído em um sistema de comwúcações acima ou abaixo de ~~ limiar , pr~estab~lecido ~ esta- remos virtualmente tratando com um espaço amostrai nÕ qual podemos definir uma. variável aleatória binomial. ·Enquanto as con:diçÕes da experimentação permaneçam suficientemente · estáveis, · .de· modo que a probabilidade de . algum atributo, digamos A, permaneça constante, poderemos empregar o modelo aciina. (c) Se n for pequeno, os termos individuais da distribuição binomial serão r~:lativamente fáceis de calcular. Contudo, se n for relativamente grande, os cálculos se tornam bastante incómodos. Felizmente, foram preparadas tábuas. de probabilidades bin01piais; existem várias dessas tábuas. (Veja o . Apêndice.) Exemplo 4.8. Sup@ha-se que uma válvula eletrônica, instalada em determinado circuito, tenha probabilidade 0,2 de funcionar mais do que 500 horas. Se ensaiarmos 20 válvulas, qual será a probabili- dade de que· delas, exatamente k, funcionem mais que 500 horas, k = o, 1, 2, ... ' 20? P(x) I I 'I L-~0-+1~2~3~4~5~~6-!7~8~9~1~0~1~1~1~2~13~14~15~16~1=7~1~8-x Fig. 4.6 Se X for o número de válvulas que funcionem mais de 500 ho- ras, admitiremos que X tenha uma distribuição binomial. Então, P(X = k) = CZ2) (0,2)!<(0,8)=0-k. Os valores podem ser lidos na Tab. 4.L ~ ~ . . Se marcarmos os valores dessa distribuição, obteremos o gráfico apresentado na Fig. 4.6. A configuração que observamos aqui é bastante· geral. As probabilidades binomiais crescem monótonica- . mente, até que atingem um valor máximo e, depois, decrescem mo- notonicamente. (Veja o Probl. 4.8.) P(X = O) = 0,012 P(X = 1) = 0,058 P(X = 2) = 0,137 P(X = 3) = 0,205 (As probabilidades - I - . VARBAVIEISA!l.EATORIAS UI\IDDIMIENSiOI\IAIS I 79 I Tab. /4.1 I I P(X = 4) = 0,218 P(X ;, 8) = 0,022 . I . P(X = 5) = 0,175 P(X '= 9) = 0,007 I P(X = 6) = 0,~09 P(X == 10) = 0,002 P(X = 7) = o,pss P(X = k) = o+ para k ~ 11 restantes são meilores do que 0,001.) I I Exemplo 4.9. Ao operar det~rrninada máquina, existe alguma probab-ilidade de que o operador qa máquina cometa um erro. Po~ de-se admitir, razoavelmente, que ;o operador aprenda, no sen~,ido dç que . decresça a probabilidade de cpmeter um erro, se ele usar repeti- damente a máquina. Suponha que q operador faça n tentativas e que as n repetições sejam estatisticamente ipdependentes. Suponhamos, especi- ficamente, que P (um erro ser cometido na i-ésima repetiçã<;>) = 1/(i + 1), i = 1, 2, . .. , n. Admitamos que /se pretendam 4 tentativas (isto é, n = 4) e defmamos a variável aleatória X como o número de operações da máquina, executadas sem erro. NJ 1 ote-se que X não tem distribuição binomial, porque a probabilidade de "sucesso" não é constante. Para calcular a probabilidade jde que X = 3, por exemplo, pro- cede-se do seguinte modo: X = 3 se, e somente' se, houver exatamente uma tentativa mal sucedida. -Isto ~ode ocorrer na prin~eira, segunda,- terceira ou· quarta tentativas. Portanto, I . . . 1 2 3 4 ~ 1 3 4 1 2 1 4 ~x=m=----+~---+----+ . 2 3 4 5 ~ 3 4 5 2 3 4 5 1 2 3 1 5 +z-345= iz· I I . Exemplo 4.10. Considere-se ruma situação semelhante à.quel11, · apresentada no .Ex. 4.9. Agora, !admitiremos que exista uma pro- babilidade constante p 1 de não cmpeter um erro na máquina, dura~te cada 'uma das n 1 tentativas, e urra probabilidade constante p~ ~ P1 de não cometer um erro em cada uma das n2 .repetições:subseqüentes . . Seja X o número de operações be~ sucedidas da máquina durante as n = n 1 + n2 tentativas independe? tes: Vamos procurar a expressão geral de P(X = k). Pelo mesmo rp.otivo dado no exemplo precedente, X não tem distribuição binomial. i Para obter P(X = ik), procede-se qa seguinte maneira: ' I · Sejam Y1 o número de operações corretas 'durante as primeiras n 1 tentativas, · e Y2 o número dei· operações corretas· durante as n2 tentativas s~bseqüentes. Portantp, Y 1 e Y2 são variáveis aleatórias independentes e X = _ Y1 + Y2• 1 Assim, X = k se, e somente se, I 80 i PROBABILIDADE . Y1 =r e Yz = .k- r, para qualquer inteiro r ql).e satisfaça às condi- ções O ::::; r S n1 e O ::::; k - r ::::; n 2• As restrições aciina, sobre r, são eqUivalentes 'a ·o ::::; r .:5 n1 e k - n2 ::::; r ::::; k. Combinando-as, põdérêmb~ es~re'v~rmáx. (O, 'k ~ - nz) ::::; r S mín. (k; ni)., Portanto, teniinci~ Com nossa convenção usual de que (b) = O sempre qu~ b > a ou b < O, poderemos escrever a probabilidade acima como . P(X= k) = T~ (~1) p~(l- PI)nl-'r(k ~r) p;-r(l-' P2)"2-k+r (4.6) Por exemplo, se P1 = 0,2, P2 = 0,1, n1 = n2 = 10 e k = 2, a proba- bilidade acima fica, depois de um cálculo direto: Comentário: Sup.onha-ose que p1 = P2· Neste . caso, ii; Eq. (4.6) se reduz a · (k) p~ (1 - pi)n-k, porque agora a .variável aleatória X tem. uma dist~ibuição binomiaL Para verificar que é a.Ssim, note-se que poderemos escrever, (desde que n1 + 112 = n): P(X = k) =· p~(l- p1)n-k ~ (~1) (k~ ,.) Para verificar que a SQ~~ acima é igual a (~), bast& comparar os coeficien~ das potências de xl,; .ehi ambos os membros da idéntidade (l +. x)n 1 (1 + x)"2 ~ = (1. + x)nl+n2. ··4.4. Variáveis Aleatórias Conttífl'lluas Suponha-se que o · contradonúnio de X seja formado por um número finito muito grande de val~res, digamos todos OS . valores X no intervàio O ::::; x s i, da forma: O; 0,01;. 0,02; ... ; 0,98; 0,99; 1,00: A cada um · desses valores .está associado um número não-ne- gativo p(x.) ;, P(X =:= Xi), i.= 1,· 2,·: .. , cuja soma é igual a 1. Esta operação está represen~ada geometricamente na !"ig. 4. 7. . - VA.RO Á VEUS A. LEA.TÕR8A.S UN8Dii\liENSDONA.iS I 81 J á. salientamos anteriormente que poderia ser matematicamente ma.iB fácil idealizar aapresentação probabilística de X, pela P!ll) kJmw I iliiillli., O I suposição de que X pudesse tomar t<Jdos os valores possíveis, O ~ x ~ 1. Se fizermos isso, que acontecerá às probabilidades no ponto p(x;)? Co- mo os· valores possíveis de X não são numeráveis, não podemos real- mente falar do i-ésimo valor de X, e, por isso, p(x;) se torna sem sentido. O que faremos é substituir a função p definida somente para x1, x2, • •• por uma função f definida (neste conte:do) para todos os valores de x, O ~ x ~ 1. As proprie- dades da Eq. (4.3) serão substituídas por j(x) ~O e fo 1 f(x)dx = 1. Vamos proceder formalmente como se segue. Definição: Diz-se que X é uma variável aleatória contínua, se existir uma função t, denominada função densidade de probabilidade (fdp) de X que satisfaça às seguintes condições: (a) f(x) ?>O para todo x, · (b) I+ ~ f(x ){lx = 1, (4.7) - 00 . . (c) p~a quaisquer a, b, com - oo < a < b < + oo, teremos P(a<X<b)=Jg f(x)dx. (4.8) Comentários: (a) Estaremos essencialmente dizendo que X é uma variável aleatória contínua, se X puder tomar todos os valores em algum intervalo (c, d), onde c e d podem ser-~ e+~, respectivamente. A existência estipulada de uma fdp constitui um artifício matemático, que possui considerável apelo intuitivo e torna nossos cálculos mais simples. Em relação a isso, também devemos salientar que, quando supomos que X seja uma variável aleatória contúma, estamos tratan- do com uma descrição idealizada de X. (b) P(c <X< d) representa a área sob a curva no gráfico da Fig. 4 .8, da fdp f. entre x = c ex = d. J(x) X=C ='+-----..,:.: ir=d 82 I PROBABILIDADE . (c) Constitui uma conseqüência da descrição probabilfstica de .. X, acima, que, par& qualquer valor especificado de X, di~~s ~; · téciíiri~·P(X = Zo) ' = O, porque P(X = xa) = Jz;o j(x) dx = O. Este rooult~o pode, ~~ecer ~clto con- trário à. nossa intuição. Contudo, . devemos compreender que se permitirmos que X tome rodos os valores em algum Intervalo, então a pr.obe.bili<lade zero. não é equivalente à impossibilidade. Por issO, no caso contínuo, P(A) = O não implica · ser A = 0, o conjunto vazio. (Veja. o Teor. 1.1.) Explicandc) ias:> •ménos rigo- rosamente, . considel"EHle a escolha de um ponto . ao aéaso, : nó .se~ento de reta {xj O .:S x.:S 2l. Muito embora. possamos ~ta.r desejosos em concordar (para objetivos matemáticos) que cada.. ponto imagiml.vel no segmento posSa. ser resultado de nosso experimento, ficaríamos completamente surpreendidos qu~nto ii. isso, sa de. fato escolhéssemos precisamente o ponto médio do segmento ou · qualquer outro ponto especificado. Quando expressamos isto '.em ling'uagetn . matemática rigorosa., dizemos que o evento tem "probabilidade líerÕ". Tend~ em vista. essas obaerve,ções, 88 seguintes probabilidades serl!.o todas iguaiiJ, se X for uma va.riá~el aleatória contínua: · · P(c5. X 5. d), P(c 5. X< d), P(c <X 5. d), e P(c <X< d). (d) Apesar de não verificarmos aqui os detBlhes, pode-se mostrar que easa atribuição de probabilidades a eventos em Rx · sa.tisfa.Z aos ·axiomas básicOs. da probabilidade [Eq. (1.3)1, onde poderemos toiiU!.l" {zl - "' < x < + ·"'I como · nosso espaço amo&ti:al. (e) Se uma função r satisfizer às condiÇões j'; (z) ~ O para todo x, e f_+.,"" r (:z;) dx = K, onde K é um número real positivo (não necessiuiamente igilal a 1), então r não satisfaz a todas as condiÇões para ser uma fdp. No entanto, poderemos fácilmente definir uma nove. função, digamos J, em termos de r. ll&,lim: j(z) = JO(z) K para todo x. Em conseqüência, f se.tisfad, a todas as condiÇões de uma fdp. (f) Se X tomar valorea somente em algum intervalo rmito [a, b], poderemos aimplesmente pôrj(x) = O para todo z EE [a, bl. Em conseqüência, · a. fdp ficam definida para todoo os valores ree.is dez, e poderemos. exigir quef_f;.,"" j(x) dx=r. Sempre que a fdp for especificada somente para determinados valores de z, deve- ramos supor que seja zero em todos os demais. (g) J(x) não representa. 111 probabilidade de coisa alguma! Anteriorm!)nte j& salientamos que, por exemplo, P(X = 2) = O e, conseqüentemente, f(2} cer- ta.mente nl!.O representa easa. probabilidade. Somente quando a função for in- tegrada entre dois limites, ela produzirá uma. probabilidade. Poderemos, con- tudo, dar uma interpretação dej(x)t:.x, da: seguinte maneira: Bo teorema do valor médio, em Cálculo, tem-se que , i z+L'>z P(x 2 X 2 x + tu) = j(s) ds = l:.xj(~), .i .:f . ,.; , ~ -~ l ·.! · VARIÁVEIS k lEATÕRBAS UNIDIMENSIONAIS l 83 Se D.x for pequeno, f(x) D.x será aprd,ximadamente igual a P(x ~ X~ x + D.x)·. (Sef for contínua à direita, esta aproxitnação se tornará mais exata quando D.x->0.) (h) Devemos novamente salientat que a distribuição de probabilidade (neste caso a fdp) é induzida em Rx pela probabilidade s~bjacente associada com eventos I . em S. Por isso, quando escrevemos P(c < X < d), queremos significar como sem- pre P[c < X(s) < d], que por sua vez! é igual a P[s 1 c < X(s) < d], já que esses eventos são equivalentes. A definição anterior, Eq. (4.8), estipula essencialmente a existência de uma fdp f definida sobre Rx tal que . P[,j« X[•) ~ ~ - 1' J[•) d>. I Novamente suprimiremos a natureza funcional de X e, por isso, trataremos so- mente com Rx e a fdp f. . I . . (i) No caso contínuo, também !poderemos considerar a seguinte analogia com a Mect1nica: Suponha-se que tembs uma massa ·total de uma unidade contt- nuamente distribuída sobre o intervalo a~ x ~ b •. 'Nesse caso, f(x) represe~ ta a densidade de massa no ponto x e J:d f(x) dx representa a massa total contida no intervalo c ~ x ~ d. I · I Exemplo 4.11. A e~istêncial de uma fdp foi admitida na exposição de uma variável aleatória cont~ua. Vamos considerar um . exemplo simples, no qual poderemos facilmente determinar a f~p, fazendo uma suposição apropriada sobre o corp.portamento probabilístico da variável aleatória. Suponhamos que -~m ~onto_ s~ja e~~ollúdo n~ interv~o (O,l). Representemos por X a vanavel hleatona cuJpvalor seJa a absc1ssax do ponto escolhido. I Supor: Se I for qualquer intervalo em (0,1), então Prob [X E I] · I será diretamente proporcional ao cumprimento de I, digamos L (I). Isto é, Prob [X E I]= kL(I), oJde k é a constante de 'proporcionalida- de. (É fácil verificar, tomando-se I = (0,1) e observando-se .que . I L :[(0,1)] = 1 e Prob [X E (0,1)] = 1, que k = 1.) . , Obviamente, X toma todos , os valores em (O,l).' Qual é sua fdp? Assim, podemos encontrar uma fynção f tal que I P(a<X < b) = f b f(x')dx? j a Note que, se a<b<Ooui1<a<b,P(a<X<b)=Oe,poris- so,f(x) = O. Se O< a<; b < 1,,P(a<X < b) = b- a e, conseqüente- mente,[(x) = 1. Portanto, encontramos . I { 1,0<x< 1 1 , f(x)= . , . · O, para qfrusquer outros valores. 84 I PROBABBUOAD_E Exem,plo 4.12. Sup~nhamos que a variável a.Ieatótia X ·seja contínua. (Veja a Fig. 4.9.) Seja ·a fdp j dada pO~· . j(x) 2x, 0< x < 1;' o, para quaisquer outros valores . . Evidentemente, .j(x) ~O e. f_+,"" j(x)dx = fo~'!-xdx ::_ i. · Para calcu- lar P(X.;;;; 1/2), deve-se apenas calcular a integral fo 112 (2x)_ dx = 1/4. f(x) J(x) "'---L---~----------+--Qx X= 1500 Fig. 4.9 Fig. 4.10 O conceito de probabilidade condicionada, explicado no Cap. 3, pode ser significativamente aplicado a variáveis aleatórias: Assim, no exemplo acima, podemos calcular P( X :::; i I-} :::; X :::; } )· · Aplicando-{le diretamente a definição de probabilidade condicionada, teremos p ( X < _!_I _!_ ~ X < _3_) = p ( t :::; X :::; +) - 2 3 - - 3 . p (l. < X < _3_) 3 - - 3 f~)~ 2x dx 5(36 5 fi)~ 2x d:c 1/3 = n ' Exemplo 4.13. Seja X a duração da vida (em horas) de um certo tipo de lâmpada. Admitindo que X seja uma variável aleató- ria contínua, suponha-se que a fdp j de X seja dada por j(x) = a/x 3, 1.500 :::; x :::; 2.500, = O, para _quaisquer outros valores. (Isto é, está se ~tribuindo probabilidade zero aos eventos {X < 1.500}e {X > 2.500} .) Para calcular a constante a,. recorre-'§e à condição . f_"', j(x) dx = 1, que neste caso se torna fr_~ggo (a/x 3)dx = 1. Dai se obtém a = 7.031.250. O gráfico de j est~ apresentado na Fig. 4.10. Em capítulo posterior estudaremos, pormenorizadamente, mui- tas variáveis aleatórias importantes, tanto discretas como contínuas. '\ ! .j • _.·!' ;-:;· VARIÁVIEIS ALEATÓRIAS UNDDDMIENSIONAHS I 85 Sabemos, de nosso emprego de modelos determinísticos, que certas funções gozam de papel _ mais importante que outras. . Por exemplo, as funções linear, quadrática, exponencial e trigonométrica têm papel vital na .explicação de modelos determinísticos. Ao desenvol- ver modelos não-determinísticos (isto é, probabilísticos) verificare- mos que certas'Ovariáveis aleatórias são de notável importância. 4.5, Função de Distribuição Acumulaw'la Vamos introduzir outro importante conceito. geral, neste capítulo. Definição. Seja X uma variável aleatória, discreta ou continua. Def~ne-se a função F como .a junção lk distribuição. acumulada da· variável - aTeatóJ;iá X (abreviadamente indicada fd) como F(x) ,;, = P(X ~ x). Teorema 4.2. (a) .Se X for uma variável aleatória discreta F(x) = L p(xi), (4.9) j onde o somatório é estendido a todos os índices j que satisfaçam à condiÇão Xi ~ x. (b) Se X for uma variável aleatória contínua com fdp j, F(x) = J: f(s)ds. (4.10) Demonstração. Ambos os resultádos decorrem imediatamente da definição. Exemplo 4.14. ~<G.P'bnhamos que a variáyel aleat~~a X tome os três valores O, 1 e'2; com probabilidades 1/3, 1/6 e 1/2;)respectiva- mente. Então, · ·.. . 1 F(x) = o se x <O, 1 se O$ x < 1, =-3" .1 se 1 ~ x < 2, 2 = 1 se x ;::: 2. (Obse~e-se que é muito intportante indicar a inclusão ou a exclusão dos limites, na descrição dos diversos intervalos:) O gráfico de F está apresentado na Fig. 4.11 . ! . ! í ; ' . . , l ' I d !' j I I 1! r ~ li j I I 1 I jt I! 1j ·i! . :· __ -. ','- '1 li : I !.·-. 11-j I :.1 'I! li lj (;!('l'Jiil 86 I PROBABILIDADE Ftx) ik--_ , I 2 I • x· · .. . 3. IFiPJ. 4.11 Exemplo 4.15. Suponhamos que X seja uma variável c~mthma com ·ídp j(x) 2x, O < x < l, O, para quaisquer outros valores. Portanto, a fdp de Fé dada por F(x) = O se, x::::; O, [o" 2s ds = x2 • se O< x::::; 1, lsex>l. O gráfico está apresentado na Fig. 4;12. F_(x) fig. 4.12 . i Os gráficos· apresentados nas Figs. 4.11 e 4.12 para as fd são, em cada caso, bastante típicos, no seguinte sentido~ (a) Se X for uma variável aleatória discreta, com um número finito de valores possíveis, o gráfico da fd será constituído por segmentos de reta horizontais (nesse caso, a fd se denomina função ém degraus). A função Fé contínua, exceto nos valores possíveis de X: x 1 , ••• ,xn, ... No valor xi o gráfico apresenta um "salto" de magnitude p(xi) = =P(X=xi). . . (b) Se X for uma variável aleatória continua, F será uma funÇão continua para todo x. · i . · > I ,. •\: i VARIÁVEIS ALEATÓRIAS Ui\IIDIMENSIONA8S I 87 I . (c) A fd Fé definida. para. todok os valores de x, o que é um motivo importante para considerá-Ia. I _ , Existem duas ou_tras importantes propriedades da fd, que re- "·· sumirem~s ~oc'"teore~aseguiiite: , ... ? .. I Teorema 4.3. (a) A função P é não-decrescente 1 • Isto é, se x1 ~ x2, teremos F(xi) ~ F(x2). ! -~- -(b) lilllz-+- mF(x) = O e lim.:~ .. F(x) = 1. [Freqüentemente, escre- vemos isto como F(- oo) = O e F("") = 1.1 ! Demonstração: (a) De(inamol:! os eventos A e B, assim: .A = I X ~ xil, B = 'I X ~ i2l - · P~rtanto, como xi ~ i2, teremos A C B e, ,pelo Teor. r.5, P(A) ~ ~ P(B), que é o resultado d~sej~o. (b) .N.o caso continuo, teremo~ : · _ F(- "".) = Jlt-.. -~~~']{8)'âir-[ ,~: F("") . =;: 1J 1-"' f(s) _ds = 1, ' ' z-+CD - GD ,. No . caso discreto, o raciochuo é an~ogo. . A função de _distribuição ( ac~mulada) é importante por · muitas razões. Isto é particularmente verdadeiro quando tratarmos com uma variável aleatória contúma, porque nesse caso não poderemos estudar' o comportamento probabilístico d~ X através do cálculo de P(X = x). Aquela probabilidade é sempre igultl a zero no caso contínuo. Contudo, poderemos indagar de P(X ~ x) ·e\ como demonstra ó teorema seguin- te, obter a fdp de X . J I Teore:ma 4.4. (a) Seja F a i fd de urna variável aleatória con- tínua, com fdp j . Então, I d f(x) = iax F(x), ! para todo x no qual F seja derivável. . I . (b) Seja X uma variável aleatória dis<:reta, com .. valores possí- veis xi, x2, . .. , e suponha-se qu.e jesses valores tenham, sido indexados de mooo que XI < X2 < ., .. SeJa! F a fd de X. EntãO, . I p(xi) = P(X = xJ)! F(xi)- F(xh). (4.12) I f_ . Demonstração: (a) F(x)=P(X ! ~ x) = -"'= j(s) ds. Por isso, apli- ' . cando-se o teorema fundamental !do Cálculo, :obteremos F'(x). = j(x) . . I " • 88 I 'f"ROBABDU DA DIE E (b) Como admitimos Xr < x 2 < ... ; teremós' .; · F(x;-) = P(X = Xj U X= x;--1 \j ;'; ·Ü'X = x;) .· = p(j) + p(j - i) +. -:·:·+·' pcir ·· . . . . ·• . . ' ' '; ·.• :' ·: ;·~) ,, . ;' ·~ F(Xi-cl) = P(X = Xj-1 u X =. ~f-;2 u ... u X = XI) = p(j- 1) + p(j....,. 2) + :. :+.p(l); - Portanto, Comentário: Vamos rtisumidamente recon~i~~rar apart~ Ú)dÓTeor~ma 4.4. Recordemos a definição de derivada de uma funÇão F: ·· · .. · ·· · F(x)= lim F(x+h)-F(x) h-+ o h = lim h-" o+ P(X < x +h)- P(X.;; x) h = lim - 1- [P(x<X<x+h)]. h-'> o+ h Portanto, se h for pequeno _ll-positivo, / F' (x/~ f(x)'- P(x <X< x +h) h Assim,f(x) é aproximadamente igual à "quantidade de. probabilidade no intervalo (x, x + h) pelo comprimento h". Daí o nome função densidade de probabilidade, ~r---~. Exemplo 4.16. Suponha-se que uma variável aleatória contí- nua tenha a fd F dada por F(x) O, x ~ 0, 1- e-, x >O. Kesse caso, F'(x) = e- para x > O, e, por isso, a fdp será dada por j(i) = e-z, X;::: 0, = O, para quaisquer outros valores. Camenlário: É oportuno dizer uma palavra. fi11al sobre a terminologia. Esta terminologia, muito embora ainda não uniforme, tornou-se bastante· p-adroni- zada. Quando falamos da distribm'çllo de probabilidade de uma variável alea- tória X, nos referimos à s_ua fdp se ·x fõr contínua, ou à sua fun~ão de probabili- dade no ponto, p, definida para x11 x~, ... se X fõr discreta. Quando falamos da função de distribuição acumulada, ou algum~ vezes apenas junçao de distri- buição (ou função de repartição),queremos sempre nos referir aF, ondeF(x) = =P(X<x). . i \ VAR~ÃVIEOS Al!EATÓRIAS Ui\! iDiMIENSIONA~S I 89 4.6. IDJistribuições Mistas Restringimos nossa explanação tão-somente a vanaveis alea- tórias que sejam discretas ou contínuas. Tais variáveis são certa- mente as mais importantes nas aplicações. Contudo, há situações em que poderemos encontrar um tipo misto: a variável aleatória X pode tomar alguns valores diferentes, digamos xh . .. x., com proba- bilidade n.ã.o-p.ula, e também tomar todoo os valores em algum in- tervalo, digamos a :::; x :::; b. A distribuição de probabilidade de tal variável aleatória seria obtida pela combinação das idéias já exa- minadas na descrição de variáveis aleatórias discretas e de contí- ~ nu.as, ·como se verá a seguir. A cada valor x, associa-se um número p(x;) tal que p(x;) ~ O p.ara todo i, e tal que L~=l p(x;) = p < l. Em seguida, defme-se uma função j, satisfazendo a j(x) ~ O, fab .j(x) dx = 1 - p. Para todo a, b, com - oo <a < b < + 00, P(a <; ·<;X<; b) = fab f(x) dx + L p(xi). Desta maneira, aten- {i:a<xi<b} deremos à condição P(S) = P(- oo < X < oo) = 1. Uma variável aleatória de tipo misto p~d~ria surgir da maneira explicada a seguir. Supónha-se que estejamos ensaiando algum equipamento e façamos igual . a X o tempo de funcionamento. Em muitos problemas, ·descreveremos X como uma variável aleatória contínua, com valores possíveis x ;:::=: O. No entanto, podem surgir situações nas quais existauma probabilidade não-nula de que a peça não funcione de modo algum, isto é, falhe no momento X= O. Nesse caso, desejaríamos modificar nosso modelo e atribuir uma probabili- dade p > O ao resultado X = O. Conseqüentemente, teríamos P(X = O) = p e P(X > O) = I - p. Deste modo, p descreveria a distribuição de X no ponto O, enquanto & fdp j descreveria a distri- buição para valores de X > O. (Veja a Fig. 4.13.) j{JI) 1 l'(X=O)=p . I Fi!l). 4.14 4.7. Variáveis Aleat6riaJs \\Jniformem®nte Distribuídas ( " Nos Caps. 8 e 9, estudaremos minuciosamente muitas variáveis aleatórias discretas e contínuas importantes, Já introduzimos a . li ii '-i :: ... I f H · ~ ' ' i. Iii ! l :r 90 I PROBABILiDADE _,. , ·' importante variável aleatória binoiniaL V~os ; âg6rii exaíninar, resumidamente; uma importante variável a.Ie'atória cohtinua . . . ·' '·.:.:,: , .... ~ . . : ~- .. ' ·. ' : ; -~ . Definição. Suponha-se que X seja uma varl~v~iáleat6ria con- tínua, que tome todos os valores no intel'Valô [ii;' b], 'lio 'qual a e b sejam ambos finito/~.fdJLde .X-f~por) · . /(x) = b ~- a ' a ~- x~}~ (4.13) . [ • / " / . ·\ = O, para ,g,uru:squer Qutros yalores, .diremo.s '~-----·------------· que X é uniformemente distribuída sobre o intervalo [ci, :91. (Veja a Fig. 4.14.) Cvmentários: (a) .Uma· variável aleatória · uniformemente distribuída. tem uma fdp que é constante sobre o intervalo de definição. A fim de satisfazer à condição f_+, m j(x) dx = 1, essa constante deve ser igual ao inverso do compri- mento do intervalo. (b) Uma variável aleatória uniformemente distribuída representa o análogo contínuo dos resultados igualmente pro~áveis, no seguinte sentido. · Para qual- quer subintervalo [c, d], onde a:::_ c < d :::_ b, P(c :::_ X:::_ d) é a ~msma para todos os subintervalos que tenham o mesmo comprimento. Isto é, f. d d- c P(c :::_ X:::_ d) = j(x) dx = --. - .-· c .b ... ·a . ·, e, por isso, depende unicamente do comprimento do intervalo . e nã'o da posição desse intervalo. ·· (c) Agora podemos tornar mais precisa a noção intuitiva de e3colher ao aca..o· um p<mto P, em um i~tervalo [a, ·b]. Por isto simplesmente quetémos dizer que a coordenada x do ponto escolhido, digamos X, é uniformemente distribuída sobre ~a, b]. I Exemplo 4.17. tJrh ponto é escolhido ao aca.so no segmento de reta [O, 2]. Qual será a probabilidade de que o ponto escolhido esteja entre 1 e 3/2? Fazendo-se X representar a coordenada do ponto escolhido, nós temos que a fdp de X é dada por j(x) = 1/2,. O < x < 2 e, portanto, P(1 ~ X ~ 3/2) = 1/4. F(x) x=a x=b 1 Fig. 4.15 ! ' (' ·, · I . ; VARIÃVEIS i i..EATÓRIAS UNiDIMENSIONAIS I 91 I . . Exemplo 4.18. A dureza ~ de uma peça de aço (avaliada na escala Rockwell) pode-se supor ~er. uma variável aleatória contínua uniformemente distribuída sobre o intervalo [50, 70}, da escala B. Conseqüentémente, I 1 .1 f(h) = 2o 1 510 < h < 701 = O, para/ quaisquer putros v~ores. Exemplo 4.19. Vamos obte~ a expressão da fd de umà variável I aleatória uniformemente distribuída. I F(x) = P(X .~ r) = /_" ... j(s)~ . =0 se x <a, x-a I =---sea<x<b b- a I - 1 = 1 ~e x;::: b. O gráfico está apresentado na Fík. 4.15. I 4.8 ~m• Oboomção i Repetidamente temos salien~ado que em algum estágio de nosso desenvolvimento de. um modelo probabilístico, algumas .prpbabilidades devem ser atribuídas a resultados, com base ou em evidência experi- mental (como as freqüências relat~vas, por exemplo) 'ou, em alguma outra consideração, como a experiênci~ passada com o fenômep.o que esteja em estudo. A seguinte questão pode ocorrer :ao estudante: Por que nós não podemos obter todas as proijabilidades em que estejamos iriteressa- dos por tais meios não-dedutivÇ>s? A resposta e que muitos eventos cujas probabilidades desejamos I conhecer são tão complicados que nosso conhecimento intuitivo é ipsuficiente. Por exemplo, suponhamos que 1000 peças estejam sairido diariamente de uma linha de produção, algumas das quais defeituosas. ~esejiunos saber a probabilidade de ter 50 ou menos peças defeituosas! em certb dia. Mesmo que estejamos familiarizados com o comportamento geral do processo de produção, poderá ser difícil para nós assodiarmos uma medida quantitativa com I . o evento: 50 ou menos peças são defeituosas. No entanto, poderemos ser capazes de fazer a afirmação /de que qualquer peça individual tenha probabilidade de 0,10 de ser def;eituosa. (Assim; a experiência passada nOs dá a informação de que cerd,a de 1 O por cento das peças são defei- 1 92 I PROBABILIDADE tuosas.) Além disso, poderemos estar inclinados a adirütir _qu:e, indivi- dualmente, as peças sejam defeituosas ou perfeitas iridepen<;leriteme:rite uma da outra. Agora, poderemos proceder deduÜvame~-i:e , ·e obter a probabilidade do evento em estudo. Assim, se X=. número de peças defeituosas, . 50 (1000) . P(X.;;;, 50)~ ~ (O,lO)k (0,90)1000- k k= o . k .. O que se quer destacar aqui é que os vários métodos que nós dedu- zimos para calcular probabilidades (e outros que serão estudados subseqüentemente) são de enorme importância, porque com eles pode- remos avaliar probabilidades associadas a eventos bastante complicados, as quais seriam difíceis de obter por meios intuitivos ou empíricos. -i1J &~ q~ 1liilA determinada. moeda apresenta. cara. três vezes mais · freqüeiitemente que OOI'oa. .E= moeda é jo~da três vêzés. Seia X o. número de' caras _qíle~p~. -Es~beleç~~> . a dis~buiçl!.ci de probabilidade de X e ta.m- ··"' ~- ..... -· ~ ·--.) . -bém ~Jtfâ.. t-Fa.ça. um esboço do. grá.fioo de-IUilbllS.rl ~-F7 ~ . ( r ~ / ~ • ' . . 9 De um lote ~ue contém ~-)je-l)ãâ, ~ quais 5 são deíejtuosas, são esco- lhi IIS 4 ao &easo. &lJa. X o número de defe1tuosas encontra.daa. Estabeleça _a distribuição de probabilidade de X, quando: (a) AD peças forem escolhidas com r.eposiçl!.o. (b) As-peças forem escolhidas sem reposição. /; . l9 Suponh~ que ~ variável a.lea.t6ris. X tenha. os valores pol!!líveis 1, 2, 3, -~ .. , e P(X = J1 = 1/2', i= 1, 2, ... (a) Ca.lcule P(X ser par). (b) Calcule P(X ;:::: 5). (c) Calcule P(X ser divisível por 3) • . x 4.13, Considere UIM variável aleatória. X com resultados possíveis: -0, 1, 2, ... Suponha que P(X = J1 = (1 - a)ai, i = O, 1, 2, ..• (a) _Para que valores de a o modelo acima tem sentido? (b) Verifique qu~ esse. eJCpressão represente uma legíti.xru!. dietribuição de probabilidade. · (c) Mostre que, para · quaisquer dom inteiros positivos· a e 8, J P(X .> s + t IX > s) = P(X ;:::: t). VARIÁVEiS ALEATÓRIAS UNIDIMENSIONAIS ./ 93 /4~ Suporihà que ·a máqUina 1 ·produza (por dia) o dobro das peças que sã~uzidas ·pela máquina 2. . No entanto, 4% das peças fabricad:i.s pela má- qUina: 1 tendem a ser defeituosas, enquanto somente cerca de 2% de defeituosas- produz a máquina 2: Admita que a produção diária das duas máquinas seja mis- turada. Uma amostra aleatória de 10 peças é extraída da produção total. Qual será a probabilidade · de que essa amostra· contenha 2 peças defeituosas? 4. . Foguetes são lançados até que o primeiro lançamento bem sucedido a ocorrido. Se isso não ocorrer até 5 tent~tivas, o expernr;ento é ~lispenso e o eqUipamento inspecionado. Admita que exista uma probabilidade constante· de 0,8- de haver um lànçamento bem sucedido e que . os sucessivos lançamentos. sejam independentes. Suponha que· o custo do primeiro lançamento seja K dó- lares, enquanto os lan~;amentos subseqüentes custam K/3 dólares. Sempre que ocorre um. lançamento !\em sucedido, uma certa quantidade de informação é obti- da; a qual pode ser expressa como um ganho financeiro de C dólares. Sendo T o . custo líqUido· desse experimento, estabeleça a disti:i.buição de probabilidade de T • . @ Calcule P(X = 5), onde X é a variável ale~tória definida no Ex. 4.10. suponha que n1 = 10, n2 = 15, PI = 0,3 e P2 = 0,2. · )("4.8 . . (Propriedades das Probabilidades Binomiais.) Naexplanação do Ex. 4.8, um padrão geral para as _probabilidades binomiais (';,)p7c(1- p)n-:-lc foi sugerido. Vamos denotar essas 'probabilidades por Pn(k). (a) Mostre que, para O~ k <n~ temos Pn(k + 1)/pn(k) = [(n - k)/(lc + 1)] [p/(1 - p)]. (b) Empregando (a), mostre que (i) Pn(k + 1) > Pn(k) se k < np - (1 - p), (ü) Pn(k + 1) = Pn(k) se k = np - (1 - p), (iü) Pn(k + 1) < p~(k) se k > np - (l- p). (c) Mostre que se np - (1 - p) fói: um inteiro, Pn(k) toma seu valor máxinto para dois valores de k, a saber, ko = np - (1 - p) e ko' = np - (1 - p) + 1. (d) Mostre que se np - Ú - p) não fórum inteiro, então Pn(k) toma seu valor máximo quando k for iguàl ao men<:>r inteiro maior que ko. (e) · Mostfé que se np - (1 - p) < O, Pn(O) > Pn(1) > ... > Pn(n), enquanto se np - (1 - p) = O, Pn(O) = Pn(1) > Pn(2) > ... > Pn(n) . . 4. . A variável aleatória contínua X tem para fdp: · j(x) = x/2, O~ x ~ 2. São feitas du~ det~rminações independentes de X. Qual será a prÓbabilidade de que ambas essas determinações sejam maiores do que 1 ? Se três determinaçÕes independentes "forem feitas, qual a probabilidade de que exatanierite duas dela~ sejam maiores do que 1? 4 • . 0. Seja X a duração da vida de uma válvula eletrônica. e admita--se que X possa ser representada por uma variável aleatória contínua, com fdp j(x) = be-00:, x ~ O. Seja Pi = P(j ~X < j + 1). Verifique que Pi é da forma (1 - a)ai e determin~ a. · ' --,_...., . 4;11. A variável aleatória con~ínua X tem fdp j(x) = 3x2; .-1 ~ x ~O se b for um número que satisfaça a -1 < b < O, cs:lcule P(X-> b IX < b/2). ! l 1 I I I l ' I I·. 94 I PROBABILIDADE 6 ··. Suponha que j e g sejam fdp no mesmo intervalo a .:'S. x .:'S. b. . ~a) Verifique que j + g não é uma fdp nesse interyalo. · .·· . • . (b) Verifique que, para todo núm~ro {3, O< {3 < 1, {3j(x)+(1 ~ {3)g(x} é uma fdp nesse intervalo. ' · r.r::J . . .·, . . ' . . . ,ij·~J~ Su~onha que o gráfico na Fig. 4.16represente afdp de_hni.a variável aleatória x; . (a) Qual será a relação entre a e b? · (b) Se a > O e b > O, que se pode dizer do maior valor que b pode tomar?' (Veja a Fig. 4.16.) . Fig. 4.16 ( 4~ A percentagem de álcool (100 X) em certo composto pode ser derada ú'ma variável aleatóri~,_Jmde X, 1f < X < 1, tem a seguinte'fdp: j(x) = 20x3(1 - x),_ O < x < 1. (a) E>tabeleça a expressão da fd F e esboce seu ~áfico. (b) Calcul~ P(X ~ 2/S). consi- (c) . Supollha qu_!l o preço de venda desse composto dependa do conteúdo ·de álcool. Especificamente, se 1/3 < X < 2/3, o composto se vende por C1 dó- lares/galão; caso contrário, ·ele se vende por C2 dólaresjgalão. Se . o custo for c; dólares/galão, calcule a distribuição de probabilidade do lucro líquido por galão. r:Q 4.15. Seja X uma variável aleatória contín]ia, com fdp dada por J f(x) ax, a, O.:'S.x.:'S.l, 1.:'S.x .:'S. 2,. -ax + 3a, 2.:'S. x .:'S.3, O, para quaisquer outros valores. (a) Determi.ne a cot;l,l:Jtll.nte a. (b) Determine a fd F e esboce. o seu gráfico. (c) Se X 1, X2 e X a forem til\8 observações independentes de X, qual será a proba~ bilidade de, exatameilte, um desses três ·números ser maior do que 1,5? ~ O diâmetro X de um cabo elétric~ supõe-se ser uma ·~ariável aleatória contmuJ X, com fdp f(x) = 6x(l - x), O ~ x ::::_ 1. " · (a) Verifíque que essa expressão é uma fdp e ·esboce o seu gráfico. (b) Obtenha uma expressão para a fd de X -e esboce o seu gráfico. (c) Determine um número b tal _que P(X < b) = 2P(X > b). (d) Calcule P(X .:'S.l/211/3 < k< 2/,3). I I .I VARDÃVEDS A~EATÕRIAS UNIDIMENSIONAIS I 95 I 4.17. Cada uma das seguintes funç~es representa a. fd de mna. va.riá.vel alea.- tória continua. Em cada caso, F(x) = O pa.ra x < a. e F(r) = 1 pa.ra x > b, onde [a, b] é o interva.lo indicado. Em ca.da. c+o, <'"b~l·e o gráfico da. função F, deter~ mine a fdp f e faça o seu gráfico. També,m verifique que f é ·uma fdp. (a} F(x) = x/5, O .S x .S 5.. (b)i F(x) = (2/Jr) sen-1 ( y';), o _s x _s .1. I 1 (c) F(x)=eJ.z,- "'<x.SO. (d) F(x)=x3/2+ 2 ,-l.Sx.S1. I 4.18. Seja .\ 1!. duração da vida j(medid& em horas) de um, <lispositivo eletrõnico. Suponha. que X seja. X va~iá.vel aleatória contínua com fdp j(x) = = kjx" 1 2.000 _s X _s 10.000. (a) Para n = 2, determine k. (b) !Pa.ra. n = 3, determine k. (c} Pa.ra. n I • em geral, determine k. (d) Qua.l a. probapilida.de de que o dispositivo falhe antes'' que 5.000 horas se tenham pa.ssad() 7 (e) Esboce a fd F(t) para 11 letra (c) e deter- mine sua forma 8lgébrict\. l I 4.19. Seja X uma. va.riá.vel alea.tótia com distribuição hinomia.l, basea.da em 10 repetições de um experimento. Sei p = 0,3, calcule as seguintes probabili- da.des, empregando a tábua da distribuiçro binomial do Ap~ndicte: (a} P(X .S 8); (b) P(X = 7); (c) P(X > 6). I 4.20. Suponha que X seja uniforlnemente distribulda sol;lre l-a, + a], onde a > O. Quando posslvel, determin~ a de modo que as seguintes relações sejam satisfeitas: (a) P(X > 1) = ..!_ • 3 I 1 (b) P(X J I) = "2 . i (c) P(X' < ..!. ) = 0,7. . 2 1 (d) P(X < -zl = 0,3. (e) P<IXI < 1) = P(iXI > 1). I 4.21. Suponha que X tenha distribuição uniforme sobre (O, a], a > O. Res- d I , ponda. às perguntas o Probl. 4.20. J 4.22. Um ponto é ·escolhido ao acaso, sobre uma. reta. de comprimento L. Qual é a. probabilidade de que o quocien~e do segroen~ mais curto p&ra o mais longo seja menor do que 1/4? 1 4.23. Uma fábrica. produz 10 recipi~ntes de vidro por dia.. Deve-se supor que exista uma probabilida.de constante~ = 0,1 de produzir um recipiente defei- ·· tuoso. Antes que esses recipientes seja~ estocados, eles são inspecionados .e os defeituosos são separados. Admita que exista uma probabilidade con>tante r = 0,1 I de que um recipiente defeituoso seja mal classificado. Faça. X igual a.o número de recipientes classificados como defeitU:~sos ao fim de um dia ··de produção. I (Admita. que todos os recipientes fabricados em um dia sejam inspeciona.dos na- quele dia..) j . (a) Calcule P(X = 3) e P(X > 3). !' (b) Obtenha a expressão de P(X = k). I ' 4.24. Suponha que 5 por cento de todas as peça.s que 'saiam de uma linha de fabricação sejam defeituosas. $e 10 dessas peças fo,rem escolhida.s e ill:lpecio- nada.s, qual será a proba.bilida.de de que j no máximo 2 defeituosas sejam encon- .trada.s? 1 96 I PROBABILIDADE 4.25. Suponha que a duração da vida (em horas) de uma certa válvula seja uma variável aleatória contínua X com fdp f(x) = 100fx2, para x > 100, ·e zero para quaisquer outros valores de x. (a) .Qual ~erá a probabilidade de que uma válvuia dure menos de 200 horas, se soubermos que ela ainda está funcionando após 150 horas de serviço? (b) Se tr~ dessas válvulas forem instaladas em um conjunto, qual será a probabilidade de que exatamente uma delas tenha de ser substituída após 150 horas de serviço? (c) Qual será -o número máximo de válvulas que poderá ser colocado em um conjunto, de modo que exista uma probabilidade de 0,5 de que após 150 horas de serviço to~as elas ainda estejam funcionando? 4.26. Um experimento consiste em n tentativas independentes. Deve-se admitir que por catÍsa da "aprendizagem~', a probabilidade de :...obter um resul- tado favorável cresça com o número de tentativas realizadas. Especlficamente, sliponha que P (sucesso na i-ésima repetição) = (i + 1)/(i + 2), i = 1, 2, . . . , n. (a} · Qual será. a probabilidade de ter ao menos 3 resultados favoráveis, em 8 repetições? '(b) Qual será a probabilidade de que o primeiro resultado favorável ocorra na oitava repetição? 4.27. Com referência ao Ex. 4.10: (a} Calcule P(X = 2), se n = 4. (b) Para n arbitrário, verifique que P(X = n- 1) = P (exatamente uma tentativa mal sucedida) é igual a [1/(n + 1)] L?= 1 (1/i). 4;28. Se a variá.vel aleatória K fór uniformemente distribuída sobre (O, 5), · qual será. a probabilidade de que as raízes da equação 4x2 + ·4xK + K + 2 = O' sejam reais? · 4.29.Suponha que a variável aleatória X tenha valores possíveis, 1, 2, 3, ... e que P(X =r)= k(1- (3}r- 1, O < (3 < 1. (a) Determine a constante k. (b) Ache a moda desta distribuição (isto é, o valor de r que tome P(X =r) a maior de todas). 4.30. Uma variável aleatória X pode tomar quatro valores, com probabili- dades (1 + 3x)/4, (1 - x)/4, (1 + 2x)/4 e · (1 - 4x)/4. Para que valores de x é esta uma distribuição de probabilidade? ij .! ·I ;( ., •t - ! -; >i -; ! ,, ·. ~ -Í F un_ções de Variáveis _Aleatórias Capítulo 5 Suponhamos que o raio do orifício de um tubo calibrado com precisão X seja conside~ado uma variável aleatória contínua com fdp j. Seja A = 1r X 2 a área da secção transversal do orifício. É intuitivamente evidente que, uma vez que o valor de X é o resul- tado de um experimento aleatório, o valor de A também o é. Quer dizer, A é uma variável aleatória (contínua) e desejamos obter sua fdp, que denotaremos g. Esperamos, Úma vez que A é função de X, que a fdp g seja de algum modo deduzivel do cànhecimento da fdp j. N;t:Ste capítulo, tr11taremos de' problemas desse tipo geral. Antes porém de nos familiarizarmos com algumas das técnicas espe- cíficas necessárias, vamos exprimir os conceitos acima mais rigoro- !lalllen te. Seja E um experimento · e ~ja S um espaço amostral associado a S. Seja X uma variável aleatória definida em S. Suponha-se que y = H (x) seja uma função real de x. Então, Y = H(X) é uma Fig. 5.1 variável aleatória, porque para todo s E S, um valor de terminado, a saber y= H [X(s)l. Esquematicam~nte, . Fig. 5.1. - 98 I PROBABILIDADE Como anteriormente, denominaremo~ Rx o contradomínio de X, o conjunto de todos os valorc;; possíveis da função X . Semelhante- mente, definiremos R y como o contradomínio (la variável aleatória Y, o conjunto de todos os valores possíveis de Y. Anteriormente, já definimos [Eq. (4.1)] a noção de eventos equivalentes em S e em Rx. Agora, estenderemos esse conceito na seguinte forma natural. Definição. Seja C um evento (subconjunto) associado ao con- tradomínio RY, de Y, como se explicou acima. Seja B C Rx defi- nido assim: B = {-;?:E Rx: H(x) E C}. (5.1) Em palavras: B é o conjunto de todos os valores de X, tais que H(x) E C. Se B e C forem relacionados desse modo, os denomina- remos eventos equivalentes. Comentários: (a) Como anteriormente, a interpretação não formal disso é que B e C serão eventos equivalentes se, e somente se, B e C ocorrerem conjunta- meu te. Isto é, quando B ocorrer, C ocorrerá, e inversamente. (b) Suponha-se que A seja um evento ·ai;sociado a S, o qual é equivalente a. um evento B associado a Rx. Então, se C for um evento ru,sociado a Ry o qual é equivalente a B, teremos que A será equivalente a C. (c) B também importante compreender que quando falamos de eve~tos equivalentes (no sentido acima), esses eventos são associados a diferentes espaços , amostrais . Exemplo 5.1. Suponha-se que H(x) = 1rx2, tal como na Seç. 5.1. Então, . os eventos B: {X > 2} e C: { Y > 47r l são equivalentes. Porque, se. Y = 7r X 2 , então {X > 2} ocorrerá se, e somente se, { Y > 47r l ocorrer, desde que X não pode tom.ar valores negativos no caso presente: (Veja a Fig. 5.2.) y Fig. 5.2 ii: Cvmenlário: B também importante salientar que uma notação abreviada i está sendo empregada quando escrevemos expressões tais como !X > 2} e J I Y > 471"}. Aquilo a que nos estaremos referindo, naturalmente,· são os valores L c d, X • oo volo•~ do Y, llilo '• [•[XI•: > 2[ • [•[Y(•) > 4,L ' ' - \ ; ' Tal cqmo fizemos definição. FUl\IÇÕ"ESjDE VARI'Á VEIS ALEAJÓRIAS / -99_:. I no Cap. 4,1 [Eq. (4,2!], dar~~~s- ~ j~~~7 i . .. ...... :· .. ;:,..:; .. . . . . Definição: Seja uma variável! al~atória X defiil:id~ n~ , e~~~~ amostral S. Seja Rx o contradomínio de X. ' Seja 1/ rumaruriÇã:~' real e considere-se a variável aleat6Ha y = H(X) com contrii.dólníill~ . I . . . . R,y. Para qualquer evento C C RIY, definiremos P(C) ~ssim: : . ··,,_~:: P(C) = P[ {x E Rx: H(x) E C)]. . (5,2) Em linguagem corrente: A p~obabilidade de um ~vento asso- ciado ao contradomínio de . Y é d~finida como a probabilidade do evento equivalente (em termos de X), como indicado pela Eq. (5.2). . ! - Comerúár.ios: ' (a) A definição acima jtorna possível calc~_ar probahilidades que envolvam eventos associados a Y, se ·conhecermos ·a distribuição .de proba- bilidade de X e se pudermos determinar o erento equivalente em apre_ço~ (b) .Uma vez que explicamos anterioxhente [Eq. (4.1 e 4.2)] como relacionar probabilidades associadas a Rx com prob:abilidades associadas a S, podemos re- escrever a Eq. (5.2) assim: i I . P(C) = P[(x E Rx: H(x) E ClJ = P l (s E S: H[X(s)] E C}] . . v · I . Exemplo 5.2. Seja X uma variável I contínua ~oro fdp ·I j(x) = e-, x > O. (Uma . in~egração simples confirma que I J;~. e- dx = 1.) I Suponha-se que. H(x) = 2x + 1. Em conseqüênbia, I;lx = { x I x > O), enquanto RY = { y I y > 1). Suponha-se, que. o even- to C seja definido deste modo: C= { Y;::: 5). I --,4 ---J<J..=.:...l _ _,__.,.-)C Então, y 2: 5 se, e somente se, .2x + 1 ;::: 5, o . que porJsua vez acarreta x;?: 2. Daí, C é equivalente. a B = {X ;?: 2 J. (Veja Fig. Fig, 5.3 5.3.) Então, P(X ;::: 2) = h~ e- !ax = 1/e2• .Aplicando-se então a. Eq. (5 .. 2) encontraremos que i P(Y ;?: 5) ·= 1/e2• CQ77le111.drios: (a) li: nov.a~ente provbitoso salientar que poderemos consi- derar a incorporação de ambas as avaliaçõ~ de x = X(s) e .de y = H(x) em_ ll,q~Q:. experimento e, conseqüentemente, conside~ar apenas Ry, o contra?o~fu!.o ~tf,~; · como o espaço amostral de nOBBo experimento. '·'·:f·" · Rigorosamente falando, o eapaço amo~tral de nosso e)!:perimenti> . é . _ sultado do expe!imento é 8. Tudo o que ~ faz subseqüentemente , n.ão Wlll I f'ROBAIBUUDADE cia<l<i pela ,natureza aleat6ria do experimento. A determinaçii.o de x = X(s)" e a avnliaçíi.o de y =. H(x) .sll,o processos ngorosamente. determinísticos depois qúe. s · tenha sido observado. COntudo, .. como já explicam·os, podemos incorporar esses cálculos na descri~o de nosso. experimento. e, deste modo, tratar diretamente com o contradomínio Ry. (b) Exatamente ·do modo como a distribuição de probabilidade foi induzida em Rx pela distribuiÇii.o. de probabilidade sobre o espaço amostral original· S, a . distrib!=liçii.o de probabilidade de y será determinada quando a distribuição de probàbilidade de ··X for conhecida. Assim, no Ex. 5.2 acima, a distribuição espe· cificada de. x:determillOI:l'COmpletarnente o valor de P(Y ~ 5). . (c) ·Ao· considerar uma função de uma variável aleatória X, digamos Y = H(X), devemos observar _que nem· «ida funçii.o H concebível poderá ser aceita. Contudo, as funções ·que surgem nas-aplicações estão infalivelmente entre aquelas que podemos considerar e, por isso, não nos referiremos maÍfj a esta· pequena difi- culdade. 5.3. Va~riáveis Aleatórias Discretas Caso L X é uma· variável aleatória diseretá~ Se X for um~ variável aleatória discreta e Y = H(X), nesse ca~o segue~se ímedia- . tamente que y será também uma variável aleatória discreta. ' Porq~e sup()r _que os valor~s possíveis de X possam ser ~nume radps COniO X1, . X2, .... , Xn, . . . acarr~ta qu~ Certamente OS Valores pos~(veis de Y sejam enumerados · como Y1 = .f:l(xi), y 2 = H(x2), . ... . (Alguns desses valo_res de Y poderão ser iguais, mas isso certamente não perturba o fatq de qUe esses valores possam ser enumerados.) ExemplO 5.3 . . · S~ponhamos que a variável aleatória X tome os · três valores -1, O e 1, com probabilidades 1/3, 1/2 e 1/6, respectiva- mente. Seja y = 3X + 1. Nesse CIJ.SO os yalores possíveis de y são -2, 1 e 4, tomados coniprob~bilidades 1/3, 1/2 e 1/6. . Este exemplo sugere o seguinte procedimento geral: Se - ~1 ; .•• , Xn, . .• forem os valores possíveis de X, p(x;) ~- P(X = x;), e· ii for uma função tal que, a cada valor y correspÔhda exatamente um valor x, _então adistribuição de probabilidade . de Y será obtida do seguinte modo: Valores possíveis de Y: Probabilidades de Y: y; = H(x;), i= 1,_.21 .- •• , n, .. . ; q(y;) = P (Y '= y;) = p(x;). Muito freqÜentemente a função H não possui a característica acima, e poderá acontecer que vários valores :.de X levem ao mesmo ~~dor de Y, como ilustra o exemplo seguinte: . · Exemplo 5.4. Suponha-se que consideramos a mesma variável aleatória X, como no Ex. 5.3 acima. Contud;, frttrodu,ziilws Y # X 2• FUNÇÕES DE VARIÃVI;1S A .LEATÓRIAS I 1"01. Portanto, os valores possíveis de Y são zero e um, tomados com pio- habilidades 1/2 e 1/2, porque Y ==: 1 se, e somente se; X = ---,· 1 ou X = 1 e a probabilidade deste último evento é i/3 + 1/6 = 1/2. Em termos de nossa terminologia preliminar, os eventos B: [X = ± 1} e C: [ Y =.1} são eventos equivalentes e, em conseqüência, pela Eq. (5.2) têm iguais probabilidades. O procedimento geral para situações como a apresentada no exem- plo acima é o seguinte: Sejam x;P ·x;2, • •• , x;k, . .. os valores de X que tenham a propriedade H(x;;) = y; para todo j. E~ tão, q(y;) = P(Y = y;) = p(x;) + p(i;2) + ... isto é, para palcular a probabilidade d<;> evento I Y = y;}, acha-se o evento equivalente em termos de X (no· contradomínio Rx) e em seguida adicionam-se todas as probabilidades correspondentes. (Veja a Fig. ·5.4.) Fig. 5.4 Exemplo 5.5. Admita-se que X. tenha os valores possíveis 1, 2, .. . , n, . . . e suponha-se que P(X = n) = (1/2)n. Seja Y = 1 se X for par, Y = - 1 se X for ímpar. Portanto, Y toma os dois valores -1 e + 1. Desde que Y = 1 se, e · somente se, X = 2, ou X = 4, ou X = 6, ou ... , a aplicação da Eq. (5.2) fornece . 1 1 1 1 P(Y = 1) = 4 + W + M + ... = 3 . Conseqüentemente: . 2 P(Y = -1) = 1 - P(Y = 1) = - 3 Caso 2. X é uma variável aleatória contínua. Pode acon- tecer que X seja uma variável aleatória contínua enquanto Y seja discreta. Por exemplo, suponha-se que X possa · tomar todos os valores reais, enquanto Y seja definido igual a + 1 se X ;::: o; e i' ! . I ~r ·'!:. ),·: ., I I ' I ' . i 102 I PROBABBUDADE Y = - 1 se X < O. A fim de obter a distribuição de probabilidade de Y, determina-se apenas o evento equivalente (no contradomínio . Rx) correspondente aos diferentes valores de Y. Neste caso, Y = 1 se, e somente se, X ~ O, · enquanto Y =- 1 se, e somente ?C, X < O. Por isso, P(Y = 1) = P(X ~ 0)1 enquanto P(Y = -1) = P(X < O). Se a fdp de X for conhecida, essas probabilidades poderão ser calcula- das. No caso geral, se I Y = yi) for equivalente a um evento, por exemplo A, no contradominio de X, então q(y;) = P(Y = y;) = .h. j(x) dx. 5.4. Variáveis Aleatórias Contínuas O caso mais importante (e mais freqüentemente encontrado) aparece quando X for uma variável aleatória continua com fdp j e H for uma função continua. Conseqüentemente Y = H(X) será uma variável aleatória continua, e nossa tarefa será obter sua fdp, que denotaremos por g. O procedimento geral será: . (a) Obter G, a fd de Y, na qual G(y) = P(Y ~ y), achando-se o evento A (no contradomínio de X) o qual é equivalente ao everito {Y ~ y}. (b) Derivar G(y) em relação a y, a fim de obter g(y). (c) Deteiminar aqúeles valo- res de y no contr;adominio de Y, para os quais g(y) > O. Exemplo 5.6. Supoilhamos que X tenha fdp j(x) = 2x, Ü < X < 1, = O, para outros quaisquer valores. Seja .H(x) = 3x + 1. Da[, para obter a fdp de Y = H(X)/teremos (veja a F\g. 5.5). ' y Fig. 5.5 -' . FUNÇ0 1 ES DE 'í'ARIÁVEIS ALEATÓRIAS / 103. i ' G(y) P(Y :::; ~) = P(àx' + 1 :::; y)- = P[X' ::5 i(y - · 1)j3] ' · · . . /' ~ ~. . I . . 1 (11-1)/3 . . ' . = : 2x dx ,;,. [(y-:- 1)/3]~; . 0 I D~ i . . . I 2 ·. . . · g(y) = . G'(~) = 9 (y -:- 1). . . . . . . . I . . . . • . Desde que j(x) > O para O < xl < 1, encontramos q'ue g(y) > O para 1 < y < 4. I · · . . . I . . . Comentário: O evento A, :rereri~o acima, equivalente ao evento { Y ~ y I é apenas {X ~(y- 1)/3}. i · . Existe uma outra maneid, ligeiramente diferente, de obter o mesmo resultado, a qual será ,de utilidade mais tarde. Considere- mos novamente ·j · . . . . G(y) = P(Y ::5 y) = P (X:::; y ;l) = F(y; 1), onde F é a fd de X; i~to é, F(x) ~ P(X_~:::; x): A fim de calcular a derivada de G, G'(y), ·empregaremos a regra • I . . . de denvação de função, coino s 1 egUe: . . . dG(y) == dG(y) . du , . onde u = Y - 1 . . dy du dy 3 . I . Portanto, . · . . 1 · G'(y) = F'(u) · _!_ = f(u) · _!_ = 2 ( Y - 1 ) . ~ , 3 . ·I 3 . . 3 . . 3 T~l) I ')' y= I y=4 Fig; 5.6 como .anteriormente. A fdp de Y teip. 9 gráfico apresentado. na Fig. 5.6. (Para verificar o cálculo, ob- serve que j;4 g(y)dy = L) Exemplo 5.7. Suponhamos que uma variável aleatória contínua tem I •• a fdp como foi dada no Ex. 5.6. Se- I . ·. ·.·· '· ja H(x) = e-. Para achar a fdp de Y = H(X), · procederemos co- mo se mdica a segwr (veja a /Fig. 5.7): . I G(y) . = P(Y ::5 y) = P(e-x ::5 y)' P(X ~ ~1 Iny) = ~· i · 2xdx · -ln11 1--: (-~ y)2. . I l l i . t ,, l I l' I. !: . 'I' i' ,; :I: i ·' I. i 'li I' li I ' I •I li 104 I PROBABIUOADE Daí, g(y) = G'(y) = - 2.ln, yfy. · Visto quej(~).> O pára O < i: < 1, ~ricontramos que g(y) ::> Q pari!, l/e < y < L .. [Observe q~e o . s-i,rtal algébricó para g(y) está C:orreto, pois que ln y< O pii,ra l/e < y <).] O gráfico de g(y) está esboçado na Fig. 5.K. . . . y · : · . . = Fig, 5.7 Fig •. 5.8 Poderemos também obter ó resultado acima por um tratamento um pouco diferente, que esboçll.remos resumidamente. Tal como anterio.rmente G(y) = P(Y ~ y) = P(X ?: -ln y) - 1- P(X~ -lny) = 1-F(-ln'y), onde F é a fd de X, comei antes. A fim de obter a derivada de G, aplicaremos também a regra de .derivação· de função de função, co- mo sé segue: dG(y) . = ·ac au dy du ·dy ' onde u = -ln y. Deste modo . · ( i) .. . (· 1) . •G'(y) ·= - F'(u) - - = . + 2ln y· . ----:- , . . Y · . y ·tal como anteriotniente. Vam~s agora generalizar o tratamento sugerido pelos exemplos acima. O passo mais importante em· cada um dos exemplos foi dado quando substituímos o evento I Y ~ y} pelo evento equivalente em termos da variável aleatória X~ Nos problemas acima, isso foi re- lativamente fácil porque em .cada caso a função de X era estrita- mente crescente ou estritamenté decrescente. .FUNÇÕES D.E VARIÁ\ÍEIS.ALEATÓRIAS "/ ~105 . Na JFig. 5.9, y é uma funçoo estritam.ente crescente de z . . Por ll8so, ~deremos resolver y = H(x) em termos de y, i~to é, x = Ji-l(JJ), :J? · · onde H-1 é denominada fun- ção invell'Sa de H. Porumto, ( " ~--------~~~-----Y x=H-I(y) IFi!lJ. 5.9 se H foli' estritamente crescente I H(X) ::; y} será equivalente . e (X::; H-1(y)}, enquanto se H for estritamente decreséente, I H(X) ::; y} será equivalente a {X;::: H-1(y)}. O processo empregado nos exem- plos acima pode agora ser ge- neralizado, na seguinte forma: Teorema 5.l. Seja X uma variável aleatória continua com fdp j, onde j(x) > O, para a < x < b. Suponha-se que y = H(x) seja uma função de x estritamente monótona (ou· crescente ou decrescente). Admita-se que essa função seja derivável (e, portanto, contínua) para todo x~ Então, a variável aleatória Y, definida como Y = H (X) possui a fdp g dada por ·- g(y) = j(x) I :I• (5.3) onde x é expresso em termos de y. Se H for crescente, então g será não-nula para aqueles valores de y que satisfaçam H(a) < y < H(b). Se H for decrescente, então g será não-nula para aqueles valores de y que satisfaçam H(b) < y < H(a). Demomtração: (a) Suponha-se que H seja uma função estrit~t mente crescente. Daf '· G(y) P(Y ::; 'J!.) = P[H(X) ::; y] P[X ::; H-1(y)] = F[H-'(y)]. Derivando G(y) em relação a y, obteremos com o emprego da regrá da derivada de função de função: dG(y) dG(y) dX dY = ---a;- dy I onde x = H-1(y). Portanto, I , dF(x) dx dx G(y) = --- =J(x) - ·· dx dy dy =-======------__:________ __jr l.:r l i ·.L 106 I PROBABILIDADE (b) Suponha-se que H seja uma função decrescente. Daí G(y) P(Y:::; y) = P[H(X) :::; y] = P[X ~ H-i-(y)] 1 - P[X :::; H-1(y)] = 1 - F[H-1(y)]. Procedendo tal como acima, poderemos escrever dG(y) = dG(y) dx = j_ [1 _ F(x)] dx = _ f(x) dx. dy dx dy · dx dy dy Comentário : O sinal algébrico obtido em (b) está correto porque, se y for uma função decrescente de x, i será uma função decrescente de y e, conseqüente- mente, dxfdy < O. Deste modo, pelo emprego do sinal, com o valor absoluto em tomo de dxfdy, poderemos combinar o resultado de (a) e dé (b) e obter a forma final do teorema. Exemplo 5.8. Vamos reexaminar os Exs. 5.6 e 5.7 pela aplicação do Teor. 5.1. . (a) No Ex. 5.6 tivemos f(x) = 2x, O < x < 1, e y ~ 3x + 1. Conseqüentemente, x = (y - 1)/3 e dxfdy = 1/3. Por isso, g(y) = = 2 [(y - 1)/3Í(l/3) = 12/9)(y - 1), 1 < y < 4, o que confirma o resultado obtido anteriormente. (b) No Ex. 5.7, tivemos j(x) = 2x, O < x < 1 e y = e""". Em conseqüência, x ;= - ln y e dxfdy = - 1/y. Deste modo, g(y) ::, ,;, ;_ 2(ln y)fy, 1/e < y < 1, o que também confirma o resultado já obtido. Se y = H(x) não for uma função monótona de x, não poderemos aplicar diretamente o processo acima. Em vez disso, voltaremos ao processo geral esquemàtizado acima. O exemplo seguinte ilustra esse procedimento. Exemplo 5.9. Suponhamos que j(x) 1/2, -1 < x < I, .. =~=---:~. . ' . ·.~.-- , · · ·< : :._ = O, fora desse mtervalo. ' . ' · ' '-.'•, \ ' .· ... ,··S~J~~ÍJ(x) ~~~: Jjbviamente, esta. ·~ é unia função monótona ( 'Z~B~t~~..:&~!~/{-;-1, I] .(Fig. 5.10). Por isso, obteremos a fdp de ~: dcrségumte modo: . . G(y) P(Y :5 y) = P(X2 :5 y) P(- Vy :5X ~ Vy) F(Vy)- F(-v0, F.UNÇÕE;S OE VARIÁVEIS .ALEATÓ.RIAS I I . . . . .. . - . onde F é a fd da variável aleat6~a X.'. Logo, . . I . g(y/ = G'(y) = 1v'J;) J< ~vi;) , 2vy -2-v'Y . ']• . 1 I - - =c _r u<Y Y) +J(-vy)l. 2v y i \. Deste modo, g(y) = (1/2Vy) (1/2 + 1/2) l/2.;;y, o'<y< 1; a Fig. 5.11.) i <:. __ , · -< (Veja g(y) y I y=x2 · (t,4) X x=-l x=i .! y Fig. 5.10 I Fig. 5.11 ! ! . • O · d I 1 · f · · processo emprega o no e~emp o acrma omece o segwnte re- sultado geral. I I Teorema 5.2. Seja X uma v'ariável aleatória contínua c~m fdp j. Façamos Y = X 2• Então, a varikvel aleat6ria Y tem a fdp . dada por 1 j 1 - g(y) = _r U<y y) + J(-v' y)]. 2v y . i I Demonstração: Veja o Ex. 5r· Problemas i i ·- 5.1. Suponha que X seja uniformemente distribuída sobre ( -1, 1). Seja Y = 4 .- X 2• Achar a fdp de Y, g(y), e fazer seu : gráfico. Verifiq)Í'e t.à.mbém que g(y) é a fdp adequada. 1 I 5.2. Suponha que X ·seja. uniformemente distribuída sobre (1, 3). Ache a fdp dll.'l seguintes variáveis aleatórill.'l! (a) Y = 3X ~ 4, (b) i Z =eX. Verifique em cada ca.so que a função obtida é a fdp. Esboce os gráficos. I I I 108 I PROBAIBHUIDAOE 5.3. Suponha que "' variável aleatória contínua X tenha fdp j(x) "" e...,, z > O. Ache a fdp das seguintes variá.veis aleatórias: (a) Y "" X 3, (b) Z "" 3/(X + 1)2• 5.4. Suponha que a variável aleatória discreta X tome os valores 1, 2 e 3 com igual probabilidade. Ache a distribuição de probabilidade de Y "" 2X + 3. 5.5. Suponha que X seja uniformemente distribuída sobre o intervalo (O, 1). Ache a fdp das seguintes variáveis aleatórias: (a) Y "" X2 + 1, (b) Z "" 1/(X + 1). 5.6. Suponha que X seja uniformemente distribuída sobre ( -1, 1). Ache m fdp das seguintes variáveis. aleatórias: ' (a) Y = sen (7r/2)X, (b) Z = cos (7r/2)X, (c) W = IX!. 5.7. Suponha que o raio de uma esfera seja uma variá.vel aleatória contínua. (Em virtude de imprecisões do processo de fabricação, os raios das diferentes es- feras podem ser diferentes.) Suponha que o raio R tenha fdp j(r) = 6r(1 - r), O < r < 1. Ache a fd;p do volume V e da IM-ea suJllflrlicial S da esfera. 5.3~ Uma corrente elétrica oscilante I pode ser considerada como uma va- riável aleatória uniformemente distribuída sobre o intervalo (9, 11). Se essa corrente passar em um resistor de 2 ohms, qual será a fdp da potência P = 2P? 5.9. A velocidade de uma molécula em um gás uniforme. em equilíbrio é uma variá.vel aleatória V cuja fdp é dada por j(v) = wP e-b••, v> o; onde b = mf2kT e. k, T e m denotam respectivamente a constante de Boltzman; a temperat~a absoluta e a massa da molécula. . (a) Calcular a constante a (em termos de b). [Sugesldo: Considere o fato de que J;"" e-z• dx -"" v;;2 e integre por partes.) (b) Estabeleça a distribuição da variá.vel aleatória W ""mV2/2, a qual re- presenta a energia cinética d_a molécula. 5.10. A tensão elétrica aleatória X é uniformemente distribuída sobre o intervalo (!- k, k) . . Se Y for a entrada de um dispositivo não~linear, com as carac- terísticas indicadas na Fig. 5.12, ache a distribuiçãode probabilidade de Y, nos três casos seguintes: (a) k < a, (b) a < k < xo, (c) k > xo. y Fng. s.12 Comentário: A distribuição de probabilidade de Y constitui um exemplo de uma distribuição mista. Y toma o valor zero com probabilidade não-nula 0 também toma todos os valores em certos, intervalos. (Veja a Seç. 4.6.) . , I I ( " f Ui\lÇÕIES DIE VA!RiÃVIEiS A LIEATÓ!RiAS I 109 5. 11 . A energia radiante (em Btu/hora/pé2 ) é dada p.ela seguinte função da t emperatura T (em escala Fahrenheit): E = 0,173 (T/100)4 • Suponha que a temperatura T seja considerada uma variável aleatória contínua como fdp J.(l) O, pl!.i'e. outros quawquer vll!lorea. Estabeleça a fdp da energia radiante· E. t\~ Para medir velocidades do ar, utiliza-se um tubo (conhecido como tubo estático de Pitot), o qual permite que se meça a pressão diferencial. Esta pressão diferencial é dada por P = (1/2) dV 2 , onde d é a densidade do ar e V é a velocidade do vento (mph) . Achar a fdp deP, quando V for uma variável aleatória uniform~mente distribuída sobre (10, 20) . · ~W~\Suponha que P(X .;; 0,29) = 0,75, onde X é uma variável aleatória contín\1-'lJ?lcom alguma distribuição definida sobre (0, 1) . Quando Y = 1 - X, determinar k de modo queP(Y .;; k) = 0,25 . [ I f r ·1 I ____) .. · I Variáveis Aleatórias de Duas ou Mais Dimensões · Capítulo 6 6.1. Variáveis Aleatórias Bidimensionais Até aqui, em nosso estudo de variáveis aleatórias, consideramos apenas o caso unidimensional. .Jsto é, o resultado do experimento seria registrado como um único número x. · ·-·,:.;1;~~~~=~;~z~;;:r~:B~·*· -;(~fiít1rceã;:;:.~a~:!~::"!-~:~ a dureza H e a tensão de -;~ptu;~· T de uma peça manufaturada de aço poderão interessar, e nós consideraríamos (h, t) como um único resultado experimental. Poderíamos estudar a estatura H e o peso w ·'. de alguma pessoa escolhida, o que forneceria o resultado (h, w). Fi- nalmente poderíamos observar a altura total da chuva R e a tempera- tura T em uma certa localidade, durante um mês especificado, dando origem ao resultado (r, t). Faremos a seguinte definição formal. Definição. Sejam & um experimento e S um espaço amostral s X y Fig. 6.1 associado a &. Sejam X = X(s) e Y = Y(s) duas funções, cada uma associando um l!Úmero real a cada resultado s E S (Fig. 6.1). ~~ - I - VAR IA VEIS ACE"ATORIAS DU~S OUIVIA1S IJIMENSOES I 111 como no caso não estaremos interessados na natureza funcional de X(s) e Y(s), nos valores que X e Y tomam. Tam- bém falaremos do contradomínio de Y), a .saber Rxx y, como o conjúnto de todos os valores possíveis de (X, Y). caso bidimensional, por exemplo, o con- tradomínio de (X, Y) será um subconjunto do plano euclidiano. C.ada resultado . I . X(s) , Y(s) pod,erá ~er represent~do conto u~ po!lto (~, y) no plano. Tam~ém supriremos a natureza funcional de X e Y, ao escrevermos, por exemplo, P [X 2 a, y 2 b] em lugar de P[X(s) 2 a, Y(s) 21 b]. · . . Tal como . no caso unidimensional, distinguiremos dois tipos básicos de va- riáveis aleatórias: as variáveis aleatórirul discretas e as contínuas. . I I . Definição.·ex, Y) será uma !variável aleatória discreta bidimen- sional se os valores possíveis de (X, Y) forem finitos ou infinitos nu- meráveis. Isto é, os valqres pos~íveis de (X, Y) poséam ser repre- ~entados por (x;, Yi), i~\1,2, -[- .,n, .. . ; J= 1,2, , .. ,m .. . , (X, Y) será . uma variável aleatória contínua bidimensional se (X, Y) puder tomar .todos os vai6res em algum conjuhto não-nume- rável do plano euclidiano. [Por rxemplo, se (X, Y) t~m-ar todos os valores no retângulo { (x; y) I a ~ x ~ b, c ~ y :s; d} ou todos os valores no círculo { (x, y) I x2 + y2 1~ 1), poderemos diier que (X, Y) é un:;a variável aleatórià bidimen~ional contí~uaJ Comentários: (a) Falando não ri~orosainente, (X, Y) . será uma variável aleatória bidimensional se ela representat o resultado de um experimento aleatório no qual tenhamos medido os dois caractehsticos numéricos X e Y .. (b) Pode acontecer que um dos 9omponentes_ de (X, Y), por exemplo X, seja discreto, enquanto o outro seja conrínuq. No entanto, em muitas aplicações trataremos somente com os casos apresFntadcis acima, · nos quais ·ambos os com- ponentes serão discretos ou ambos serão contínuos. · (c) Em muitas situações as duas v~riáveis X e Y, quando considera.das con- juntamente, constituirão de maneira m~ito natural o· resultado de um único ex- perimento, como se · ilustrou nos exem~los acima. Por. exemplo, X e Y podem representar a estatura e o peso do mesbo indivíduo etc. Contudo, esta espécÍe de conexão não existe necessariamente.! Por exemplo, X poderá ser a corrente que passe em um circuito em dado moxfento, enquanto Y poderá spr a tempera- tura da sala naquele momento, 1e podetemos considerar, então, a variável ale.a'tó-.. ria bidimensional (X, Y). Em quase to'das as aplicações existe Ullia razão bas- tante. definida para . considerar X e Y cdnjuntamente. · Procederemos de modo análo,go ao 1 1caso unidimei,~Sional ao expor a distribui- ção de probabilidade de (X, Y). ' 112 I PROBABILIDADE . . Definição. (a) Seja (X, Y) uma variável alea:tória discreta bi- 'dimensional. A cada resultado possível (x.;, y;) aSsociaremos um número p(x;1 y;) representando P(X = x;, Y = y;) , e satiSfazendo às seguintes condições: _ · . . _ ,...;-)~ (1) p(x;, y;) ~ O para todo (x, y), . .- .í~ ~ (2) ., ., ~C-D .o u (6.1)/l \ L L p(x;, Yi) = 1. . . ) . \ \...-- \ !'i, ' o c:L.( i=l i=l · ~ . - ~""jj(90~ir {JtAO..:;- . · A função p definida para todo (x;, yj) ·no coutradominio de (X, Y) é denominada a junçãÓ de probabilidade de (X, Y), · O ' con- junto dos ternos [x;, y;, p(x;, Yi)], i, j = 1, 2, ... é, algumas vezes; denominado distribuição de probabilidade de (X, Y). (b) Seja (X, Y) uma variável aleatória contíJ:lua tomando todos os valores em alguma região R do plan~ . e\:iclidiano. A junção densi- dade de probabilidade con}unta j é ui:na função que satisfaz às seguintes condições: · . ~ p (3) j(x, y) ~ O para todo (x, y) E R cfÚ (4) jjJ(x, y) dx dy = l. .___-- (6.2) R Comentários: (a) A analogia . com a distribuição de massa é também . aqui evidente. l'emos uma massa unitária distribuída sobre uma região no plano. No caso discreto, toda a massa estil. concentrada em um. número finito ou infinitQ · munerável de lugares 6om mruisa p(x;, Yi) situada em (~, y;). No caso. ccintíiluo, a massa é encontrada em todos · os pontos de algum conjunto não-Jiuinerável; no plano. · · . (b) A condição (4) afirma que o volume total sob a superfície dada pela equa- ção z = j(x, y) é igual a 1. (c) Como no caso unidimensional, j(x, y) não representa a probábilidade de. coisa alguma. Contudo, para Ax positivo e Ay _suficienteinente pequeno, j(x, y) Ax Ay é aproriroadamente igual a P(x :S. X_::: x + Ax; y :S. Y :S. y + Ay). (d) Como no caso unidimensional, adotaremos a convenção de que j (x, y) = O se (x, y) EE R. Por isso, poderemos considerar j definida para todo (x, y) no plano e a condição (4) acima se torna f_+.,"' J_+.,"' j(x, y) dx dy = 1. (e) Também suprimiremos a naturtf;a funcional da variável aleatória bidi- mensional (X, Y). Nós deveríamos sempre escrever ·expressões da forma P (X(s) = =· x;, Y(s) = Yil etc. No entanto, se nossa notação abJ:eviada for compreendida, nenhuma dificuldade deve~á ~urgir. W Também, como no caso unidimensional, a. distribuição de probabilidade de (X, Y) é realmente induzida pela. probabilidade dos eventos associados ao ~ . paço amostral original S. Contudo, estaremos interesSados principalmente nos valores de (X, Y) e, por isso, trataremos diretamenre com o coritradomínio de (X, Y). Não obstante, o leitor não deverá p.erder de vista o fato de que se P(A) I ~ r I ! I ,. ! . I 1 i 1 "! i I v I i J 'l .I ' I I i :1 . I I I j VARIÁVEiS ALEATÓRiAS DE DUAS OU MAOS DIMENSÕES I 113 for especificado para todos os eventos A C S, então a probabilidade associada aos eventos no contradomínio de (X, Y) ficará determinada. Isto é, se B estiver no contradomínio de (X, Y), teremos P(B) = P{[X(s), Y(s)] E B} = P{si[X(s), Y(s)] E B}. Esta última probabilidade se refere a um evento em S e, conseqüentemente, de- termina a probab.ilidade de B. De acordo com nossa terminologia anterior, B e (si(X(s), Y(s)] E Bl são eventos equivalentes (Fig. 6.2). . Fig. 6.2 Se B estiver no contradomínio de (X, Y), teremos P(B) = LL p(x;, Yj), B (8.3) ~ (X, Y) for discreta, na qual a soma é feita para todos os índices (1:, })' para os quais (x;, y;) E B. E s.e (X, Y) for contínua. P(B) = Jf j(x, y) dr dy, B (6.4) EXim!plo 6.1. Duas linhas de produÇão fabricam um certo tipo de peça. Suponha que .a capacidade (em qualquer dia) seja 5 peças nà. linha I e 3 peças .na linha II. Admita que o número de peças realmente produzidas em qualquer lill;ha seja uma variável aleató- ria, e que (X, Y) represente a variável aleatória bidimensional quê fornece o número de peças produzidas Pela. linha I e a linha II, res- pectivamente. A Tab. 6.1 dá a distribuição de probabilidade êon- junta de (X, Y). Cada casa representa p(x;1 y;) = P(X = x;, Y = y;). Assim, p(2, 3) = P(X = 2, Y = 3) = 0,04 etc. Port:J.nto, se B for definido' como B = { l\fais peças são produzidas pela linha I que pela linha II l. encontraremos q)le P(B) = 0,01 + 0,03 + 0,05 + 0,07 + 0,09 + 0,04 + 0,05 + 0,06 + 0,08 + 0,05 + 0,05 + 0,06 + 0,06 + 0,05 = 0,75. 114 I .P.ROBABI,LID.ADE o 1 3 I 4 5 o o 0,01 0,03 0,05 0,07 0,09 1 0,01 0,02. 0,04 0,05 0,06 0,08 ~ 0,01 0,03 (o05 0,05 0,05 0,06 0,01 0,02 ~ 0,00 0,()6 0,05 . ' ,. Exemplo 6.2. Suponha que um fabricante de lâmpadM esteja interessado no número de lâmpadas encome~dadas a ele durante os meses de janeiro e fevereiro . . Sejam X e Y, respectiv!i.mente, o nú- mero de lâmpadM encomendadas durante esses dois meses. Admi- tiremos que (X, Y) seja uma variável . aleatória contínua bidimensio- nal, com a seguinte fdp conjunta (veja Fig. 6.3): .-.'::. ' ' .-'-- . ) . . . j(x, y) ~-~-\se 5.000 ::; x ::; 10.000 e .4.000 ::; y::; 9.000, = O · )para quaisquer outros valores. y -r------+-------~-----x x=5000 X= 10.000 !Fig. 6.3 Para determinar c, levaremos em conta o fato de que J +~ f+~ _.. _.. j(x, y) dx dy = 1. .... Por conseguinte, f_+ a> ;· +., 19,000 110.000 , ·. I j(x, y) dx dy = · f(x, y) dx dy = é[5.000]!. .. - ., 4.1100 5.00ll ·r ·l I I I I r I i ,. I ll !' 'I .. - ~ I ,, 'I' I' I i_ I I l I T -J I I V~I'!I~VEIS ALEATÓRIAS,, DE DUAS' OU MAIS Dli\I!ENSÕ~7,_1 1fs) f 'l~:::~nal?/, .. ,.? ,, __ ,, -<~'c ;Jl,, .~ ,,-, ,...,, '1 '·). , ,....-r .-;r-t;;/ ??·~/. )"l.,_, .. ,· s· i!'" 't !( . -"'~::s~ ..,'J.b_,~ f·'~f\ \< 1:...."'-:\Q, •. :/r:J c~· ..... t) Assirrr; -:~_:_,.(5~)?·-- Daí, se ~ ~ {X~ Yj, teremos l_ ' 1 1.9.00p J.ll P(B) = 1 - ··c ooo)2 _:. I ax ay {5. / 5.000 5.000 ~ 1 - ·- (~~~~) 2 J.:J00 [y- 5.ÓOOJ dy = . -~~ · . ~- 1 - Comentário: No Ex. 6-2, X e Y Jdevem, evidentemente, ser inteiras, porque não podemos encomendar um númerofracionário de. lâmpadas! No entanto, es- tamos novamente tratando com uma situação idealizada, na qual permitimos que X tome todos os valores entre 5.000 e/10.000 (inclusive). Exemplo 6.3. Suponhamos J que a var~ável aleatória contínua bidimensional (X, Y) tenha fdp Çonjunta dada por xy / f(x, y) = x2 + 3 , lo~ x ~ 1, O~ y ~ 2, = O para quais 1 quer outros valores. .f_+m Ir+"' Para verificar que - m i-., j(x, y) dx dy = I: 1:· [" f(x,y)~dy ~ A' J:' ( x' +i )a~ dy . = /i2 ~ + x2y 1"'=1 dy ; }~ 3 6, x=O = - + .Jf._ dy = - y + JL !J 2 ( 1 ) 1 21 2 I 3 6 3 12 Q 21 4 ' . . = 3 1+ 12 = 1. · Seja B ·=- {X-.; :Y'~ .i }. (Veik a Fig. 6.4.) . Deveremos calcular ' __ , - ' ' - . P(B) pela avaliação de' 1- P(Bf, on~e B ={X+ 'Y < 1'}. Portanto, P(B) ~ 1 1,- [l~~(x'+ ';)~y~ . I. . o . ,o y =II -.. ç [ x2(J - x) + x(l; x)2 J dx I )à . I ' 7 ·65 = ;1 - 72 = 72. i ' Ao dstudar variáveis aleatórias unidimen- \:-----"--x I . sionais, '{imos que F,' a função de distribuição acumulada, representava imp6rtante papel. No ! ' Fig. 6.4 116 I PROBABILIDADE .. {aso bidirnensionai, também · defínirnos urna função acumulada, dll> seguinte maneira: Definição. Seja (X, Y) uma variável aleatória bidimensional. A função de distribuição acumulada (fd) F da variável aleatória bi- dimensional (X, Y) é definida por F(x, y) = P(X ~x, Y ~ y). Comentário: F é uma função de duas. variáveis e tem múitas propriedades I!!.Ilálogas àquelas expostas. para a fd unidimensional. (Veja Seç. 4.5.) Menciona,.. remos somente a seguinte propriedade importante: Se F for a fd de uma variável aleatória bidimensional com fdp j, então I a2F(x, y)fax ay = j(x, y) sempre que F for derivável. Este resultado é análogo ao Teor. 4.4, no qual pro- vamos que (d/dx)F(x) = j(x), onde j é a fdp da variável aleatória unidímerisional X. 6.2. ·Distribuições de Probabilidade Marginal .e Condi- cionada .. . ' A cada variável aleatória bidimensional (X, Y) associamos duas . . ' variáveis aleatórias unidirncnsionais, a saber X e Y, individualmente. Isto é, poderemos· estar interessados na distribuição de probabilidade de X ou na distribuição de probabilidade de · Y:' Exemplo 6.4. Vamos . novamente considerar o Ex. 6.1. Em complementação às casas -da Tab. 6.1, vamos ta~bérn calcular os totais "marginais", isto é, a sorna das 6 colunas e 4 linhas da -tabola .. (Veja Tab. 6.2.) As probabilidades que aparecem nas margens, linha e coluna, representam a distribuição de probabilidade de Y e de X, respecti- vamente. Por exemplo, P(Y = 1) = 0,26, P(X = 3) = 0,21 · etc. Em virtude da forma de apresentação da Tab. 6.2, aludiremos, de modo muito usual, à distribuição marginal de X ou à distribuição marginal de Y, sempre que tivermos uma variável aleatória bidimeri~ sional (X, Y), quer discreta, quer contínua. o 1 o ,'oJ 0,01 1 0,01 0,02 2 0,01 0,03 3 0,01 0,02 Soma ' I' o;õl) I 0,08 ' Tab. 6.2 2 0,03 0,04 o 05 o:o4 0,16 3 o,os O,On 0,05 0,.06 0,21 4 5 Soma o 07 ,. 0,09 0,2.5 o:o6 o,os o,2o 0,0:> 0,06 0,2.i 0,06 0,05 0,24 0,24 1 0,2-i ,-1,00- í ;j ~ ! I I J I ' ,. I J ! I I .) VARIÁVEIS A LEATÓRIAS DE DUAS OU MAIS DIMENSÕES I 117 No caso discreto, procederemos assim: Desde que X = x; deve ocorrer junto com Y = Yi para algum i e pode ocorrer com Y = Yi somente para um j , teremos p(x;) = P(X = x;) = P(X = x;, Y = Y1 ou ~ = x;, Y = Y2 ou · ' · ) = t p(x;, Yi) ·, Je=l ,.- A função p definida para x1, x2, . . . , representa à distribuição de pro- babilidade marginal de X. Analogamente definimos q(yi) = P(Y = -~ Yi) = Li:l p(x;, Yi) como a distribuição de probabilidade marginal de Y. No caso contínuo, procederemos do segrnnte modo: Seja f a fdp conjunta da variável aleatória bidimensional continua (X, Y). Defi- niremos :g e · h, respectivamente as junções densidade de probabilidade marginal de X e de Y, assim: ! +"' ' g(x) = "' f(x, y) dy; Essas fdp correspondem às fdp básicas das variáveis aleatórias uni- dimensionais X e Y, respectivamente. Por exemplo ., P(c:::::; X::::; r1) .= P[c:::::; X:::::; d,- ."" < Y < oo] . = f J: "'I f(x, y) dy dx = _jd g(x) dx. Exemplo 6.5. Dois característicos do desempenho do motor de um foguete são o empuxo X e a taxa de mistura Y. Suponha-se que (X,' Y) seja uma variável aleatória contínua bidimensional com fdp conj~ta: . j(x, y) = 2(x + y - 2xy), O ::=::; x ::=::; 1, O _:::; y ::=::; 1, = 0,.· para quaisquer outros valores. (As unidades foram escolhidas de modo a empregú valores entre O e 1.) A fdp marginal de X é dada por g(x) = { 1 2(x + y- 2xy)dy 2(xy + y2/2- xy2)jÕ }o , 1, ' 0:::::; X :::::; ,1. Quer dizer, X é uniformemente distribmda sobre [0, 1]. < .. 118 I PROBABILIDADE A fdp marginal de Y é dada por h(y) = 11 2(x + y - 2xy) dx = 'l.(z2/2 + xy - z~y)jà = 1, O::;; y::;; L Portanto, Y é também uniformemente distribuída sobre [0, ll. Definição. Dizemos .que a . variável aleatória oontíi:ma bidinien~ sional é uniformemente distribuída sobre a região R do piano euclidiano quando · 1 · para (x, y) E R, · f(x, y) = cte o para qualquer outra região. Em virtude da condição f_+,"" f_+,"" f(x, y) dx dy = 1, a defini- ção acima acarreta que a constante será igual a l/área (R). Estamos supondo que R seja uma região com área finita, nã.o nula .. Comentário: ÉÍlsa definição represe.nt& o .análogO bidimensional da variável aleatória UIÚdimensional dístr\buida uniformemente .. Exemplo 6.6. Suponhamos que a variável aleatória (X, Y) seja uniformemente distribuúla sobre a região sombreada R indiçada na Fig. 6.5. Portanto, 1 f(x, y) = área (R) ' (x, y) E R. Encontraremos que . 1 1 1 . área (R) = (x- x1) dx = 6· Logo, a fdp será dada por f(x, y) = 6, =o, (x, y) E R, (x, y) EE R. y Fig. 6.5 Encontraremos as fdp marginais de X e Y, pelas seguintes expressões: g(x) = 1:"" f(x, y) dy = 1" 6 dy = 6(x - x 2), " O ::;; x ::;; 1; h(y) = /:'" f(x, y) dx = l..Jíi 6 dx = 6(yy- y), O~ y ~1. Os gráficos dessas fdp estão esboçados na Fig. 6.6. I. 1- ! ."I -i· I I •t '· I I g(x) h(_r) X=~ (I, O) (I , O) (a) (b) (6.5) ' I I ii T2() I P.ROBA!31L'IDADE:. A ftip de X condicionada a uin dado Y = y é definida por g(x I y) = J(x, y) h(y) ' h(y) >o. A fdp ·de Y condicionada a um dado X = x é definida por h(y I x) = -j(x, y) g(x) ' g(x) >O. (6.7) (6.8) C~rics: (a) AB fdp condicionadas, acima, satisfazem a todas as condi- !jOOS impostas para uma fdp unidimensional. Deste modo, para y fixado, nós teremos g(xiy) ~ O e !+~ 1· +~ jx 1 !+= h(y) , ·· g(xiy)dx = ~(' y)) dx = --,;--( ) j(x, y) dx = h[) = 1. ~ -<D . y y _, . y Um cálculo análogo pode ser feito para h(y lx). Dar; as Eqs. (6.7) e (6.8) definirem fdp em Rx e Ry; respectivamente. (b) Uma interpretação intuitiva de g(xiy) é obtida se considerarmos a su- perfície representada pela fdp conjunta j cortada ·pelo plano y = c, por exemplo. A interseção do plano com a superfície z = j(x, y) determinará uma fdp unidimen- sional, a saber a fdp de X para Y = c. Isto será justamente g(x I c). (c) Suponhamos que (X, Y) represente a estatura :e o peso de uma pessoa, respectivamente. Sejam j a fdp conjunta de (X, Y) e g a fdp marginal de X (sem lev!M' em conta Y). Portanto, fs.~· g(x) dx representaria a probabilidade do evento 15,8 .::':X.::': 6) sem considerar o peso Y. E fs.~· g(x 1150) dx seria interprets,da como P(5;8 .::': X.::': 61 Y = 150). Estiitainente falando, esta probabilidade c~n dicionada não é definida, tendo em vista nossa convenção já feita para a proba- bilidade condicionada, porque F(Y = 150) = O. Contudo, apenas empregamos a integral acima para definir essa probabilidade. .Certamente, em base intuitiva, este deve ser o significado desse número. Exemplo 6.8. Com refer~ncia ao Ex. 6.3, teremos g(x) = ( 2 (x2 + xy) dy = 2x2 + _!_ x, · ~o 3 3. 1 1 ( xy) ·y 1 h(y) = x 2 + - dx = - + - · 3 6 3 Portanto,x2+ :x;y/3 _ 6x2 + 2xy {?(xjy) = 1/3.+ y/6 - 2 + y 0 :::; X :::; 1, 0 :::; y :::; 2; h(ylx)= x 2 +xyf3 2x2 + 2/3(x) 3x2 + xy 3x+ y 6x2 + 2x = 6x + 2 ' 0 S y :::; 2, · 0 :::; X :::; 1. .i ( : . : VAIFUÁVE!S AlEATÓAHAS DE DUAS OU MAIS DBMENSÕES I 12~ Para verificar que g(x I y) é uma fqp, teremos (1 Gx2 + 2xy dx -- 2 + y -- 1 J 0 2 + Y . 2 + Y para todo y. Um cálculo semelhante pode ser feito para h(y I x). 6~3. Vatriáiveh~ A!earl:ória~ ! ndependent®s Exatamente da maneira pela qual definimos o conceito de inde- pendência de dois eventos, A e B, agora definiremos variáveis aleató- rias independentes. Intuitivamente, pretenderemos dizer que X e Y são variáveis aleatórias independentes quando o resultado de X, por exemplo, de modo algum influenciar o resultado de Y. Esta é uma noção extremamente importante e existem numerosas situações em que tal suposição é válida. Exemplo· 6.9. Consideremos duas fontes de material radioativo, a algUma distância uma da outra, as quais estão einitindo partículas a. Suponhamos que essas duas fontes sejam observadas durante um período de duas horas e o número de partículas emitidas seja regis- trado. Admitamos que se esteja interessado nas seguintes variáveis aleatórias: XI e x2, respectivamente o número de partículas emitidas pela primeira fonte durante a primeira e a segunda horas; e Yi e Y~, o número de partículas emitidas pela segunda fonte durante. a pri- meira e a segunda horas, respectivamente. Parece intuitivamente óbvio que {X1e Y1), ou (XI e Y2'), ou (X2e Y1) ou (X2e Y2) sejamtodoa os pares de variáveis aleatórias independentes; porque os Xi de~n dem somente das caracteristicas da fonte 1, enquanto os Yj dependem apenas das características da fonte 2, e não existe preaumivelmente motivo para supor que as duas fontes influenciem, de qualquer modo, o comportamento uma d~~, outra. Quando consideramos a possível independência de X 1 e X ll; no entanto, a questão não é assim tão nítida, Sem o mí.mero de partículas emitidas durante a segunda hora influenciado pelo número das que tenham sido emitidas durante & prim.eirn hora T Para responder a essa pergunta, deveremos obter informação adicional sobre o processo de emissão. Não poderíamos certamente supor, a priori, que X1 e X2 sejam independentes. V amos agorn tomar esa& noção intuitiva de independência mais precisa. Definição. (a) Seja (X, Y) uma variável a}e~~,t6ria discreta bidi- mensional. Diremos que X e Y são variáveis ale'at6rias independentoo se, e somente se, p(x., Yi) = p(Xi.)q(yi) para quaisquer i e}. !ato é, P(X = x;, Y = y;) =P (X = x;) P(Y = y;) pandodo i e j. i!! l:l li!. 122 I PROBABIUDADE (b) Seja. (X, Y) uma variável aleatória. contínua bidimensional. Ji Diremos que X e Y são variá.veis aleatórias. independentes se, e so- il mente se, j(x, y) = g(x)h(y) para todo (x, y), o~de f é a fdp conjunta, 1: e g e h são as fdp marginais de X e Y, respectiv~mente. li; r' Co171e1!Urio: Se compararmos a defini~8o acima .com aquela. dada para wenws 1 .1 1 independentes, a seiuelliança fica eviden:estamos .essencie.Imente exigi!'ido que a probabilidade conj'unta (ou édp conjunta) possa ser fato;ada. O teorema se- III guinte indica que a definiÇão acima é equivalente a outra maneira. de tratar o as- !jl sunto, que poderíamos ter adotado. ~ !~I Teorema 6.1. (a) Seja (X, Y) uma variável aleatória. discreta i\; .. bidimensional. Nesse cas. o, X e Y serão independentes se, e. so. me. n. te jl se, p(x; I y;) = p(x.) para todo i e j [ou, o que é. equivalente se, e somente ~ se, q(y; I x.) = q(y;) para todo i e j]. · ~· (b) Seja (X, Y) uma variável aleatória contínua bidimensional. ~. Nesse caso, X e Y serão independentes se, e somente se, g(xjy) = = g(x), ou equivalentemente, se e somente se,.h(y!x) =· h(y)1 para todo (x, y). Demonstração: Veja Probl. 6.10. Exemplo 6.10. Suponhamos que uma máquina.. ) seja utilizada para determinada . tarefa durante a manhã e para ·uma tarefa dife- rente durante ·a tarde. Representemos por X e Y, respectivamente, o número de vezes que a máquina. pára por desarranjo de manhã e à tarde. A Tab. 6;3 dá a distribuição de probabilidadé conjunta ' de (X, Y). . Um cálculo fácil mostra que, para todas as casas 'da. Tab. 6.3, teremos p(x;, y;) = !P(X;)q(y;). Portanto, X e Y são variáveis aleatórias independentes. (Veja também o Ex. 3.7, para comparação.) Tab. 6.3 ~ o 1 2 q(y1) o 0,1 0,2 0,2 .... 0,5 1 0,04 0,08 0,08 0,2 2 O,OG 0,12 . 0,12 0,3 p(x;) 0;2 0,4 . 0,4 1,0 ·, ::·. ) VARIÁVEIS ALEATÓRIAS! D-i:. DUAS Ol!.JMAIS DIMEi\I~ÕES I 123" I Exemplo 6.11. Sejam X e r a duração da vida ·de dois disposi- tivos eletrônicos. Suponha-se que sua fdp conjunta seja dada por I j(x, y) = e-<"'+1>, x :2: O, y :2: O. . . I Desde que podemos fatorarj(x, '!)) = e-e-:-'11, a independência de X e Y fica estabelecida. I I . Exemplo 6.12. Suponha-se que j(x, y) = 8xy,j O ~ x ~ y ~ 1. (Q domínio é in- dicado I pela região1 sombreada na Fig. 6.7). Muito !embora j seja (já) escrita na forma fatorada, X e Y não são independentes, já que o campo de definição t (x, y) 1 o ~ ~ ~ ~ y ~ ~ 1) é tal que para dado x, y pode to- "-------!'-----Jt mar soinente valores maiores do que aquele dado J! e menores ' que 1. Por isso, X e Y Fl·g 6 7 ~ - I · d d · t · · nao saç> m epen en es. ! I . Comentário: Da definição de distribuição de probabilidade margiri.al (quer no caso discreto, quer no caso contínJo) torna-se evidente que a distribuição de . I probabilidade conjunta determina, uniyocamente, a distribuição de probabilidade Úlarginat Isto é, do conhecimento df fdp conjuntá j, poderemos obter as fdp marginais g e h. No entanto, 1J. rec!ptoca nAo é verdadeira! De fato, em geral, o conhecimento das fdp marginais g e 'hl não determina a fdp conjunta j. Somente ·- qUji.Ildo X e Y forem independentes issô será verdadeiro, porque nesse caso teremos . I f(x, y) = g(x)h(y). i · · · . O teorema séguinte mostra que nossa definição de variáveis alea- t6ri8.'3 independentes é coerente cbm nossa d~fi~ção anterior de even- 1 . tos independentes. ! Teorema 6.2. Seja (X, Y) Jma variável aleatória bidimensional. Sej.am A e B eventos cuja ocorrência (ou não ocorrência) dependa apenas de X e Y, respectivamente. (Isto é, A é um-subconjunto---de . ! . . . Rx, : o contradomínio d~ __ X; enq~anto B--é um subconjunto de RY, o contradomínio de Y.) ;ElJ.tão, sf X e Y forem variáveis aleatórias independentes, teremos · P(A"() B) ._= P(A)P(B). .. . .. '-... ' ·. Demonstração (apen8.'3 para o c8.'3o contínuo): t· ··- - .. . ~ I - . P(A n B) = ff j(x,_y)! dx dy = }! g(x)h(y) dx dy 4nB : A..nB~ I = f g(x) dx_r h(y) dy = P(A)P(B) . . }A 'JB I IIi i'' ,!1 '•I il' ii I r I' I I I I I I r: 1: j; I ·I 124 I PROBAB8LIDADE 6,4,. Funções de Variável Aleatória Ao definir uma variável aleatória X, salientamos bastante que X é uma junção definida a partir do espaço amostral S para os nú- meros reais. Ao definir uma variável aleatória bidimensional (X, Y) estaremos interessados em um par de funções; X = X(s)) Y = Y(s), cada uma das quais é definida no espaço amosÚal de algum experi- mento e associa um número real a todo s ·E S, desse modo fornecendo·. o vetar bidimensional [X(s), Y(s).J. ' .. Vamos agora considerar Z = H 1(X, Y), uma função de duas variáveis aleatórias X e Y. Fica evidente que Z = Z(s) é também uma variável aleatória. Consideremos. a: seguinte seqüência de etapaS:· (a) Executar o experimento 8 e obter o resultado s. (b) Calcular os números X(s) e Y(s). (c) Calcular o número Z = H 1[X(s), Y(s)] . O valor de Z depende evidentemente de s, o resultado original do experimento. Ou seja, Z = Z(s) é . uma função que associa um número real Z(s) a todo resultado s E S . Conseqüentemente, Z é · uma variável aleatória. Algumas das importantes variáveis .àle·at6- rias, nas quais estaremos interessados, são: X+ Y, XY, X/Y, mín (X,Y), máx (X, Y) etc. O problema que resolvemos no capitulo ant~rior, para a variáve,l aleatória unidimênsional, surge novamente: dada .a distribuição de probabilidade conjunta de (X, Y), qual é a distribuição de probabili- dade de Z = H 1(X, Y)? (Deve ter ficado evidente, das muitas ex- planações ante~iores sobre este assunto, que .uma distribuição de pro- babilidade é induzida em Rz, o espaço amostral de Z.) Se (X, Y) for uma variável aleatória discreta, este problema estará resolvido bastante facilmente. . Suponha-se que (X, Y) tenha a distribuição dada nos Exs. 6.1 e 6.4. As seguintes variáveis alea- tórias (unidimensionais) poderão interessar à questão : U = mín (X, Y) = menor número de peças produzidas · pel~ duas linhas; V = máx (X, Y) = maior número de peças produzidas pelas . duas linhas; W = X + Y = número total de peças produzidas pelas· duas linhas. Para obter a distribuição de · probabilidade de U, procederelflOS como se segue. Os válores possíveis de U são: O, 1, 2 .e 3. Para · I~ ---~-- · - -~-----------~------~--------------~----------~----- VARIÁVEIS ALIEATÓRDAS DE DUAS OU MAIS iJIUMIENSÕES I 125 calcular P(U = O), raciocinaremos que U = O se, e somente se, um, dos seguirites ocorrer: X= O, Y =O ou X= O.Y = 1 ou X= O, Y = 2 ou X = O, Y = 3 ou X = 1, Y = O ou X = 2, Y = O ou X = 3, Y = O ou X = ( Y = O ou X= 5, Y = O. Portanto, P(U = O) = = 0,28. As outras probabilidades associadas a U podem ser obti- das de modo semelhante. · Daí, a distribuição de probabilidade de U poder ser assim resumida: u: O, 1, 2, 3; P(U = u)-: 0,28, 0,30, 0,25, 0,17. A distribuição de probabilidade das variáveis aleatórias V e W, .como definidas acima, pode ser ·obtida de maneira seme- lhante. (Veja Probl. 6.9.) Se (X; Y) . for uma variável aleatória bidimensional contínua e se Z = H 1(X, Y) for uma função contínua de (X, Y), então Z ser~ uma variável aleatória contínua (unidimensionai) e o problema de achar sua-fdp é um pouco m3i;··c~mpllcado. A fim de resolver este problema, precisaremos de um teorema que enunciaremos e expli- caremos a seguir. Antés de fazê-lo, vamos esboçar resumidamente · a idéia fundamental. Para procurar a fdp de Z = H 1(X, Y) é freqüentemÉmte mais simples introduzir uma segunda variável .. aleatória, por exemplo W = H 2(X, Y), e primeiro obter a fdp conjunta de Z e W, digamos k(z, w). Com o conhecimento de k(z, w), poderemos então obter a fdp de Z desejada, isto é, g(z), pela simples integração de k(z, w) com relação a w, ou seja, J +<c> g(z) = -m . k(z, w) dw. Os problemas restantes .são: (1} como encontrar a fdp conjunta de Z e W, e (2) como escolher a variável aleatória apropriada W = = H2(X, Y). Para resolver o último problema, devemos dizer que geralmente se faz a mais simples escolha possível para W. Nesta passagem, W possu! apenas papel intermediário, e não estamos real- mente interessá:dos nela em si mesma. A fim de encontrar a fdp conjunta de Z e W, temos necessidade do Teor. 6.3. Teorema 6.3. Suponhamos.que (X, Y) seja umay.ariável :iJeatória contínua bidimensional com fdp conjunta j. Seffm Z = H 1(X, Y) e W = H2(X, Y), e admitamos que as funções H 1 e H 2 satisfaça~ às seguintes condições: ( ' (a) As equações z = HI(x, y) e w = H2(x, y) podem ser univoca- mente resolvidas para x e y, em termos de z e w, isto é, x == Gi(z, w) · e y = G2(z, w). .. ! '] li ;I 126 l PROBABILIDADE (b) As derivadas pareiais éJxfàz, éJxféJU?, ÕyféJz e Õy/Õt~ existem e são continua.s. Nessa.s circunstâncias, a fdp conjunta de (Z, W), isto é, k(i; tiJ) · é dada pela seguinte expressão: k(z, w) = j[G1(z, w), G2(z; te)] I J(z, w) I; onde J(z, w) é o seguinte determinante 2 X 2: . ax ax i)z ·aw J(z, w) éJy éJy é)z aw Este detenninan te é denominado o Jacobiano da transformação (x, y)--> (z, w) e, ~gumas vezes, é denotado por éJ(x, y)/éJ(z, w) . . Sali- entamos que k(z, w) será. não-nula para aqueles valores de (z, w) cor- respondentes a valores de (x, y) para os quais j(x, y) não seja nula. y (a} z (b) Fig. 6.8 ·, ComentárÍO$: (a) Muito embora não demonstremos este teorema, indic&- remos ao menos o que se deseja e onde residem as dificuldades. Consideremos a fd conjunta da variável aleatória bidimensional (Z, W), isto é, . ) . j'" j' K(z, w) = P(Z ~ z, W ~ w) = _ ~ . _ ~ k(s, I) ds dt, na. qual k é a fdp procurada. Como se supõe que a transformação (x, y) _, (z, w) seja .biunívoca [veja a hipótese (a), acima], poderemos achar o evento, equivalente a {Z 5. z, W ~ wl , em ·termos de X e Y. Suponhamos que este evento seja de.notado por C. (Veja. a Fig. 6.8.) Sendo assim, {(X, Y) E C} se, e somente se, .IZ ~· z, W ~ w} • Conseqüentemente, f ,. f' k(s, t) ds dt = { 1• j(x, y} dx dy ... co -co }c· Como se admite j conhecida, a integral do segundo membro pode ser calculada. O cálculo de suas derivadas em relação a z e w fornecerá a. fdp pedida. Na maior pe.rte dos manuais de Cálculo avançado, mostra-se que essas· ~nicas conduzem oo resultado, tal como foi enunciado no . teorema. acima.. I I . VAR1ÃVEIS ALEATORIASIDE DUAS ou MAIS DIME~SÕIES I 121 (b) Observe-se a acentuada semelhança entre o resultado acima e o res)ll- tado obtido no caso unidimensiop.al, l explicado no· capítulo anterior .. (Veja o Teor: 5.1.) A .exigência de monotonicidade para a função y = H(x) é substituída pela suposição de que a co~respondênciJ entre (x, y) e (z, w) seja biuruvoca. A con- diçã~ .de de~va.bilidade é s~b~tit~ída J po~ algumas hipótese~ sobre as der~vadas parmrus consideradas. A soluçao f10al jobt1da é, também, mm to semelhante aqqela . o:btids. no csso unidimensional: as var,iáveis x e y são simplesmente substituíd:JS por ·suas expressões equivalentes em termos de z e ·W, e o valor absoluto de dxfdy é substituído pelo .valor· absoluto do J ~cobiano. ' · Elemplo 6.13. Suponha-se que esteja- y Fig. 6.9 mos f~zendo mira em um alvo circular, de raio ~tário, que 'tenha sitio colocado de modo ~ue sim ce~tro se situe na origem . de um I sistema de coordenadas retangulares (Fig. 6l9). Admita-se que as coordenadas (X, Y) Ido ponto de impacto estejam unifor~ ni.eme,te distribuídas sobre o círculo. Isto é, J(l' y) = 1/';r, se (x, y) estiver dentro (ou . nai circunferência) do ~írculo, · . j(l , y) =O, se ,em qualquer outra parte. Suponha-se que estejamos inte~ados na variável aleatória R, que representa a distância da origem. (Veja : a Fig. · 6.10.) Então, R':' V X 2 + Y2• Encontraremys a. fdp de R, digamos . g, assim: SeJa <I> = tg:-1 (Y/X). Portanto, X= H 1(R; <I>) e Y = H 2(R, <I>), I ' onde x = H1(r, cp) = r cos cp e y = H2(r, cp) = r sen cp. (Estdios I apenas introduzindo coordenadas polares.) i r 1 1--·---,---------.·(27r, 1} "···· I. Fig. 6.10 O jacobiano é J= ax acp cos 1> T ;! I sencp . I = r cos2 cp +r seri2 cp = r. . I Fig. 6.11 -r sen cp J r cos 4> I • <I> Pelá transformação acima, o círc~o unitário no plano xy fica trans- formado no retângulo no plano cfJ,r, na Fig. 6.11. Em conseqüência, ' · I I 128 I PROBAB!IUDADE a fdp conjunta de (<I>, R) será dada por r g(cp, r) = O::::; r::::; 1, 11"' Portanto, a fdp de R, pedida, e que vamos denÓtar por h; é dada por {2"' h(r) = }o g(cp, r) dcp = 2r, O::::; r::::; 1. Comentário: Este exemplo salienta a importância de obter-se uma represen- tação precisa da região dos valores possíveis para as novas variáveis · aleatórias introduzidas. · 6.5. rDistribu içãío do !Produto e do Quociente de Variá- vais Aleatórias: _Independentes_ __ _ Dentre as mais importantes funções de X e Y que desejamos examinar; estão a soma S = X + Y, o produto W = XY e o quo- ciente Z = X/Y. Poderemos empregar o método apresentado nesta seção para obter a fdp de cada uma dessas variáv~is aleatópas, sob condições bastante gerais. No Cap. 11, estudaremos a soma de variáveis aleatórias m'l'it'o minuciosamente.- Por isso, adiaremos para aquela ocasião o estudo da distribuição de probabilidadede X + Y. Consideraremos, en- tretanto, o produto e o quocl.ente nos dois teoremas seguintes. Teorema 6.4. Seja (X, Y) · uma variável aleatória contínua bidimensional e admita-se que X e Y sejam independentes; Conse- qüentemente, afdp jpodeser escritacomoj(x, y) = g(x)h(y) . Façamos W ~ XY. Nesse caso, a fdp de W, digamos p, é dada por p(w) = 1:= g(u)h{:) I ~ I du. (6.9) Demonstração: Sejam w = xy e u = x. Portanto, x = u e y = wfu. O jacobiano é o 1 u 1 u VAFIDÃVIEiS ALEATÓRiAS DE DUAS OU MADS DDMIIEI\!SÕIES I 12!!J Dai, a fdp conjunta de W = XY e U = X é s(w, u) = g(u)h (:) l ~ I A fdp marginal de W será obtida pela integração de s(w, u) em relação a u, fornec~ndo o resultado procurado. Os valores de w, para os quais p(w} > O, dependerão dos valores de (x, y) para os quais j(x, y) >O. · Comentário: Para calcular a integral acima, poderemos nos basear no fato de ·que ~ Exemplo 6.14. Suponhamos que temos um circuito no qual tanto â corrente I como a resistência R variem de algum modo alea- tório. Particularmente, suponhamos que I e R sejam variáveis aleatórias continuas independentes com as seguintes fdp: I: g(i) . = 2i, O .:::; i .:::; 1 e O fora desse intervalo, R: h(r) = r 2/9, O .:::; r .:::; 3 e O fora desse intervalo; A variável aleatória que-interessa é E = IR' (a tensão no circuito) . Seja p a fdp de E. Pelo Teor. 6.4, teremos (' Algum cuidado se deve tomar -ao calcular-se esta integral. Primeiro, observe-se · que a variável de int~gr~ção não pode tomar valores nega- tivos. Segundo, observe-se que a fim de que o integrando seja posi~ · tivo, ambas as fdp que aparecem no integrando devem ser positivas . . Atentando,para os valores para os quais g e h não sejam iguais a zero, verificaremos que as seguintes condições devem ser satisfeitas: e O .:::; e/i .:::; 3~ Essas duas desigualdades são, por sua vez, equivalentes a e/3 .:::; i .:::; 1. Por isso, a integral acima se torna igual a j..J . ... u t rnUI:SAMILIDADE. 2 = g-e(3- e), Um cálculo fácil mostra que ./o 3 p(e) .de = 1. (Veja a Fig. 6.12.) e=~ (3, O) Fig. 6.12 Teorema 6.5. Seja (X, Y) UII).a variável .aleatória bidimensional · contínua e suponhamos que X e Y sejam independentes. [Portanto, a fdp de (X, Y) pode ser escrita como j(x, y) ~ · g(x)h(y).] ·Seja Z = X/Y. Deste modo, a fdp de Z, digamos q, será dada por . + q(z) = 1"'"' g(vz)h(v)lvldv. (6.l0) . Demonstração: Seja!Il z = ·xfy e v = y. Portanto, x = vz e y = v. O jacobiano é J =I~ .z I 1 = .v. Daí a fdp conjuntâ de Z = X/Y e V = Y ser igual a t(z, v) = g(vz)h(v) I vi. Integrando esta fdp conjunta em relação a v obtém-se a fdp margi- nal de Z procurada. · Exemplo 6.15. Admita-se que X e Y representem a duração da vida de duas lâmpadas fabricadas por processos diferentés. Supo- nha-se que X e Y sejam variáveis aleatórias independentes, com fdp respectivamente f e g, onde f(x) = e..:r:, : g(y) = 2e-2v, x 2:: O, e O para outros .quaisquer valores; y 2:: O, e O para outros valores. Poderia · nos interessar a variável aleatória X/Y, que· 1representa o quociente das duas durações de vida. Seja q a fdp deZ. . r+ Pelo Teor. 6.5 temos que q(z) = J-.,"' g(vz)h(v) fv I dv. Porque X e Y podem tomar somente valores não-negativos, a integração a.cima precisa ser feita apenas sobre os valores positivos da variável VARIÁVEIS ALIEATÓFUAS IDE DUAS OU MAiS DIMENSÕES I 1J1 de integração. Além disso, o int~grando será positivo somente quan- do ambas as fdp que aparecem sejam positivas. Isto significa que deve- remos ter v ;;;. O e vz ;;;. O. Visto :que z >O, e~sas desigualdades deter- minam que v ;;;. O. Portanto a exprpssão acima se torna q(z) Fig. 6.13 I q(z) = 1m e-·· 2e-2~ v dv = I I m i = 2 1 ve -•<2+•> dv. Uma integração por partes, fácil, fornece 2 q(z) = (z + 2)2 ' z 2': o. I (Veja a Fig. 6.13.) Constitui no~amente · um exercício fácil verificar que fo m q(z) dz = 1. 1 I 6.6. Variáveis Aleatórias! n-Dimensionais I . Até aqui, nossa exposição se restringiu completamente a variá- . . I . . veis aleatórias bidimensionais .. !No entanto, como apontamos no iníCio deste capitulo, poderemos ter de tratar com três . ou mais carac- terísticas numéricas simultâneas. I ' Faremos apenas uma brevfu,sima expos1çao de variáveis alea- tórias n-dimensionais. A maio~ parte dos conceitos introduzidos acima para o caso bidimensional ~ode ser estendida para o caso n-di- mensional. Nos restringiremos ad, caso conthluo. (Veja o Comentário no fim deste capitulo.) Suponhamos, a seguir, que ~X1, ... , Xn) possa tomar todos os valores em alguma região de uni espaço n-dimensional. Isto é, esse valor é um vetor n-dimensional.l I [XI(s),. ! .. , Xn(s)]. Caracterizaremos a distribuição: de probabilidade de (X 11 • •• ,X!') . I da seguinte maneira: . 1 ·Existe uma função densidaqe de probabilidade conjunta f qu,e satisfaz às seguintes condiÇõ~: : (a) j(x1, . .. , Xn) 2': O, para tddo (x1, ... , Xn). f_ +m J_+m I ) _ (b) -m • • • -a; j(x1, ... , Xn dx1 .. . dXn- 1. I 132 I II"ROiflAIBBUDADIE Com o auxílio desta fdp definimos P[(Xh- . . , Xn) E C]= (. · ·_ff(xl,·· . . , Xn) dx1 .. . dxn; c . onde C é um subconjunto do contradomínio d~ (X 1,. ; . ,X;.). A cada uma das variáveis · aleatórias n-dimensionais, poderemos associar algumas variáveis aleatórias de dimensão mais baixa. Por exemplo, se n = 3, . então. onde g é a fdp marginal da variável aleatória l]nidimensional X3, enquanto onde h representa a fdp conjunta da variável aleatória bidimensional (X1, X~) etc. O conceito de variáveis aleatórias independentes será tàmbém estendido de maneira natural. Diremos que (X 1, ... ,Xn) serão variáveis aleatórias independentes se, e somente se, sua fdp conjunta j(x1, . •• , Xn) puder ser fatorada na. forma Existem muitas situações nas quais desejaremos considerar va- riáyeis aleatórias n-dimensionais. :barerrí~s al!Slills ex.:e~plos. (a) Suponha-se que estejamos a estudar o padrão de precipi- tação decorrente· de um particulàr sistema de tempestades. · Se tivermos uma rede de, digamos, 5 estações de observação e se admi- tirmos que x, é a precipitação na· estação' i, devida a um particular sistema de· fre~tes de chuva, desejaremos considerar. a variável aiea- tória a 5-dimensões (X1, X2, x3, x4, X6)- (b) Uma das mais importantes aplicações de variáveis aleató- rias n-dimensionais ocorre quando tivermos de tratar com mensura- ções repetidas de algwria variável aleatória· X. Sup<:>nha-se que se deseje informação sobre a duração· da vida, X, de uma :válvula ele- trônica. Um grande número dessas válvulas é produzido por determi- nado fabricante, e ensaiamos n dessas válvulas. Seja x, a duração da vida da i-ésima válvula, i= l, ... , n·. Portanto, (Xr, .. . , Xn) é uma variável aleàtória n-diinensional. Se admitirmos que cada. X; tenha a mesma distribuição de prohabilidade (porque todas as VARIÁVEIS ALEATÓRIAS DE DUAS OU MA8S DIMENSÕES I 133 válvulas são produzidas da mesma maneira), e se admitirmos que as X; sejam todas variáveis aleatór~as independentes (porque, presu- me-se, a fabricação de uma válvula não influencia a fabricação das outras válvulas), poderemos supor que a variável aleatória n-dimen- sional (X 1, ••• , Xn) seja .composta pelos componentes independentes, de idêntica distribuição de probabilidade X h ... , Xn. (É óbvio que, muito embora xl e x2 tenham a mesma distribuição, eles não precisam tomar o mesmo . valor.) (c) Outra maneira, pela qual surgem variáveis aleatórias n-di- mensionais, é a seguinte: admita-se que X(t) represente a potência exigida por uma certa empresa industrial, na época t. Para t fixado, X(t) será uma variável aleatória unidimensional, Contudo, podtJ- remos estar illteressados em descrever a potência exigida em n deter- minadas-épocas especificadas, digamos t1 < t2 < ... < tn.: Portanto, desejamos estudar a variável aleatória n-dimensional Problemas deste tipo são estudados em nívelmais adiantado. (Uma . referência excelente para este assunto é "Stochastic Processes", por Emanuel Par2;en, Holden-:bay, São Fr~ncisco, 1962.) . I Comentário: Em vários pontos de nossa exposição, mencionamos o conceito de "espaço n-dimensional". Vamos resumir alguma· coisa das idéias fundamen- tais a respeito. · .A cada número realx, podemos associar um ponto na reta dos números reais, ~; e reCiprocamente.· Semelhantemente, a· cada pa•r de números. reais (x1, x2), po- demos associar um ponto no plano de coordenadas retangulares, e reei procamente. Finalmente, a cada conjunto de três números reais (xt, x2, x3), podemos associar um ponto no espaço de coordenw:las retangulares tridimensional, e reciprocamente. Em muitos dos problemas que nos interessam, tratamos corri um conjunto de n números reais, (xt, x2, ... , Xn), também denominado. uma ênupla. Muito · embo~a não possamos desenhar ql)alquer esboço se n > 3, podemos continuar a l;l.dotar a .terminologia geométrica, como sugerido pelos casos de menor número de dimensões mencionados acima. Deste modo, falaremos de um "ponto" no espaço n-dimensional determinado pela ênupla. (Xt, ... , x,) . Definimos como espaço n (algumas vezes denominado espaço n euclidiano). o conjunto de todo {x1, ... , Xn), onde x; pode ser qualquer número real. . Conquanto não necessitemos realmente de calcular integrais n-dimensionais, verificamos que . esse é um conceito muito útil e, ocasionalmente, precisaremos exprimir uma quantidade por uina integral múltipla. Se nos lembrarmos da de- finição de J J j(x, y) dx dy, A .... 134 I PROBABIUDADE na qual A é uma região no plano (x, y), então a extensão deste conceito a f · · · f J(xl, ... , x,.)dx1 . .• dxn, R na qual R é uma região .no espaço n, ficará evidente. Se j representar a fdp con- junta da variável aleatória bidimensional (X, Y), teremos que f f f(x, y) dx dy .A representará a probabilidade P[(X, Y) E A]. Semelhnntcmente, se j representar a fdp conjunta de (X 1, ... , Xn), então f · · · f j(x1, . .• , Xn)dXl' · ·dr.,. R representará . P[(XJ, ... , Xn) E R]. Problemas 6.1. Suponha que a tabela seguinte represente a distribuição de probabili- dadE; conjunta da variável aleatória discreta (X, Y). Calcule todas as distribui- ções marginais e as condicionadas. ~ 1 2 3 - 1 1 1 o -- 12 6 2 o 1 1 - 9 5 " 1 1 2 " - - -IS ~ 15 6.2. Suponha que a variável aleatória 'bidimensional (X, Y) tenha a fdp conjunta .f(r, y) k:r(x - y), O < x < 2, - x < ~ < :r:A O, para outros quaisquer valores. (a) Calcule a constante k : (b) _!\çh~ ; _fdp marginal de X. E~~-- -~~~~-~- idP ~~gmãf~ 6.3:-··supmlmí que a ídp conjunta da variável aleatória bidimensional (X, Y) seja dada por f(:r, y) x2 + x: , O < x < 1, O < y < 2, O, para quaisquer outros valores. l ·j l J; ~- VARIÁVEiS ALEATÓRIAS DIE DUAS ou MAUS DIMENSÕES I 135 (b) P(Y < 'f.l· l.(<) P(Y >HX <·lJ. Calcule o seguinte: (a) P(X):> !). :.···· . 6.4. Suponha que duas cartas sejam tiradas ao acaso de um baralho de cartas. Seja X o número de azes obtido! e seja Y o número de damas obtido. (a) Estabeleça a distribuição de propabilidade conjunta de (X, Y). (b) Estabeleça a distribuição margiilal de X e a de Y. (c) Estabeleça a distribuição condiéionada de X (dadoY) e a: de Y (dado X). 6.5. Para que valor de k, a expressãb j(x, y) = ke -(Xi;Y) é' a fdp conjunta de (X, Y), m:>bre a região O < x < 1, O < y !< 1? · ! 6.6. Suponha que a variável aleatória bidimensional . contínua (X, Y) seja uniformemente distribui da sobre o quadra4o cujos vértic~s são ( 1, 0), (0, 1),. (- 1, 0) e (0, - 1). Ache as fdp marginais de X e de Y. . 6.7. Suponha que as dimensões, X J Y, de uma chapa retangular de metal, · possam ser consideradas variáveis alcatória!f contínuas independentes; com as s·e- gtÚntes fdp: I X: g(x),., x- 1, 'j 1 <x.S2, -X + ?• 2 < X < 3; := O, para'l quaisquer outros valores .. . Y: h(y) = !, 2 < y < 4, . = O, parai quaisquer outros valores. Ache e. fdp da área da chapa, A = XY. 6.8. Admi~ que X represeri.te a du~ação da vida de um dispositi\l'o eletrô- nico e suponha que X seja uma variável al~atória contínua com fdp j(x) = l.~?O , 1. x > ÚOO, = O, para I quaisquer outros valores. Sejam X 1 e X 2 dua.S<tletenninações independentes da variável ale~tória X acima. · (Isto é, suponha que estejamos ensaiando ~ dura~ da yida de dois desses dispo- sitivos.) Ache a fdp da variável aleatória 1 1 z = XI!X2. 1 • . I I 6.9. Obtenha a distribuição de probaJ?ilidade das variáve s aleatórias. V e W, introduzidas na Pág. 124. ' . 1 6.10. Demonstre o Teor. 6.1. f~rça magnetizante II no .. ponto P, dis- Fig. 6.14 6.11. A ' tante X unidades de um condutor que. conduza uma. corrente I, é d4a por H = 2!/X. (Vej~ a Fig. 6.14.) Suponh!l- que R seja um ponto móvel, isto é, X seja uma variável aleatória contínua uniformemente distri- ·• ; •. buída sobre (3 ) 5). Suponha que. a corrente I seja também uma :Variável aleatória contínua, uniforme- mente distribuí!ia sobre (10, 20). Suponha, · \l-(lemais,· I , .. ' que as variáveis aleatórias X e· I sejam independeiites. Estabeleça a fdp da variável aleatória I!. 136 I ll"ROBABUUIDAIOIE 5,12 •. A intensidade luminose. em um dado ponto é dada pele. expressão I = C/Ifl, na qual C é o poder luminoso da fonte e D é & ·distância dess& fonte &té o ponto d!!.do. Suponha que C seja. uniformemente distribuída 8obre (1, 2), enquanto D sej& um& .variável &leatóri& contínua com fdp f(d) = cd, d > O. Ache e. fdp de I, · admitindo que C e D sejam independentes. (Sugest/lo: Primeiro ache a · fdp de D2 e depois aplique. os res\]ltiM!os de:ite capítUlo.) 6.13. Qwtndo umil. corrente I (&mperes) pllSS& &través de um resistor R (ohms), a potênci& gerada é de.de. por W = PR (watts). Suponha. que i e R sejam v&riáveis aleatórii!S independentes, com I!S seguintes fdp: I: j(i) = 6i( l - t), O~i~ 1, = O, para quaisquer outros valores. R: g(r) = 2r, . O < r < 1, = O, para quaisquer · qutros valores. Determine e. fdp de. variável aleatória W e esboce seu gráfico. 6.14. Suponha que a fdp conjunt&-de (X, Y) seja dada por j(x, y) = e-:111 para. z > O, y > x, =- O, para. quaisquer outros valores. (a) Ache a fdp marginal de X. (b) Ache a fdp marginal de Y. (c) Calcttle a. P(X > 21 Y < 4). Caracterização Adicional das Variáveis Aleatórias Capí"tulo 7 7.1. O Valor Esperado de uma Variável Aleatória Considere-se a relação determinística ax + by = O. Nós a reconhecemos como uma relação linear entre x1 e y. As constan- tes a e b são os parâmetros dessa relação, no sentido de que para qual- quer escolha particular de a e b obtemos uma função linear específica. Em outros casos, um ou mais parâmetros podem catacterizar a re- lação· em estudo. Por exemplo, se y = · ax2 + bx + c, três parâ- metros são necessários. Se y = e-kz, uin parâmetro é suficiente. Não somente uma particular relação é caracterizada pelos parâme- tros, mas, inversamente, a partir de um_a certa relação podemos defi- nir diferentes paràmetros pertinentes. Por exemplo, se ay + bx = O, , __ , então m = - b/a representa a declividade da reta. Também, se y = · ax2 + bx + c, então - bf2a representa o valor para o qual ocorre um. máximo relativo ou um mínimo relativo. Nos modelos matemáticos não-determinísticos ou aleatórios, que temos considerado, os parâmetros podem, também, ser emprega- dos para caracterizar a distribuição de probabilidade. A cada dis- tribuição de probabilidade, podemos associar certos parâmetros, os quais fornecem informação valiosa sobre a distribuição (tal como a declividade de uma reta fornece informação valiosa sobre a relação linear que representa). Exemplo 7.1. Sup~:mha que X seja uma variável aleatória con- tínua, com fdp j(x) = ke--Í"", x Z O. Para verificar que esta expres- são constitui uma fdp, observe-se que fo m ke--1= dx = 1 para tod~ k > O, e que ke-lcx > O para k > O Esta distribuição é denomi-nada uma distribuição exponencial, a qual estudaremos !nimiciosa- mente mais tarde. Ela é uma distribuição especialmente útil para 138 I PROBABILIDADE ·· representar a duração da vida X, de certos tipos de equipamentos ou componentes. A interpretação de k, nesse contexto, também será explicada depois. Exemplo 7.2. Admita-se que peças sejam produzidas indefini- damente em uma linha de montagem. A probabilidade de uma peça ser defeituosa é p, e este valor é o mesmo para todas as peças. Su- ponha-se, também, que as sucessivas · peças sejam defeituosas .(D). ' ou não-defeituosas (N), independentemente umas das <mtras. Seja a variável ale.ató:tia X o número de peças inspecionadas até que a primeira peÇa defeituosa seja encontrada. Assim, um resultado típico do experimento seria da forma NNNND. Aqui X(NNNND) == = 5. Os valores possíveis de X são: 1, 2, ... , n, . . . · Já que X= k se, e somente se, 'as primeiras (k - 1) peças forem não-defeituosas e· a k-ésima peça for defeituosa, atribuiremos a seguinte probabilidade ao evento {X = ic') : P(X = k) = p(1 - p)"-1, k = 1; 2, ... n, ... Para verificar que esta é uma. legitima distribuição de probabilida- de, observemos que · ~ ~ E p(1 - p)k-1 = pf1 + (1 - p) + Cl- p)2 + ... J lc- 1 . 1 = p 1 _ (1 _ P) = 1 se O < I p I < 1. Por isso, o. pa~âmetro p pode ser qualquer número satisfazen,do O<p<l. Suponha que uma variável aleat6ria e sua distribuição de pro- babilidade sejam especificadas. Existirá alguma maneira de carac- · terizar-se essa distribuição em termos de alguns parâmetros numéricos adequados ?_ Antes de nos dedicarmos à questão acima, vamos mot~var nossa explanação com o estudo do exemplo seguinte. Exemplo 7.3. Uma máquina de cortar arame corta o arame con- forme um comprimento especificado. Em virtude de certas i~preci sões do mecanismo de corte, o comprimento do .arame cortado · (em polegadas), X, pode ser considerado como uma variável aleatória · uniformemente distribuída sobre [11,5i 12,5]. . O comprimento espe- cificado é 12 polegadas. Se 11,7.:5 X < 12,2, o ararrie pode ser ven- dido com um lucro de US$ 0,25. Se X ~ 12,2, o arame pode ~er recortado, e um lucro eventual deUS$ 0,10 é obtid(). E se X< 11,7, o arame é refugado com uma perda de· US$ 0,02. Um cálculo fácil mostra que P(X;:::: 12,2) = 0,3, Pcll,7 .:5 X <- 12,2) = 0;5, e P(X < < 11,7) = 0,2. ~~-~·· ~--~---------------------------------------- i ' , . ·' ,'} I CARACTERIZAÇÃO ADiCiONAl DAS VARIÁVEIS ALEATÓRIAS / ' 139 ! l Supónha-se que um grande númfro" de peda,ços de. a~ame tenha sido cortado, digamos N. Sejam Ns l o número de pedaços para os quais X < -11,7, NR o número de ped~ços para os quais 11,7.:::; X< 12,2, e N L o número de pedaços paA ·os quais X ;::: 12,2. Daí, o lucro l ' ' total obtido da produção de N ~edaços é igual a T = N s(- 0,02) + + N R(0,25) + N L(O,lO). O lucro total par pedaço de arame cortado, digamos W, é igual a W ,;,[ (N s/N) (- 0,02) + (N R/N) (0,25) + + (N L{N) (0,1) . (Observe-se qu~ W é uma variável aleatória, porque N s, N R e N L são variáveis aleatótias.) . I · Já mencionamos que a freqüência relàtiva de um evento é pró- xima da probabilidade desse:...evebto, se o núm~ro de repetições sobre I o qual a freqüência relativa foi I baseada for grande. , (Explicaremos isto mais precisamente no Cap. 12.) Portanto, se ' N for grande, poderemos esperar que Ns/N seja próxima de 0,2, NR/N seja pró- xima de 0,5 e N L/N seja próxin\.a de 0,3. • Logo, para N grande, I W pode ser calculada aproximadamente como segue: ' . . i . . W ~ (0,2) (- 0,02) + (0,5) (0,25) + (0,3) .(0,1) = US$ 0,151. ! . ' . ~ I Deste modo, se um grande número de pedaços de arame for produ- zido, esperaremos conseguir um I lucro de US$ 0,151 ·por pedaço de arame. O número 0,151 é denhminado valor esperado da. variável I , aleatória ·w. i I Definição. Seja X wna variável aleatória discreta, com valores possíveis x1, ••• , x,. . . . Seja p(~) = P(X = x;), i = 1, 2, ... , ~ ... . Então, o valor esperado de X (ou esperança matemática de X), deno- tado por E(X) é definido como I . E(X) = E x.p(x.), ti'=l ! (7.1) se a série 2: xi p(xD convergir absolutamente, isto é, se i= 1 I 00 i 2: lxlip(x·)< oo. i= 1 IÍ I Este número é tam:bém denofninado o-valor médio de X, ou expec- idncia de X. 1 I Comentários: (a) Se X toÍnar apedas um número finito de valores, a expies-i ' ' são aGima se torna E(X) = L~=l p(Xi)fi. Isto pode ser considerado-como I1.Dlll. "médi!r.. ponderada" .dos valores poss!v~is a:~o ... , z,. Se todos esses valores pos- síveis forem igualmente prováveis, E(JÍt) = (1/n) L~=l x., e. ·qual r~p!esenta ~ média aritmética simples ou usual dos ~ valores possíveis. I I '"i 140 I I'ROBABDUDA DIE (b) Se um dado equilibrado for jogado e a variável aleatóna X designar o número de. pontos obtidos, então E(X) = (1/6) (1 + 2 + 3 + 4 + 5 + 6) = 7/2. Este exemplo simples ilustra, nitidamente, que E(X) não é o resultado que podemos esperar quantia X for observado uma única vez. De fato, na situação anterior E(X) = 7/2 nem mesmo é um valor possível de X! Fica evidente, porém, que se <Jbtivermos um grande número de observações independentes de)(, digamos X!J ... , Xn, e calcula.rmos a média aritmética desses resultados, então, sob condi- ções bastante gerais, a média aritmética será próxima de E(X), em um sentido pro- babilístico. Por exemplo, na situação acima, se jogássemos o dado um grande número de vezes e depois calculássemos a média aritmética dos vários resultados, .esperaríamos que essa média ficasse t~nto, mais próxima de 7/2 quà.rito maior nú- mero de vezes o dado fosse jogado: . ' (c) Devemos notar a semelhança entre a noção de valor esperado, como foi -definida acima (especialmente se X puder tomar somente um número finito de .zy-alores), e a noção de média de um conjnnto de números z1, . . . , Zn . Comumente definimos z = (1/n) L~= l z.;. como a média aritmética dos números z1, . .. , Zn. Suponhamos, ademais, que tephamos números z1', ... , Zk1 , onde z.;.' ocorra 14 vezes, L7=l n; = n. Fazendo' fi= n;/n, L7= 1 f; = 1, definimos a média pon- derada dos números z1', . . • , z~' cpmo . ~\ \ . I k ' I kl \ 1; """' I . ~ f ,;, --, .L.J 74Zi = \ . 2.) iZi •• ·. : n;:i=l' i · \:\i=Il ( Muito embora exista Uma forte · semelhança entre a média pon- derada acima e a definição de E(X), é importante cumpreender q~e a última é um número (parâmetro) associado a uma distribuiç~o de probabilidade teórica, enquanto a primeira é simplesmente o resul- tado da combinação de um conjunto de numeras em uma forina par- ticular. Contudo, existe mais do que apenas uma semelhança su- perficial. Considere-se uma variável aleatória X e sejam x1, . .. , Xn os valores obtidos quando o experimento que origina X for realizado n vezes independentemente. (Isto é, x 1, • • • , Xn apenas representam os resultados de n mensurações repetidas da característica numérica X.) Seja x a média aritmética desses n números. Então, como eXplica- ' remos muito mais precisamente no Cap. 12, se n for suficientemente grande, x será "próxima" de E(X), em certo sentido. Este·. resul- tado é bastante r.elacionado à idéia (também a ser explicada no Cap. 12) de que ~ freqüência relativa j A associada a n repetições de um ex- perimento será próxima da probabilidade P(A) se f A Jor baseada em um grande número de repetições de 8. Exemplo 7.4. Um fabricante produz peças tais que 10 por cento delas são defeituosas e 90 por cento são não-defeituosas. Se uma peça defeituosa for produzida, o fabricante perde US$ 1, en- quanto uma peça não-defeituosa lhe dá um lucro de US$ 5. Se X CARACTERIZAÇÃO ADDCIONAL DAS VARIÁVEiS AlEATÓRiAS I 141 for o lucro liquido por peça, então X será uma variável aleatória cujo valor esperado é calculado como E(X) = - 1(0, 1) + 5(0,.9) ~ = US$ 4,40. Suponha-se que um grande número de tais peças seja produzido. Nesse caso, quando o fabricante perder US$1cerca de 10 por cento das vezes e ganhar US$ 5 cerca de 90 por cento das vezes, ele esperará ganhar cerca de US$ 4,40 por peça, a longo prazo. Teorema 7.1. Seja X uma variável aleatória distribuida bino- mialrriente, com parâmetro p, baseada em n repetições de um_ experi- mento. Então, . E(X} = np. >\ __ ..... <) Demonstração: Como P(X- ; k)-== -(~)pk(1 - p t-k, teremos l'}.. n!' . d--a Q r\ .. -. . pk(l _ p)n-k = , ;--r Jt_!(~ _- k)) . . Vfv 1 y Ot\\ n! pk(l - p)"-k 8 l;r--.~ \ I . () n (k - l)!(n- k)! l'bU ~ (uma vez que o termo coni k = O é igual a zero). Façamos s = k - 1 na soma acimà. Como k toma valores desde úm- até n, s tomará valores desde zero até (n- 1). Substituindo k, em todos os ter- -YJ - :€_ mos, por . (s + 1), obteremos {Q,4- ht'.: E (.i--())o:.e_ b B(X) = I:l ~ (n- 1) p<+t(1 -p).n-8-t:=o . ~ s=O------~ ~,..-..,! = np_ il (n -l)-;-;- p)n-t-•. . . s=O S ------- A soma, na última expressão, é apenas a soma das probabilidades binomiais com n substituído por (n - 1), . isto é, [p + (f- p)]n-l e, portanto, igual a um. Isto estabelece o resultado. ·Comentário: O r'\Sultado acima corresponde certamente a nossa noção inc tuitiva, porque supomos que a probabilidade de algum evento A seja, digamos 0,3, quando um experimento é realizado. Se repetirmos esse experimento, por exemplo 100 vezes, deveremos esperar que A ocorra cerca de 100(0,3) = 30 vezes. O conceito de valor esperado, introduzido acima para a variáv~l aleatória dis- creta, _será muito em breve estendido. ao caso contínüo. Exemplo 7.5. Uma máquina impressora tem uma probabilidade_ constante de 0,05 de entrar em pane, cm um dia qualquer. Se a máquina não apresentar panes durante a semana, um lucw de :~JS será obtido. Se 1 ou 2 panes ocorrerem, um lucró de. $R s~rá alcan- çado (R < S). Se 3 ou mais panes ocorrerem, um lucro de $( - L) I 'I ,, l;l :; 142 I PROBABILIDADE será obtido. (Admitimos que R, S e L sej;1m maiores do que zero; também supomos que, se a máquina ent~ar em pane em qualquer dia, ela permanecerá parada durante o resto do dia.) Seja X o h,1cro . obtido por semana de cinco dias úteis. Os valores possíveis de X são R, S e (-L). Seja B o número de panes pcir semana. Teremos P(B = k) = (~) (0,05)k(0,95)5-k, k=0,1, . .. ,5. Já que X= S se, e somente se, B =O, X= R se, e somente se, B = 1 ou 2, e X = (-L) se, e somente se B = 3, 4 ou 5, verificamos que · E(X) = -SP(B =O)+ RP(B = 1 ou 2) + (-L)P(B = 3; 4 ou 5) = 8(0,95)5 + R[5(0;05)(0,95) 4 + 10(0,05)2(0,95) 3] + . + (- L)[10(0,05) 3(0,95)2 + 5(0,05)4(0,95) + (0,05)5] dólares. Definição. Seja X uma variável aleatória continua com fdp f. O valor esperado de X é definido como E(X) = J-: ... xj(x) dx. (7.2) Pode acontecer que esta integral (imprópria) não convirja. Con- seqüentemente, d~remos que..E(X) existirá se, e somente se, 1: lx lf(x) dx for finita. Comentário: Devemos observar .a analogia· entre o valor esperado de uma variável aleatória e o conceito de "centro de gravidade" em ·Mecânica. Se uma unidade de massa for distribuída sobre a reta, em pontos discretos X!J • •• , Xn. • • e se p(x;) for a massa no ponto x;, então vemos que L;': 1 x;p(x;) nipresenta o cen- tro de gravidade (em relação à origem). Semelhantemente, se urna unidade de massa for distribuída continuamente sobre uma reta, e se j(x) ·representar a densidade · de massa em x, então J 2:: xj(x) dx poderá também ser interpretado como o centro de gravidade. No sentido acima, E(X) pode representar "um centro" da distri- buição de probabilidade. Também, E(X) é algumas vezes denominado med1'da de posiçao central e é expresso nas mesmas unidades que X. Exemplo 7.6. Seja a variável aleatória X definida como segue. Suponha-se que X seja o tempo (em minutos) durante o qual um equi- pamento elétrico seja utilizado em máxima carga, em um certo período de tempo especificado. Suponha-se que X seja uma variável alea- tória continua com a seguinte fdp: I j(x) ~ (1.500)2 x, Ü ~X~ 1.500, CARACTERIZAÇÃO ADICIONAL DAS VARIÁVEIS ALEt\TÓRIAS I 143 I -1 i (1. 5 00)2 (x - 3.00~), .· 1.500 ,::; x ::; 3.000, = O, para quaisquei !outros valoreE:, I . I Portanto E(X) = r:= xj(x) dx I 1 [ r 1.500 . r3.000 J (1.500)(1.500) }b x2 dx - J1.500 x(x - 3.000) dx I . , = 1.500 minutos. 1 (Veja a Fig. 7.L) f(x) ~· x l l500 x =3000 F~g. 7.1 . . I Exeitnp.Zo 7.7. O conteúdo de cinzas (em' percentagem) no carvão, di X ~ri. 'd di . , 'l l . t, . gamos , }J'V'Ue ser coDSl era o como uma vanave a ea ona con- · tínua c<im. a se~te fdp: f(x) i= (1/4.S75Yx2, 10 ::; x ::; 25. Por- tanto, E(X) = (1/4.875) .~;:5 x31 dx = 19,5 . por cento. Assim; o . coiiteúdo de cinz~ esperado no particula.r espé~ime de carvão que ,.i está sendo estudado é de 19,5 por cento. ' · . Teoienui 7,2. · Seja · X . unifo~emente distribuída sobre ci inter- valo [a, b]. Nesse caso, r E(X) 1 a~ b. I . I Demonstração: Afdp de X é 1ada por j(x), = 1/(b-:- a), a:::::;. x ::; b .. . Portanto, i · · E(X).= fb _x_ dx i= _ 1_·.- ~210- a+ b. 'I · · a b...,. . a 1 b"-a 2 .. ---2-. (Observe-se que este valor r~pr~enta o ponto.médio do inte~~lo [a,·b], como era de se espe~ar.int~tivamente.) . . . . . .. . . . i . . . . . \ ' . . Come1if.<irio:: .Pode ser . valioso leri:tpràr nesta oca8ião que uma váriável alea- tória X é uma função .de .um espaço a)nostral S sobre contradomínio Rx. Como . . I 144 I PROBABILIDADE já salientamos repetidamente, para. muitos fins, estaremos tão-somente interessa- dos no espaço amostral e nas probabilidades definidas nele. Esta noção .de valor esperado foi definida. completamente em termos do contradomínio. [Veja. as Eqs. (7.1) e (7.2).] Contudo, ocasionalmente, devemos observar a natureza. funcional de X. Por exemplo, como expressaremos a Eq. (7.1) em termos do re- sultado s E S, admitindo que S seja finito? Desde que x; = X(s) para algum s E S, ·e já que p(x:;) = P[s: X(s) = x;], poderemos escrever n E(X) = r:· x; p(x;) = L X(s)P(s), (7.3) i - 1 • ES . ~ onde P(s) é a probabilidade do evento {s} C S. Por exemplo, se o experimento consistir na classificação de três peças como defeituosas (D) ou não-defeituosas (N), um espaço amostral para este experimento seria S = {NNN, NND, NDN, DNN, NDD, DND, DDN, DDD). Se X for definido como o número de defeituosas, e se admitirmos que todos os re- sultados acima sejam igualmente possíveis, teremos, de acordo com a Eq. (7.3), E(X) = L X(~)P(s) •ES =o ·( t )+ 1 ( + )+ 1 ( + )+ 1 ( + )+ 2 ( t )+ 2 ( t )+2 ( + )+ 3 ( t) N a.tura.lmente; este resultado poderia ter sido obtido mais facilmente pela aplica- ção da. Éq. (7.1) diretamente. Contudo, é conveniente lembrar que ·a fim de em- pregar a Eq. (7.1), necessitaremos conhecer os números p(x;), o que por sua vez significa que um cálculo, tal como aquele que empregam,os acima, teria de ser executado. O que se deve salientar é que uma vez que a distrib\l.ição de probabi- lidade sobre. Rx seja conhecida [neste caso, os valores dos números p(x;)], podere- mos suprimir a. relação funcional entre Rx e S. 7.2. Expectância de uma Função de uma Variável Alea- tória Como já explicamos anteriormente, se X for uma variável. alea- tória e se Y = H (X) for uma função .de X, então Y será também uma variável aleatória, com alguma distribuição de probabilidade; conseqüentemente, haverá interesse e terá sentidó calcular E(Y). Existem duas maneiras de calcular E(Y), .qOO se mostram equiva- lentes. Mostrar que elas são, em geral, equivalentes, não é trivial e dei:nons~raremos apen~ um caso especíal. . No entanto, é importante que o leitor compréenda os dois tratamentos do assunto apresentados a seguir. CARACTER IZAÇÃO ADBC.IONAL DAS VARIÃV..EJS-ALE"ATÓRUAS I 145 Definição: Seja X uma variável aleatória e seja ~--~ _!!__(~) (a) Se Y for uma variável aleatória . discreta C()m valores possí- · veis y1, Y2, . .. e se q(y;) = P(:r := y;), definiremos - m E(Y) = L y;q(v.). (7.4) i=l b) Se Y foruma variável aleatória contínua com fdp g, defini- remos f +m E(:> = m yg(y)dy. (7.5) Comentário: Naturalmente, essas definições são completamente coerentes com as definições anteriores, dadas para o valor esperado de ~a variável alea- . tória. · De ·rato, o que está acima sii:nplesmente representa uma reformula~ão em. termos de Y. Uma "desvantagem" de aplicar a definição acima -a fim de obter E(Y) é que a distribuição de probabilidade d~ Y (isto é, a distribuição de proba- bilidade sobre o contradomjnio Ry) é exigida. Explicamos, no capítulo anterior, métodos pelos quais. podemos obter ou as probabilidades no ponto q(y;), ou g, a fdp de Y. No entanto, surge a questão de podermos obter E(Y), sem prelilni- nàrmente encontrarmos a distribuição de probabilidade de. Y, partindo-se apenas do conhecimento da distribUição de probabilidade de X. A resposta é afirmativa, · · como o indicam os teoremas seguintes. Teorema 7.3. Seja X uma variável aleatórià e seja Y = H(X). (a) Se X for uma variável aleatória discreta e p(x;) = P(X = x;), teremos E(Y) = E [H(X)] = f: H(xJ)p(xJ). (7.6) i=I (b) Se X for uma variável aleatória contínua com fdp j, teremos j +m E'(Y) = E [H(X) ] = _ m H(x)j(x)dx. (7.7) Comentário: Este teorema torna a avaliação de E(Y) muito . mais simples, porque ele quer dizer que não necessitamos achar a distribuição de probabilidade de Y, a. fim de avaliarmos E(Y); o conhecimento da distribuição .de probabilidade de X é suficiente. Demonstração: [Somente demonstraremos a Eq. (7.6) . . A de- monstração da Eq. (7.7) é 'um tanto mais complicada.) Considere-~e a soma L1:1 H(xJ)p(x;-) = Li:l [_L, H(x;)p(x;)], onde a soma inte- rior é tomada para todos os índices i para os quais 1I(x;) ~YJ, para algum Yi fixo. Conseqüentemente, todos os termos. H(r.;) são cons-. ' ... ,;. 1! !1! 146 I PROBABILIDADE tantes na soma interior. Por isso E H(x;)p(x;) = .f: Yi L p(x;). i=l i=l i No entanto, L p(x;) = L P[x !H(x.;) = y;] = q(y;). ; . i Logo, I:,:I H(x;)p(xi) = }:;:I y;q(y;), o que estabelece a Eq. (7.6)" Comentário: O método de demonstração é essencialmente equivalente ao método de contagem, no qual reunimos todos os itens que tenham o mesmo valor. Assim, se desejarmos achar a soma total dos valores 1, 1, 2, 3, 5, 3, 2, 1, 2, 2, 3, pode- remos ou somar diretamente, ou indicar que existem 3 um, 4 dois, ,) três e 1 cinco, o que determina que a soma total seja iguàl a 3(1) + 4(2) + 3(3) + 1(5) = 25. Exemplo 7.8. Seja V a velocidade do vento (em milhas por hora) e suponha-se que V seja uniformemente distribmda sobre o intervalo [0, 10]. A pressão, digamos W (em libras/pé quadrado), na super- fície da asa de um avião é dada pela relação: W = 0,003V2• Para achar o valor esperado de W, E(W), poderemos proceder de duas maneiras: (a) Empregando o Teor. 7.3, teremos E(W) = 110 0,003v2j(v)dv {10 1 = }o 0,003v2 lO dv = 0,1 libras/pé quadrado. (b) Empregando a definiç&.o de E(W), precisaremos primeira- mente achar a fdp de W que chamaremos g, e depois calcular f_+;, w wg(w)dw. Para acharmos g(w), observamos que w = 0,003v2 é uma função monótona de v para v ~ O. Poderemos aplicar o. Teor. 5.1 e obter g(w) = 1~ I ~:1 = .l.. Jww-112 213 ' = O, para quaisquer outros valores. Em conseqüência . {0,3 E(W) = }o wg(w)dw = 0,1 CARACTERIZAÇÃO ADICION.O:liDAS VARIÁVEIS ALEATÓRiAS I 147 I . . ! depois de um cálculo simples. I Deste modo, como afirrn.a o teorema, os dois cálculos de E(W) forne~em o mesmo resultado. I Exempla 7.9. Em muitos problemas estamos interessados apenas na magnitude de uma variável! aleatória, sem con:siderarmqs o seu sinal algébrico. Isto é, estaremos interessados em 1 I X 1. Suponha- . I mos que X seja uma variável a1eatória contínua com a seguinte fdp: . ec I j(x) = _ , e~~ = ~ se x ~O, se x > O. Seja Y = I X 1. Para obtermo~ E(Y), poderemos proceder por uma de duas maneiras. I (a) Empregando o Teor. (1.3, teremos E(Y) = J+ m I X IJ(x) ~X ~ ~ -[/ (-x)~ dx + j," (x),- dx] ( I . = 2 [1 + 1] = 1! . I (b) Para calcular E(Y) einpregando a definição, necessitamos obter a fdp de Y = lXI, que! denotaremos g. Seja G a fd de Y. ~,i ~rl~o, i · G(y) = P(Y ~ y) = P[ IXI ~ y] i= P[-y ~X~ y] = 2P(O ~X~ y), ! porque a fdp de X é simétrica! em relação a zero. Logo, l i/ I 1 !1.., G(y) = 2 j(x) dx:! 2 !!._ dx =-e-u+ 1. 1 o 2 I Deste modo teremos ~ara g, ai fdp ~e Y, g(y) = ~'(y) =·e-u, y _"2:. O. Portanto, E(Y) = fo yg(y) dy r= fo ye-u dy = 1, tal como acrma. . I Exemplo 7.10. EIQ mui~s problemas, pode~os empreg:=J:r o valor esperado de uma variável alea,tória a fim de tomar uma certa decisão de uma maneira ótima: I ' . . . Suponha-se que um fabncante produza um cert<J trpo de óleo lubrificante, o qual perde algum de seus atributos especiais se não I I I I I I I I I I ii' Iii 'I I· '! I ~43 I PROBABIUDADIE for · utilizado dentro ·. de certo pei(odo «!e tempo. Seja _x · o:n,límero de unidades de Óleo encomElndadas ao ' f~bricllJlk (lu~~t~ ;~$~ $Kl~· (Uma unidádie ~ igual' a 1.000 ,gal~.) · Suponba-sie que X: aeja uma V"ariáveL aleat6rla coritúma; uiüform~ment~ . diStlclblddk 8ijb~ [2, 4]. Piirtarito, a fdp J tém . a forma · ·.' 1 f(x) ,.. z > ' ' ' = o, para quaisquer outros valores. Suponha-se :.que para cada . unidade vendida; se ~n~a um lucro de US$ 300, enquanto para cada unidade não vendid~t (durante qualquer · ano especific11do) se . verifique unia perda de US$ ioo, porque uma . unidade :não . utiliza-da terá.:· de ser jogi_da fora. · Admít~t-se que o . fabrica.nte deva. decidir, alguns meses antes -do início de cada ano, quanto ele irá produzir, e que ele decida fàbricar Y unidades. (Y não · é rima variável aleat6ri~; é · especificada pelo fabricante.) S~ja Z o lucrd por ano (em dólares). Aqui, Z é .eVidentemente uma variável · àleatórla, porque é uma fW:lção da variável aleatória X. Especifi- camente, Z = H(X). onde H(X) :;: 300Y se x ·_;:::: Y, 300X + ( -lOO)(Y - X) se X< Y.' . . . . (A 1fltima expressão pode ser escrita como 4ooX ~ lOOY) A fim de ~bterxnos E(Z), aplicaremos io ~oor. · 7.3 e escreve- remos z I E(Z) = f+ .. H(x)J(x) dx = . ! 1· . ~ H(i) dx. -<m· 6:1 2 .·~ 2 y 4 E(Z) Y=2 Y=3~S Y=<l IFifii; 7•3 . Para calcul~r esta integrai, dev:ere~os c~nsiderar três c~os: Y < 2, 2 ::; Y ::; . 4 e Y > .4. Com .a. ·ajude da F-ig. 1.2 e depois <J,e atgunias CARACTERIZAÇÃO ADICIONAL DAS VAR IÁVEoiS ALEATÓRIAS I 149 simplificações, obteremos E(Z) = 300 Y se Y ~ 2 - 100Y2 + 700Y- 400 se2<Y< 4 = 1.200- lOOY se Y?: 4, A questão seguinte apresenta interesse. Como deve o fabri- cante escoll!er o valor de· Y, a fim de maximizar seu lucro esperado ? Poderemos responder a esta questão facilmente, estabelecendo apenas que dE(Z)/dY = O. Isto fornece Y = 3. 5. (Veja a Fig. 7. 3.) 7.3: · Variáveis Aleatórias IBidimensionats Os conceitos discutidos acima, para o caso unidimensional, também valem pa!a variáveis aleatórias de dimensão mais elevada. Em particular, para o caso bidimensional, estabeleceremos a se- guinte definição. Definição. Seja (X, Y) uma variável aleatória bidimensional e seja Z' = H(X, Y) uma função réal de (X, Y). Em conseqüência, Z será uma variável aleatória (unidimensi~nal) e definiremos E(Z) como se segue: (a) Se Z for uma variável aleatória discreta, com valores pos- síveis z1, z_2, •.. e com p(z;) P(Z = z;), m então E(Z) = Í: z,p(z;). i= 1 (7.8) i (b) Se Z for UIIl1l. variável aleatória contínua com fdp j, teremos J_+m E[(Z) = ~ zj(z) <h. (7.9) Como no caso unidimensional, o seguinte teorema (análogo ao Teor. 7 .3) pode ser demonstrado. Teorema 7.4. Seja (X, Y) uma variável aleatória bidimensio- ' nal e façamos Z = H(X, Y). (a) Se (X, Y) for uma variável aleatória discreta e :;;e ' \ p(xi, y;) = P(X -= x;, Y = Y;), i,j = l, 2,. ,. ' ! :! ~ ! ~ 11 i' ! i r ::, :~i: I '! ~I I ~ •:! i:' '~l .1iii ,, 'i i ;I ii :r 11 ~Iii 111: ~\\ 150 I PROBABiliDADE teremos m m E(Z) = L L H(x;, Yi)p(x;, Yi), ) (7.10) j - I i=l (b) Se (X, Y) for urna variável aleatória contínua com fdp con- junta j, teremos E(Z) = J: "'1:"' H(x, y)j(x, y)dx dy . (7.11) Comentário: Não demonstraremos o Teor. 7.4. Também, tal como no caso unidimensional, este é um resultado extremamente útil porque ele afirma que nllo necessitamos achar a. distribuição . de probabilidade da. va.riá.vel aleatória. Z, a fim de calcular sua. expectância. Poderemos achar E(Z) diretamente, a partir do co- nhecimento da. distribuição conjunta de (X, Y) . Exemplo 7.11. Vamos reconsiderar o Ex. 6.14 e achar E(E) onde E= IR . Já vimos que I e R er~m variáveis aleatórias com as seguintes fdp g e h, respectivamente: g(i) = 2i, o ~ i~ 1; h(r) = r 2/9, O ~ r ~ 3. Também encontramos que a fdp de E era p(e) = (2/9)e(3 - e), O ~ e ~ - 3. Visto que I e R são variáveis aleatórias independentes, a fdp conjunta de (I, R) é simplesmente o produto das fdp de I e de R: j(i, r) = (2/9)ir2, O ~ i ~ 1, O ~ r ~ 3. Para calcular E(E) em- pregando o Teor. 7.4, teremos ·' 211 13 3 = - i 2 di r8 dr = - · 9 o ~ 2 Empregando diretamente a definição (7.9), teremos {3 {3 2 E(E) = }o ep(e) de =}o_ e 9 e (3 - e)de 2 { 3 3 = 9 Jo (3ell- efl) de= 2-. 7.4. Propriedades de Valor Esperado Mencionaremos algumas importantes propriedades do valor esperado de uma variável aleatória, as quais serão muito úteis para I I I . . I CARACTERIZAÇÃO ADICION,AL DAS VARIA VEIS ALEATQRIAS I 151 o estudo subseqüente. Em ~ada _caso, admitirelfos· que todos os valores esperados que mencionarmos, existam. As demonstrações . . I , serão dadas apen&a para o ca.So contínuo. O leitor deve estar apto . . I I . 111 desenvolver l!ll demonstração para o c;aso discreto, pela simpl~s substituiçãO dM integrais pot somat6rios. · . I Pr~ 7.1. Se X=+ C, onde C é .uma constante, então, F(x) I E(X) = C. 1 Demonstração: ,..--------F(x)=i I i E(X) = J:"' C~(;r;) dx x=C xl . ·d·.·,, r+~ !Fig. 7.4 I -. _)J-"' j(x) dx =C. Comentário: O significado de ser X igual a' C é o seguinte: · Desde- que X é uma função do espaço amostral nd Rx, a propriedade acima diz que o Rx é cons- tituído unicamente plllo v:alor C. Gonseqüentemente, X será iguai a C, se, e . so- mente se, P[X(s) = C.l = 1. Estai idéia é melhor explh::ada em termos d;,. 'fd de X, A saber, F(x) = O, se x < é; F(x) ~ 1, se x 2: C (veia a Fig. 7.4). Tal variável aleilt6ria é, algumas vez~, chamada degenerada. · · . .. . ... I • . Propriedade 7.2. Supo~a,.:se que C seja uma constante e X seja uma variável aleatória. !ED,tão, E(CX) ="' CE(X). Demonstração: i ! +... I f+"' E( C X) = _"' Cxj(x) F = C :__ ~ xj(x) dx = CE(X} ~ I. Propriedade 7 .3. Seja (~, Y) uma variável aleatória bídimen- . sional · com uma distribuição de probabilidade conjunta. Seja I Z = H 1(X, Y) e W "= H 2(X, Yj). Então, E(Z + W) = E(Z) + E(W). I Demonstração: i i E(Z + W) = J: "'1: .. [+(x, y) + H 2(x, y)]j(x, y)dx dy = .j 1 [onde j é a fdp conjunta de (X, Y)J : . . ;.- ., I I : .. 152 I PROBABIUDADIE Propriedade 7.4. Sejtilm X .~ Y duas variáveis aleatóriM qu&is- quer. Então, E(X + Y) = E(X) + E(Y). Demonstração: Isto decorre ãmOOi&tmnente da Propriedade 7.3, ao se fazer H 1(X, Y) = X e H 2(X, Y) = Y. Comentário: (a) Combinando-se as Propriedades 7.1, 7.2 e 7 .4, observaremos o seguinte fato importante: Se Y = aX + b, onde a e b sl!.o constantes, .entl!.o E(Y) = aE(X) + b. Em linguagem corrente: o valor esperado de uma função line&r é 111 mesma função line&r do v&lor esper&do. X!!to fUlo será. verdadeiro, a men9s que se trate de função linear, e constitui um erro comum pensar que a pro- priedade ·seja vá.lid& para outras funções. Por eJtemplo, E(X 2) ;;é (E(X)J2, E(ln X) ;;é ln E(X) etc. Assim, se X tomar valores _: 1 e + 1, cada um com pro- bBbilidade 1/2, entlto E(X) = O. No entanto, (b) Em geral, é difícil obter expressões para E(l/X) ou E(X 112 ), digamos em termos de 1 I E (X) ou [E (X) ] 112 • Contudo, algumas desigualdades estão disponíveis, as quais são muito simples de deduzir. (Veja os artigos de Fleiss, Murthy e Pillai e o de Gurland, nos números de fevereiro e dezembro de 1966 e abril de 1977, respectivamente, da revista The American StatisticiLui.) Por exemplo, teremos: (1) se X tomar soinente valores positivos e tiver expectância finita, então, E (I/X);;. 1/E(X). (2) sob as mesmas hipóteses de (1), E(X 112 ) .;; [E(X)] 112 • Propriedade 7.5. Sejam n variáveis aleatórias X 1, .•• , X,.. Então, E(Xt + ... + Xn) = E(Xt) + ... + E(Xn). Demonstração: Isto decorre imediatamente da Propriedade 7.4, pela aplicação da indut;ão matemática. Comentário: Combina.nd<HJe esta propriedade com a anterior, obteremos E ( ± ~x.) = E ~E(X;), io:::r 1 i -1 onde os a; são constantes. Propriedade 7.6. Seja (X, Y) uma variável aleatória bidimen- sional e suponha-se que X e Y sejam independentes. Então, E(XY) = = E(X)E(Y). CARACTERIZAÇÃO ADiCIONAl DAS VARIÁVEIS AlEATÓFUAS I 153 Demonstração: f +mf+= E(JÇY) = _"' _"' xyj(x,y) dxdy r+"'j+"' = J-"' - m xyg(x)h(y) dx dy f +m r+"' = = xg(x) dx} _"' yh(y) dy = E(X)E(Y). Comentário: A hipótese adiCional de independência é exigida para estabele- cer-se a Propriedade 7 .6, enquanto tal suposição não foi necessária para obter-se a Propriedade 7 .4. Exemplo 7.12. (Este exemplo se baseia em um problema do livro An Introduction to Probability Theory and Its Applications, de W. Feller, p. 225.) Suponhamos que seja necessário testar alguma característica em um grande número .de pessoas, com resultados positivos ou negativos. Além disso, suponhamos que alguém possa tomar amostras (ou provas) de várias pessoas e testar a amostra combinada como uma unidade, como pode ser o caso de certos tipos de exames de sangue. Suposição: A amostra combinada dará um resultado negativo se e somente se todas as amostras que contribuem forem negativas. Por isso, no caso de um resultado positivo (da amostra combinada), todas as amostras devem ser retestadas individualmente, para determinar quais são as positivas. Se as N pessoas forem divididas em n grupos de 'k pessoas (admita-se que N = kn), então, surgem as seguintes escclhas: (a) testar todas as N pessoas individualmente, sendo necessários Ntestes; (b) testar grupos de k amostras, o que poderá exigir tão pouc6 quanto n = Njk testes ou tantos testes quanto (k + l)n = N + n. · Será nosso propósito estudar o número médio de testes exigidos no caso (b) e, em seguida, comparar esse número comN Suposição: A prob~bilidade de que os resultados do teste sejàm positivos é igual a p, e é a mesma para todas as,pessoas. Os resultados dos testes para pessoas de um mesmo grupo sujeitas ao teste também são independentes. Seja X= número de testes requerídos para deterrni- 11~11 1~\ :: 154 I PROBABILIDADE nar a característica que esteja sendo estudada para todas as N pessoas, e seja Xi = número de testes requeridos para testar pessoas no i-ésimo grupo, i= 1, .. . , n. Daí, X= X 1 + ... +Xn e, por isso, E(X) =E(Xt)+ .. . +E(Xn), o que é igual a nE(Xt), porque todos os Xi têm a mesma expectância. Agora, X1 toma somente dois valores: 1 e k + 1. Ademais,P(X1 = 1) = = p (todas as k pessoas no grupo 1 são negativas)= (1 - p )k. Portanto, e então Logo, P(X1 =k+ 1)= 1-(1-p)k . ) E(Xt)= 1· (1-p)k +(k+ 1)[1-(1-p)k]= = k[ 1-(I- p )k + k- 1 ]. (A fórmula acima é válida somente para k > 1, desde que k = 1 conduz aE(X) =N + p • n, o que obviamente é falso!) Uma questão de interesse é a escolha de k para o qual aE(X) s~ja a menor possível. Isto poderá ser trátado facilmente por algum procedi- mento numérico. (Veja o Problema 7.11.a.) Finalmente, note-se que, para o "teste em grupo" ser preferível ao teste individual, deveremos ter E(X) < N, isto é, 1 - (1- p )k + k- 1 < 1, o que é equivalente a k- 1 < (1: - p )k. Isto não podeocorrer, se (1 ~ p) < 1/2, porque, nesse caso, (1'- p)k < 1/2k < 1/k, a última ·desigualdade decorrendo do fato de que 2k > k. Daqui, obteremos a seguinte conclusão interessante: Se p, a probabilidade de um teste posi- tivo em qualquer dado individual; for maior do que 1/2, então nunca será preferfvel grupai amostras antes de testar. (Veja o Problema 7.11.b.) Exemplo 7.13. Vamos aplicar algumas das propriedades acima pára deduzir (de novo) a expectância de uma variáy;,l aleatória dis- tribuída binomialmente. O método empregado poderá ser aplicado vantajosamente em muitas situações similares, . Consideremos n repetições d~ um experimento e seja X o nú- mero de vezes que algum evento, digamos A, ocorra. Seja p = P(A) e CARACTERIZAÇÃO AD8C.IONAL pAS VAR~ÁVEIS ALEATÓRIAS I 155 . i admitamos que _ este número seja\ constante em tod~Mj as repetições OOWJJidemd&a. · Defmmmoa aa v~iáveia ~uxiliarea Y1, ••• , Y,., asaim: i Yfã = .li. ae o ewnto A ooorjrer nm i-ésima repetição, = @ illiiiSO oontxiírio. i . . Em oonseqüência, X = Y 1 + Y 2 + ... + Y ,.; e aplicando a Proprie-- d!M!e 7.5, obteremos· . . ! E~X) = E(Yl) l+ ... + E(Y,.). t!ontudo, · I E(Yo) = l(p) + 0(11- p) = p, para todo i. . I . . . - .. ·;· ···· --) . . ..AssJm, E(X) = np, o que verific~ o resultado antenor. I Comentd.rio: V~m~.os relliterpretar ~w importante resultado. Consideremo5l ~ v~iáwl aleatória X/n~ Isto repreeenJ a freqUência relativa do evooto A, dêritre 'J!B n repetições de&. Empregando a·Pro~riedade 7.2, teremos E(X/n) = (np)fn = p. Isto é, intUitivamente, CQmo seria d<a ~p<arar-se, porque afirma ·que a freqüência. relativa .~a do evento A .ê p, quarldo p = P(A). Ele representa a primeira verifiC8\)li.0 tOOrie& do fato de que existe ~One:xão entre I a freqüênciiL remtiVI!. de um evento· e .a probabilidade ds,quele eventb. Em um eapítulo posterior, obteremos outros nsultados que est:Welecem uma · telaÇio ~uito . :maiS pr~ entre freqüên- cia, rolativa e probabilidade. 1• ' ! I Exemplo 7.14. Suponhamos que a procura D, por semana, de um certo produto seja uma variável [aleatória com uma certa distribui- .. çio de probabilidade, digamos J:r(D = n) = p(n), n = O, 1, 2, ... Admitamos que o custo pe.ra o t endedo:r seja C1 dólares por peça, enq1Jlanto ele vende cada peça P?r C 2 dólares. Qualquer peça· que não tenha sido vendida até o fim da semana. deve ser estocada ao . I custo de Cu dólares por peça.. Se o vendedor deddir · pro-duzir · N peÇ$.8 no início da semana, qual s~á seu lucro esperado por seman.11.? Pam. que valor 'de N, o lucro esp~ra.do se toma máximo? Se T for .o lucro por semana, teremos \ . I .T NC,. - N(;l se D > N, l DC2- C1N- CJra(N- D) se D ~ N. . I ;. Reescrevendo o que ea~ acima., Qbteremos I I . '1' N(Cs- C1) se E! > N, \ (Cs + CD)D - N((C1 + Ca) se D ::_:; N. I I . I 156 I PROBABIUDAOE Por isst>, o lucro esperado é obtido assim. E(T) N N(C2- Ct)P(D > N) + (C2 + C a) L np(n) n·=o - N(Ct + Ca)P(D ~ N) m N N(C2- Ct) L p(n) + (C2 + C3) Lnp(n) n=N+l · n-0 N - N(Ct + Ca) L p(n) n=O N N(C2- Ct) + (C2 + Ca) L p(n)(n - N). n=O Suponhamos que se. saiba que a seguinte distribuição de probabili- dade seja apropriada para D: P(D = n) = 1/5, n = 1, 2, 3, 4, 5. Daí, E(T) = N(C2- C1) + (C2 ~ C3) [N(N + 1)/2 .~ N 2] se N ~ 5, 1 . N(C2 - C1) + (C2 + Ca) 5 (15 ~ 5N) se N > 5. Suponhamos que C2 = $9, C1 = $3 e C3 = $1. Logo, E(T) L-----~------~--~N E(T) =6N + 2 [ N(N 2 + 1) - N2] se N ~ 5, 6N + 2(15 - 5N) se N > 5, 7N- N 2 30-4N se N ~ 5,. se N > 5. Portanto, o máximo ocorre para N = 3,5. (Veja Fig. ·7.5.) Para N = 3 ou 4, teremos E(T) = 12, que é o máximo atingível, porque N é um inteiro. 7.5. A Variãncõat de uma Variável Aleatória Suponhamos que, para uma variável aleat6ria X, verificamos que E(X) = 2. Qual é o significado disto ? É importante que · não atribUamos a essa informação mais significado do que é autori~ado .. CARACTERIZAÇÃO ADDCIOI\IAL D"AS.VARIÁVE.ISAlEATÔRIAS I 15.7 Ela simplesmente signific& que se considerarmos um grande número de determinações de X, digamos x ••... . , Xn e calcularmos SI média desses valores de X, esta média estaria' próxima de 2, se n fosse grande. No entanto, é verdadeiramente crucial não atribu~r demasiado sig- nificado a um valor esperado. Por exemplo, suponhamos que X represente a durnção da vida de lâmpadas que estejam sendo recebi- das de um fabricante; e que E(X) = 1.000 horas. Isto poderia sig- nificar uma dentre muitas coisas. Poderia significar que a maioria das lâmpadas deveria durar um periodo compreendido entre 900 horas e.l.lOO horas. Poderia, também, significar que as lâmpadas forne- cidas são formadas de dois tipos de lâmpadas, l.nteiramente diferen- tes:eerca de metade são de muito boa qualidade e du~arão aproxima- damente 1.300 horas, enquanto a outra metade são de muito má qua- lidade-e durarão aproximadamente 700 horas. Existe uma necessidade óbvia de introduzir uma medida quanti- tativa que venha a distinguir entre essas duas situações. Vária.S medidas são por si mesmas muito sugestivas, mas a seguinte é a quan~ tidade mais comumente empregada. Definição. Seja X uma variável aleatória. Definimos a vari- ância de X, denotada por V(X) ou ~Yx2 , da maneira seguinte: V(X) = E [X - E(X)]2 • (7.12) A raiz quadrada positiva de V(X) é denofuinada o desvio-padrão de X, e é denotado por ~Yx. Comentários: (a) O número V(X) é expresso por unidades qua<Jr{ulas ·de X. Isto é, se X for medido em horas, então V(X) é exprelS:\1 em (horas)2 • Este é um motivo para considerarmos o desvio-padrão; ele é expresso nas m~ unidades que X.· (b) Outra medida possível poderia ter sido E I X - E(X) J. Por alguns . motivos, um dos quais é que X2 é uma função melhor "comportada" que IXJ, a variância é preferida. (c) . Se interpretarmos E(X) como o centro de gravidade da unidade de massa distribuída· sobre = reta, poderemos interpretar V(X) como o momento · de inércia dessa massa, em relação a um eixo perpendicular que passe pelo centro .de gravidade da massa. (d) V(X), tal como definida na Eq. (7.12) é: um caso especial da seguinte noção mais geral. O k-ésimo rrwmento da variável aleatória X, em relação a sua expectância, é definida comd sendo }J. J, = E [X - E(X) ]k. Evidentemente,· para k = 2, obteremos a variância. O cálculo dé V(X) pode ser simplificado com o auxílio :do seguinte resultado. 158 I PROBABILIDADE Teorema 7.5. Demonstração: Desenvolvendo E[X- E(X)]2 e empregando as propriedades já estâbelecidas para o valor esperado, obteremos V(X) = E[X - E(X)] 2 = E{X 2 - 2XE(X) + [E(X)] 2 j = E(X 2)- 2E(X)E(X) + [E(X)] 2 [Lembrar que E(X) é = E(X2) _ [E(X)l2. uma constante.] 'Exemplo 7.15. O serviç~ de meteorologia classifica o tipo de céu que é visivel, em termos de "graus de nebulosidade". Uma es- cala de 11 categorias é empregada: O, I, 2, .. . , 10, onde O representa um céu perfeitamente claro, 10 representa um céu completamente encoberto, enquanto os outros valores representam ~ diferentesó .c,on- dições intermediárias. Suponha-se que tal classificação seia;}E;!ita em uma determinada estação meteorológica, em uriJ. daterminaq~,,dia e hora. Seja X a variável aleatória que pode tomar um dos Ii · ~a lores acima. Admita-se que a distribuição de probabilidade de X seja P1 = P2 = Ps = pa = 0,15; Pa = p~ = P6 = pa = p1 = 0,06. Portanto1 E(X) = 1(0,15) + 2(0;15) + 3(0,06) + 4(0,06) + 5(0,06) + + 6(0;06) + 7(0,06) + 8{0,15) + 9(0,15) + + 10(0,05) = 5,0. A fim de calcular V(X), necessitamos calcular E(X2). E(X2) = 1(0,15) + 4(0,15) + 9(0,06) + 16(0,06) + 25(0,06) + + 36(0,06) + 49(0,06) + 64(0,15) + 81(0,15) + + 100(0,05) = 35,6. Portanto, V(X) = E(X2) - [E(X))2 = 35,6 - 25 = 10,6, e o de.svio,-padrão u = 3,25. \ Exemplo 7.16. Suponhamos que X seja uma variável aleatóri~ continua com f'dp · ~ I . I I . CARACTERIZAÇAO AD.ICIONAL DAS VARIA VEIS ALIEATORIAS I t59- I - . j(x) = 1 + X; I - 1 ~ x ~ O, = 1 ~- X, ~ 0 ~ X ~ 1. (Veja a Fig. 7.6.) Em virtude da[simetria da fdp, E(X) =O. (Veja o comentário abaixo.) · · Além disso, E(X') ~ 1>(1 + x) dx + i + 11 x 7(1- x)ch = ! 1 • f(x) \ -1 X Portanto, V(X) = ! · . i . .· . IFIQJ. 7.6 Com~~rio: Su_ponhamos q~e uma \va.riável al~atória con~nua tenha uma fdp que seJa s1métnca em rela.çao a x =· O. Isto e, j(- x)· = j(x) para todo x. Então, desde que E(X) exista, E(X) =o, lo que é uma !conseqüência imediata da definição de E(X). Isto pode ser estendido a um ponto arbitrário de simetria . ' . I z = a, e nesse caso E(X) = a. (Veja o f'robl. 7.33.) 7.6. tória. I I Prçpriecllades rdla Variância clle uma Variãvel Alea- ! Existem vana.s propriedades I imp~rtantes, {!m parte análogas àquelas expostas para a expectân4ia . de uma variável aleatória, as quais valem para a variância. I . i . Propriedade 7.7. Se C for uni.a constant~, I l'(X + C)i= V(X). (7.13) Demonstração: · I V(X + C) = E[(X + C) :- E(X +i C)]2 = l..1(X + C) ...,. E(X) -: C]z = E[X - E(X))2 ,;: V(~. . I Comentário: Esta ·propriedade é intuitivamente evidente, porque somar UIWI constante a um resultado X ni!.o llllt6-a sua variabilidade, qUl!l é siquilo que a vmância mede. Apenas "desloca" oo valores de X para 11. direita ou Iii esquerde, dfl~ndendo do sinal de C. . j . I Pr()prÍedade 7.8. ~ C for ~a constante, V(CX) = l c~V(X). (7J.4) · Demcmstração: i . V(CX) = E( C X)~ - [E(CX)}~. l (}2E(X2) - C2[E(X)}2 \ . . I = C!(E(X2)- (E(X)}2}J.= C!V(X). 160 I PROBABIUDADIE Propriedade 7.9. Se (X, Y) for uma variável aleatória bidi- mensional, e se X e Y forem ·indépendentes, então Y(X + Y) = l'(X) + V(Y). (7.15) Demonstração: r(X + Y) = E(X + Y)2- [E(X + Y))2 E(X 2 +2XY + Y2)- [E(X)]2- 2E(X)E(Y)- [E(Y))2 E(X2)- [E(X))2 + E(P)- [E(Y)}2 = V(X) + V(Y). Comernário: 1!: importante compreender que .a variância. nao é, em geral, aditiva, como o é o valor esperado. Com a hipótese complementar de indepen- dência, a Propriedade 7.9 fica ·válida. A variância t.ambéin não possui a proprie- ·dade de linearidade, que expusemos para a expectância, isto é, V(aX + b) r" r" a V(X) + b. .Em vez disso, teremos V(aX + b) = a2V(X) . Propriedade 7:10. Sejam X 1, . . • , Xn, n variáveis aleatórias in,- dependentes. Então, (7.16) Demonstração: Isto decorre da Propriedade 7.9, por indução matemática. Propriedade 7.11. Seja X uma yariável aleatória com variân- eia finita. Então, para qualquer número real a, V(X) = E [(X - a) 2] - [E(X) - aJz: (7.17) Demonstração: Veja o· Probl. 7.36. Comerúários: (a) Esta é 1.1ma extensão óbvia do Teor. 7.5, porque fazendo a = O, obteremos o Teor. 7.5. (b) Se interpretarmos V(X) como o momento de inércia e E(X) como o centro de ·uma unidade de massa, então a propriedade · acíma é uma formulação do bem conhecido teorema dos. e.z':t.os paralelos, em · ~Iecânica: O momento de inér- cia em relação a üm ponto arbittário é igual ao mom.ento de inércia em relação ao centro de gravidade, mais o quadrado da distância desse ponto arbitrário ao cen- tro .de gravidade. (c) E[X - aY se torna mínimo se a = E(X). Isto decorre imediatamente da propriedade acima. Portanto, o momento de· inércia (de uma unidade de ma.ssa -distribuída sobre uma reta), em relação a um eixo que passe por um ponto arbi- trário, torna-se mínimo se esse ponto escolhido for o centro de gravidade~ ... Exemplo ·7.17. Vamos calcular a variância de uma variável aleatória X, distribuída binomialmente, com parâmetro p. Para calcular F(X), podemos proceder de duas maneiras. Como já sabemos que E(X) = np, devemos apenas calcular E(X 2) e a seguir .CARACTERI:ZAÇÃOADICDONALDAS VAR!ÁVIEISALEATÓRIAS I 161 calcular · V(X) como igual a E(X2)- [E(X))2. Para calcular E(X 2), empregaremos o fato de que P(X = k) = (Z)pk(1- p)"--k, k = = o, 1, ... 'n. Portanto, E(X2) == Lk~O e(~)pk(1 - p)n--k Este somatório pode ser calculado bastante facilmente, mas em vez de fazer isso, empregaremos um método mais simples. Novamente empregaremos a representação de X introduzida no Ex. 7.13, a saber, X = Y1 + Y2 + ... + Yn. Agora .observa- remos que os Y; são variáveis aleatórias independentes, uma vez que o valor de Y; depende somente do resultado da i-ésima repetição, e as sucessivas repetições são supostas independentes. Daí podermos aplicar:..a Propriedade 7.10 e obter V(X) = V(Y1 + ... + Yn) = V(YI) + ... + V(Yn)· Mas, V(Y/l = E(Y;) 2- [E(Y;)] 2. Então, E(Y;) = 1(p) + 0(1- p) = p, E(Y;) 2 = P(p) + 0 2(1-p)= p. Logo, V(Y;) = p- p2 = p(l - p) para todo ~- Assim, V(X) = = np(l- p) . Comentário: Vamos conside,ar V(X) = V( X) = np(l - p) como uma função de p, para n dado. Esboçaremos um gráfico como aquele mostrado na Fig. 7.7. Resolvendo (d/dp)np(l - p) = O, en- contraremos que o valor máximo de V(X) ocorre para p = 1/2. O valor mí- nimo de V(X), obviamente ocorre nos p=j extremos do intervalo, para p = O e p = Fig. 7.7 .~J = 1. Isto está de acordo com o que se esperava, intuitivamente. Lembrando que a variância é uma medida da varia- ção da variável aleatória X, definida como o número de vezes que o evento A ocorre em n repetições, encontrar.emos que esta variação será zero, se p ,;, O ou 1 (isto é, se A ocorrer com probabilidade O ou 1) e será máxima quando estivermos tão "in- certos quanto poderíamos estar" sobre a ocorrência ou não de A, isto é, quando . P(A) = 1/2. Exemplo 7.18. Suponhamos que uniformemente distribuída sobre [a, b]. riormente E(X) = (a+ b)/2.. a variável aleatória X seja Como já calculamos ante-. Daí, Para calcular V(X), vamos calcular E(X2): j b 1 ba- aa E(Xt) = x 2 dx = --:--:::---:-- ( . a b - a 3(b - a) I V(X) = E(X2) - [E(X)] 2 = (b - a) 2 12 depois de um cálculo simples. 162 I PROBAB!LIDADIE C.omenlários: (a) Este é um resultado intuitivamente significativo. Ele diz que a variância de X não depende de a e b, individualmente, mas .somente de (b - a)2, isto é, do quadrado de sua diferença. Portanto, dua.s variáveis aleatórias, cada uma das quais é uniformemente distribuída sobre algum intervalo (não ne- cessariamente o mesmo para ambas), terão variâncias iguais enquanto os com- primentos dos intervalos sejam iguais: (b) É um fato bem conhecido que o momento de inércia de uma haste del- . gada de massa Me comprii:nento L, em reLM;ã.o a um eixo perpendicular que passe pelo seu centro; é dado por MV/12. 7.7. Expressões Aproximadas ola Expectância e da Va- riância Já observamos que a fim de calc1,1lar E(Y) ou V(Y), onde Y = H(X), não necessitamos achar a distribuição de probabilidade de Y, pois poderemos trabalhar diretamente com a distribuição de probabilidade de X. Semelhantemente, se Z = H(X, Y), poderemos calcular E(Z) e V(Z), sem primei~o obter a distribuição deZ. Se a função H for bem complicada, ó cálculo das expectâncias e variâncias pode conduzir a .integrações (ou somatórios) que são bastante difíceis. Por . isso, as seguintes aproximações são muito · úteis. Teorema 7.6. Seja X uma variável aleatória com E(X) = fJ. e V(X) = u 2• Suponha-se que Y = H(X). Então, ·) E(Y) e!. H(JJ.) + H'~(JJ.) u 2 , V(Y) e!. [H'(JJ.)] 2u 2• (7.18) (7.19) (A fim de tornarmos significativas as aproximações acima, exigi- remos, obviamente, que H seja derivável ao menos duas· vezes no ponto x = f.L.) . Dem(J11,8tração (apenas . esboçada): A frm de estabelecer a Eq. (7.18), deSenvolveremos a função H em série de Taylor, próximo de x = fJ., até dois termos. Deste modo Y = H(f.L) + (X - !Jr)H'(p.) + (X - JJ.)W"(JJ.) + R 1, 2 " onde R1 é o resto. Se abandonarmos o resto R1, e a seguir, tomarmos o valor esperado de ambos os membros, teremos E(Y) c::< H(p.) + H"(p.) u 2, 2 I CARACTERIZAÇÃO ADICIONAL IE>AS VARIÁVEIS ALEATÓRIAS I 163 I porque E(X - p.) = O. A fim d'e e.Stabelecer a Eq. (7.19), desen- volveremos H em série de Taylor laté u~ ~ermo, p~ra x = p.. Nesse caso, Y = H(p.) + (X-11-)H'(p.) +.R2.Se· abandonarmos o resto R 2 e tomarmos a variância de ambos os membros, teremos Exemplo 7.19. Sob certas condições, a tensão superficial de um líquido (dina/centimetro) será dad~ pela fórmula S = 2(1- 0,005 T) 1•2, na qual T é a temperatura do líq(Iido (em graus centígrados). Suponhamos que T seja limai variável aleatória continua com a seguinte fdp 1 J(t) = 3.ooot-\ t ;:::: H), . = O, para quaisqJr outros valores. Daí, r~ I E(T) ~ ], 3.ooor• dt ~ 15 (gm"' rentigrndo,), e I V(T) = E(T 2) .:_ . (15)2 i l ~ I = 3.000t-2 dt .L 225 = 75 (graus centígrados)2. . o I Para calcularmos E(S) e V(S), i teremos que calcular as seguintes integrais: I J. m (I - 0,005t)1.2e- 1 dt e I r~ (1 - 0,005t)Mt-4 dt. 10 1 J1o , i . Em vez de calcular estas expressões,· obteremos aproximações de E(S) e V(S) com o emprego d~ Eqs. (7.18) e (7.19). A fim de titilizar essas fórmulas, teremos dJ calcular H'(l5) e• H"(15), onde H(t) = 2(1 - 0,005t) 1•2• Teremos I H'(t) = 2,4(1- 0,005t)o.2(- 0,005) = - 0,012(1..,.. 0,005t)Oo2. I Portanto H(l5) = 1,8~:, H'(15) = 0,01. Semelhantemente, H"(t) =- 0,002 4(1 -- 0,005t)-M ( jl O.po5) = 0,000 012(1- 0,005t)-0·6: Logo, .· . Portanto teremos I H"(l5) = 'o;ooo 012 = o+. (o 925)0•8 , I i E(S) C:!. H(l5) + 75If'{l5) = 1,82 (d/em) V(S) ~ 75[H'(l5)]:a :i. 0,87 (d/cm)2• 164 I PROBABDUDADE Se Z for uma função de duas variáveis, por exemplo Z =. H(X, Y), um resultado análogo será viável. Teorema 7.7. Seja (X, Y) uma variável aleatória bidimensional. Suponha-se que E(X) = !J.x, E(Y) = FJ.v; V(X) = O"x~ e V(Y) = O"y"'!.. SejaZ = H(X, Y). [Deve-se admitir que as várias derivadas de H existam para (Jlx, Jly ).] Então, se X e Y forem independentes, ter-se-á onde todas as derivadas parciais são calculadas para (;.;.:r, FJ.y). Demonstração: A demonstração envolve o desenvolvimento de H em série de Taylor, no ponto (;.;.:r, FJ.v), para um e dois termos, o abandono do resto, e, a seguir, o cálculo da expectância e da variân- cia de ambos os membros, tal como foi feito na demonstração do Teor. 7.6. Deixamos os detalhes a cargo do leitor. (Se X e Y não forem independentes, uma fórmula um pouco mais complicada poderá ser deduzida.) Comentário: O resultado acima pode ser estendido a uma função de n v&iâ- veis aleatórias independentes z ·= H(X, ... , Xn). Se E(Xi) = 1-Li, V(Xz) =a{, te- remos as seguintes aproximações, admitindo-se que todas as derivadas existam: onde todas as derivadas parciais são calculadas no ponto Ú!11 ••• , lf.n). Exemplo 7.20. Admita-se que ~mos um circuito simples, para o qual a tensão M seja expressa pela Lei de Ohm como,M = IR, onde I e R são, respectivamente, a· corrente e a resistência do cir- cuito. Se I e R forem variáveis aleatórias independentes, então M será uma variável aleatória, e empregando o Teor. 7.7, poderemos escrever E[M] ~ E{I)E(R), V[M] C!l:! [E(R)]2V(I) + [E(I)]2V(R). CARACTER~ZAÇÃO ADiCiONAl DAS VARIÁVEIS ALEATÓRIAS I 165 Existe uma bem conhecida desigualdade, devida ao matemático russo Tchebycheff, que desempenhará um importante papel em nosso trabalho subseqüente. Além disso, ela nos fornece meios de com- preender precisamente como a variância mede a variabilidade em re- lação ao valor esperado· de uma variável aleatória. Se conhecermos a distribuição de probabilidade de uma varlá:vel aleatória X (quer a fdp no caso contínuo, quer as probabilidades punctuais no caso discreto), poderemos nesse caso calcular E(X) e V(X), se existirem. Contudo, a recíproca não é verdadeira. Isto é, do . conhecimento de E(X) e V(X) não poderemos reconstruir a distribuição de probabilidade de X e, conseqüentemente, calcular quantidades tais como P[ I X - E(X) I~ C]. Não obstante, veri.., fica-se que muito embora não possamos calcular tais probabilidades [a partir do conhecimento de E(X) e V(X)], poderemos estabelecer um limite superior (ou inferior) muito útil para essas probabilidades. Este resultado está contido no que é conhecido como desigualdade de Tchebycheff. Desigualdade de Tchebycheff. Seja X uma variável aleatória, com E(X) = f.l, e seja c um número real qualquer. Entã~, seE(X- c? for fmita e e for qualquer número positivo, teremos 1 P[ IX- c !;;. e]< --E(X- c)2 • €2 As seguintes formas, equivalentes a (7.20), são imediatas: (a) Se considerarmos o evento complementar, obteremos (. 1 P[IX-c l<e];;;;.1 - -E(X- c)2 • . é ( b) Escolhendo c = f.l, obteremos (7.20) (7.20a) (7.20b) (c) Escolhendo c = f.1 e e = ka, onde a2 = V ar X> O, obteremos P[ IX- f.l i ;;;;.ka] <k-2 • (7.21) 166 I PROBABILIDADE Esta última forma (7.21) é particularmente indicativa de como a variância mede o "grau de concentração" da probabilidade próxima de E(X)=JJ.. Demonstração: [Demonstraremos apenas a (7 ,20), porque as outràs decorrem do modo como foi indicado. Trataremos somente do cáso conVnuo. No caso discreto, o raciocínio é muito seinelliante, com as integrações substituídas por somatórios. Contudo, algum cuidado deve ser tomado com os pontos extremos dos intervalos]: Consideremos P[ IX- c I;;;. E] =f . 1 _ 1..,. cJ(x)dx . . X . X C """ c (O limite da integral diz que estamos integrando entre - oo e c - c e entre c+ E e+ oo.) Ora, lx - .cl;;;. 8. é equivalente a (x- c)2 /E 2 ;;;. L Conseqüentemente, a integral acima é (x- c)2 f(x)dx, onde R = {x: I x - c I;;;. c} . Esta inte-gral é, por sua vez, (x- c)2 f(x)dx, que é igual a 1 . - E[X-c]2 [2 ' . i como se queria demonstrar. ·~. Comentdrios: (a) É importante compreender que o resultado acima é no- tável, precisamente porque muito pouco é suposto a respeito do comportamento probabilístico da variável aleatória X. (/J) Como poderíamos suspeitar, informação adicioná! sobre a distribuição da variável aleatória X nos permitirá melhorar a desigualdade deduzida. Por exemplo, se C= 3/2, teremos da desigualdade de Tchebycheff ·~ : .. ' CARACTERIZAÇÃO ADiCIOI\!All DAS VARIÃ~EIS AlE;ATÕRiAS I 167 Admita-se que ta.mbém saibamos que ! X .é uniformemente distribuída sobre (1- 1/ v3, 1 + l/"\/'3). Daí, E(Xi = 1, V(X) = 1/9, e portlilnto, I 3 I 1 1 P[IX - .ui~ 2·o-] =P[IX- 111 ~ 21 ~ 1- P(IX- li,< 21 I 1 i 3 v3 = 1- P[ 2 f X< 21 = 1- - 2 - = 0,134. i Observe-se que, muito embora o enuncia~o obtido da desigualdade de Tchebycheff seja coerente ~om este resultado, este últlmo é muito mais preciso. Não obstante, em muitos problemas, nenhuma hipót~e referente à. específica distribuição da variável aleatória é justificável e, em tl.Lis casos, a desigualdade de Tchebycheff nos fornece uma informação importante Jsobre o comportamento da variável alea.- tória. Como podemos observar <lá I Eq. (7 .21), se V(X) for pequena, a maior parte da distribuição de probabilidade de X estará "con- e entrada" próxima de E( X). Isio pode sér· expresso · mais precisa- mente no seguinte teorema. I 1 • , • Teorema 7.8. Suponha-se qu~ V(X) =O. Então P[X = JJl = 1, onde J.L = ECX). (Isto é, X = J.L, fom "probabilidade 1.") Demonstração: I)a Eq. (7.20:b ), encontramos que P[i X - pI ~ 9 ] = O para qualquer c > O. Por conseguinte i I P[IX- JJI < n = 1 paraqualquer ~>O. Como e pode ser escolhido arbit~riamente pequeno, o teorema fica demonstrado. ; Comentários: (a) Este teorema mJtra que variância nula implica que toda probabilidade está concentrada em um úrtco ponto, a saber, em E(X). I " (b) Se E(X) = O, entã.o Y(X) = E(X1), e por isso, neste caso, E()(l) ~- O acarreta a mesma c~ncl~o. . 1· ' . • (c) .f: no senttdo actma que dizem011 que uma vartável X e ckge1le'l'ada: Ela toma somente um valor com probabilidJde l. I 7.9. O Coeficiente de Cofrelação I Até aqui estivemos t;atandÓ de parâmetros relacionados, tals I . . como E(X) e V(X), com a distribuição de variáveis aleatórias uni- i . . . dimensionais. Estes parâmetros /medem, em um sentido ' ~xplicado anteriormente, certas caracterist~cas da distribuição. Se tivermos I 168 I PROBABI!.. BDADIE uma variável aleatória bidimensional (X, Y), um problema análogo será encontrado. Naturalmente, também poderemos eStudar as variáveis aleatórias unidimensionais X e Y associadas com (X, Y). Contudo, a questão surge quanto a haver um parâmetro expressivo, que meça de algum modo o "grau de associação" entre X e Y. Est~ 1 noção bastante vaga será tornada mais precisa, brevemente. Esta- beleçamos a seguinte definição. Definição. Seja (X , Y) uma variável aleatória bidimensionaL Definiremos pxy, o coeficiente de wrrelação, entre X e Y , da seguinte forma: E{[X- E(X)][Y- E(Y)]! P:zu = VV(X)V(Y) (7.22) Comentários: (a) Supomos que todas as esperanças matemáticas existam e que ambas V(X) e V(Y) sejam não-nulas. Quando não houver dúvida quanto às variáveis, simplesme~te·escreveremos p em vez de Pxy· (b) O numerador de p, E [[X- E(X)][Y- E(Y)]], é denominado cova- riância entre X e Y, e algumas vezes é d_enotado por axy. (c) O coefiCiente de correlação é uma quantidade adimensional. (d) Antes que a definição acirria fique realmente expressiva, devemos des- cobrir exatamente o que p mede. Faremos isto pela consideração de algumas pro- priedades de p. Teorema 7.9. E(XY) - E(X)E(Y) p = VV(X)V(Y) Demonstração: Considere-se E[[X- E(X)][Y- E(Y)]) = = E[XY- XE(Y) - YE(X) + E(X)E(Y)J = E(XY) - E(X)E(Y) - E(Y)E(X) + E(X)E(Y) = E(XY) - E(X)E(Y). Tteorema 7.10. Se X e Y forem independentes, então p =O. Demonstração: Isto decorre imediatamente do Teor. 7.9, porque E(XY) ·= E(X)E(Y) se X e Y forem independentes . . Comentário: A recíproca do Teor. 7.10 em geral nao é verdadeira. (Veja o Probl. 7.39;) Isto é, podemos ter p = O, e no entanto X e Y não precisam ser independentes. Se p = O, diremos que X e Y são nao correlacúm.adas. Portanto, eer não correlacionado e ser independente, em geral, não são equivalentes. CARACTERIZAÇÃO ADDCDONAL IDAS VARIÁVEIS AUEATÓROAS / 169 O exemplo seguinte ilustra esta questão.* Sejam X e Y duas variáveis aleatórias quaisquer que tenham a mesma distribuição. Sejam U =X- Y e V= X+ Y. Então,E(U) =O e cov ( U, V) = E[(X- Y) (X + Y)] = E(J(l - J72) = O. Portanto, U e V são não correlacionadas. Ainda que X e Y sejam independentes, U e V podem ser dependentes, como a seguinte escolha de X e Y indica. Sejam X e Y os números ·que aparecem no primeiro e no segundo dados, respectivamente, que tenham sido jogados. Nós agora achamos, por exemplo, que P[ V= 4 I U = 3) = O (uma vez que X- Y = 3; X+ Y não pode ser igual a 4), enquanto P(V = 4) = 3/36. Portanto, U e V são depen<!entes. Teorema 7.11. -1 .::; p ::; 1. (Isto é, p toma valores entre - 1 e + 1, inclusive.) Demonstração: Considere-se a seguinte função da variável real i: q(t) = E[V + tW] 2 , onde V = X - E(X) e W = Y ~ E(Y). 'í(t} q(t) v (a) (b) Fig. 7.3 Visto que [V + tW] 2 2: O, temos que q(t) 2: O para todo t. Desen~ volvendo, obteremos I . * O exemplo dado neste comentário foi tirado de uma explicação que apareceu no artigo intitulado "Mutually Exclusive Events, Independence and Zero C~rrelation", por J. D. Gibbons, em The American Statistician, 22, N? 5, December)968, p. 31-32. ' ~' 11~\ ~ 170 I PROBABILIDADE Deste modo, q(t) é uma expressão quadrática de t. Em geral, se u. expressão quadrática q(t) = at2 + bt + c tem a propriedade de < q(t) ~ O para todo t, isto significa que seu gráfico toca o eixo dm em apenas 1un ponto, ou não toca, como se indica na Fig. 7.8. Is por sua vez, significa que seu discriminante b2 - 4ac deve ser :::::; porq~e b2 - 4ac >O ~ignificaria que q(t) teria duàs raízes reais d tintas. Aplicando-se esta conclusão à função q(t), que estávam considerando acima, obteremos 4[E(VW)]2 - 4E(V.2)E(W2) ~ O. Isto acarreta [E(VW)]2 {E[X- E(X)][Y- E(Y)]p E(V2)E(W2) ~ 1• e daí V(X)V(Y) = p 2 ~ 1. Portanto, - 1 :::::; p ~ 1. Teorema 7.12. Suponha-se que p 2 = 1. Portanto (com proba bilidade 1, no sentido do Teor. 7.8), Y = AX + B, onde A e B sã• constantes. Em palavras: Se o coeficiente de correlação p for ± 1 então Y será uma função linear de X (com probabilidade 1). Demonstração: Considere-se novamente a função q(t), descrita na démonstração do Teor. 7.11. É coisa simples observar na de· monstração daquele teorema que, se q(t) > O para todo t, então p2 < 1 Daí a hipÓtese do presente teorema, a saber p2 = 1, acarretar qm deve existir ao menos um valor de t, digamos to, tal qu~ q(to) = = E(V + toW) 2 =O. Desde que V+ t0W =[X- E(X)] + to[Y- -E(Y)], temos que E(V + toW) =O e portanto a variância ·cv + +toW) = E(V + toW) 2 • Deste modo, encontramos que .a hipótesE do Teor. 7.12 leva à conclusão de que a variância de (V+ toW) = O Conseqüentemente, do Teor. 7.8 podemos concluir que a variáve aleatória (V + toW) = O (com probabilidade 1). Logo, [X - E(X)] + + to[Y- E(Y)J :o: O. Reescrevendo Ísto, encontramos que Y = = AX + B (com probabilidade 1), como queríamos demonstrar. ·comentário: A recíproca do Teor. 7.12 também vale, como est§; mostradc no Teor. 7'.13. . Teorema 7.13. Suponha-se que X e Y sejam duas variáveü aleatórias, para as quais Y = AX + B, onde ~ e B são constantes Então p 2 = 1. Se A >O, p = + 1; se A < Ó, p = -1. Demonstração: Visto 1que Y = AX + B,. teremos E(Y) = = AE(X) + B e V(Y) = A 2V(X). Também, E(XY) = E[X(AX + + B)] = AE(X2) + BE(X). Portanto, · .i { · ~ i CARACTERIZAÇÃO AOICIOi\!~l DAS VAR IÁVEIS ALEATÓRIAS I 171 i [E(XY)- E(X)!E(Y)]2 V(X)V(Y)! I IAE(X2) + BE~X)- E(X)[AE(X) + B]2 }2 l{(X)A 2 V(X) i . I . . I AE(X2) + BE(iX) - A[E(X))2- BE(X)I2 .j1 2[V(X))2 . A 21 E(X2) - [E(.~)]2 rz . A 2 [V(X)F [ . 1. . I ~- . . (A segunda. parte do teo~ema resulta. da observação de que v A 2 =IA I.) i ' Cmnentário: Os Teors. 7. 1~ e 7.13 estabelecem. a seguinte importal).te carac- terística do coeficiente de correlação: I O coeficiente de correlação é ~ma medida do grau de linearidade entre X e Y. V~l<il'es de p próximos de -f- 1 ou - ·r indicam um alto grau de linearidade, .enquan~ valores de p próximos de O jndiçam ·ralta de tal linearidade. Valores positivos ~e p mostram que Y "tende a crescer com o crescimento de _X, enquanto ~alares nekativos· de p Iii.ostr&m que Y tende· a decres-· cer com valores crescentes de X, Exi~te muito eqU:ivoco sobre a interp"ret&.ção do coeficiente de correlação. Um valor d~ p próximo de zero indica apenas a ausên- cia M relação linear entre X e. Y. E!~ nãô eliminá a possibilidade de alguma re- laÇão nali-lúl€ar. ' . . . . y f------,--71(1, 1) j Exemplo 7 .21. Suponha-se q,ue a variável aleatória bidimensional (X, Y) sej~ uniformemente distribuída sobre as regiões triangulares· R Fig. 7.9 I . I R= l(x,y)IO<x<y<l}. ! (Veja a Fig. 7.9) Conseqüentemente, a fdp \é dada como I I f(x, y) ;, , 2, (x, y) E R, = ·O, para outros quais- quer valores. I Por conseguinte, as fdp niargiriaid déX e Y são · - I ~(x) = / 1 (2) dy,; ~(J- x), O~ :t ~ 1; I h(y) ,;, 11! (2)d~ = ~y, O I \ O~y~l. I ~I - -------------.-- 172 I PROBABIUDADE Logo, 1 1 1 E(X) = x2(1- x) dx = -, 3 1 1 2 E(Y) = y2ydy =-i o 3 . [1 1 E(X2) = }o x22(1- x)dx = 6, 1 1 1 E(P) = y22y dy = 2 ; V (X) = E(X2) - [E(X)]2 = __!_, 18 V(Y) = E(P) - [E(Y)]2 = _!_ ; 18 111Y 1 E(XY) = xy2 dx dy = -. o 4 Portanto, E(J( Y) - E(X)E(Y) 1 p = VV(X)V(Y) = 2 Como já observamos~ o coeficiente de correlação é uma quanti- dade adimensional. Seu valor não é influenciado pela mudança de escala. O seguinte teorema pode ser facilmente demonstrado. (Veja o Problema 7.41.) Teorema 7.14. Se Pxy for o coeficiente de correlação entre X e Y, e se V = AX + B e W = CY + D, onde A, B, C e D são constantes, eiJ.tão Pvw = (ACfJACJ)Pxv· (Supondo-se A~ O, C ~ - 0.) 7.i0. Valor Esperado Condicionado Tal como definimos o valor esperado de uma variável aleatória X (em termos de sua distribuição de probabilidade)_ igual a f-~"' xj(x) dx ou .;E;=l x,p(x;), tambêm podemos definir o valoresperado condi- cionado de uma variável .aleatória (em termos de sua distribuição de probabilidade condicionada), da seguinte maneira: Definição. (a) Se (X, Y) for uma variável aleatória contínua bidimensional, definiremos o valor esperado condicionado de X, para. um dado Y = y, como sendo 1+"' E(X jy) = "' xg(xjy) dx. (7 .23} (b) Se (X, Y) for uma variável aleatória discreta bidimensio- nal, definiremos o valor esperado condicionado de X, para um dado CARACTERIZAÇÃO AIJI!C!ONAL DAS VARiÁVEIS AlEATÓRIAS I 173 Y = y;, como sendo "' E(X I Yi) = L x;p(x; I Yi) . i=l (7.24) O valor esperado condicionado de Y, para um dado X, será definido de modo análogo. Oomentários: (a) A interpretação do valor esperado condicionado é a se- guinte: Desde que g(xly) representa a fdp condicionada de X para um dado· Y = y, E(XIy) é o valor esperado de X, condicionado ao evento { Y = y). Por exemplo, se (X, Y) representar o esforço de tração e a duréza de um espécime de aço, enj;ão E(XIy = 52,7) será o esforço de tração esperado de um espécime de· aço escolhido ao acaso da população de espécimes, cuja dureza (medida na Escala Rockwell) for 52,7. · (b) :f: importante compreender que, em geral, E(XIy) é uma função de y e, por isso, é uma variável aleat6ria. Semelhantemente, E(Yix) é uma função de x e, também, é uma variável aleatória. [Estritamente falarido, E(XIy) é o valo·r da variável aleafória E(X I Y) .] (c) Porque E(YIX) e E(XIY) são variáveis aleatórias, terá.sentido falar de- BetUI valores esperados. Deste modo, poderemos considerar E[E(X I Y)l, por exem- plo. :f: importante compreender que o valor esperado, interno, é tomado em re- lação à distribuição condicionada de X, para Y igual a y, enquanto o valor espe- ya,do, externo, é tomado em relação à distribuição de probabilidade de Y. Teorema 7.15. E[E(XI Y)] = E(X), E[E(YIX)] = E(Y). (7,.25) (7.26) Demonstração (apenas para o caso continuo): Por definição, f +® f+~ ) E(XIy) =, " xg(xly) dx = . _., x j~~f dx, onde fé a fdp conjunta de (X, Y) e a fdp marginal de Y. Por isso, ! +"" f+"'[f_+"' ] . E[E(X I Y)] = .. E(X I y)h(y) dy= _"' . · _.. xf~Cy~) dx h(y) dy. Se existirem todos os v17lores esperados, será permitido escreyeX' a integral iterada acima, com a ordem de integração .trocada. Por isso E[E(XI Y)] = 1:= x [J:"'j(x, y) dy ]dx = J:""xg(x) dx '1, É(X), 174 I PRO.BABBLIDADE [Um raciocínio semelhante poderia ser empregado para estabele- cer a Eq. (7.26).] Este teorema é muito útil, como ilustram os exem- plos seguintes. Exemplo 7.22. Suponha-se que remessas, contendo um número variável de peças, chegue cada dia. Se N for o número de peças da remessa, ·a distribuição de probabilidade da variável aleatória N, será dada assitn: n: 10 11 12 13 14 15 P(N = n): 0,05 0,10 0,10 0,20 0,35 0,20 A probabilidade de que qualquer peça em particular seja defeituosa é a mesma. para todas as peças e igual a O, 10. Se X for o número de peças defeituosas que chegue cada dia, qual será. o valor esperado de X? Para um dado N igual a n, X apresentará distribuição bi- nomial. Como N, por sua vez, é uma variável aleatória, procedere- mos como se segue. Temos E(X) = E[E(X IN)l. Contudo, E(X!N) = 0,10N, porque para N dado, X tem distribuição binomial. Conseqüentemente, E(X) = E(0,10N) = O,lOE(N) = 0,10[10(0,05) + 11(0,10) + 12(0,10) + 13(0,20) + 14(0,35) + + 15(0,20)] = 1,33. Teorema 7.16. Suponha-se que X e Y sejam variáveis aleató- rias independentes. Então E(X I Y) = E(X) e E(Y I X) = .8(Y). Demonstração: Veja o Probl. 7.43. Exemplo 7.23. Suponha-se que o fornecimento energético (qui- lowatts) a uma companhia hidrelétrica, durante um período especi- ficado, seja uma variável aleatória X, a qual admitiremos ter uma distribuição uniforme sobre [10, 30]. A demanda de potência (qui- lowatts) é também uma variável aleatória Y, que admitiremos ser uniformemente distribuí.da sobre [10, 20]. [Deste modo, em média, mais potência é fornecida do que é demandada, porque E(X) = 20, enquanto E(Y) = 15.1 Para cada quilowatt fornecido, a companhia realiza um lucro de US$ 0,03. Se a demanda exceder a oferta, a companhia obterá potência adicional de outra fonte, realizando um lucro de US$ 0,01 por quilowatt desta potência fornecida. Qual será. o lucro esperado, durante o especificado período considerado? CARACTERrZAÇÃO ADiCiONAL dAs VARiÁVEIS ALEATÓRiAS/ 175 . I Seja T este lucro. Teremos! i I '1' = 0,03Y se Y <X, I = 0,03X + O,OI(Y- K) se Y >X. I Para calcular E(T), o escreveremos como E[E(TIX)]. Teremo10 I . ! i" 0,03y 1~ dy + 120 (O,Oly + 0,02x) 1~ dy E(Tix) I= 1 se 10 < x < 20, L200,03y 1~ dy se '20 < x < 30~ :... ! 1 ~ [0,015x2 - 1,5 + ~ + 0,4x - 0,005x2 ~ 0,02xz] = 1 se 10 < x < 20, 9 i 20 se 20 < x < 30, , I . I = { 0,05 + 0,04x - 0,001X2 se 10 < x < 20, 0~45 se 20 < x < 30!. , I Logo, r I E[E(TIX)] = ~ } 10 (0,051+ 0,04x- 0,00lx2)dx + i 1 (30 j+ 20 J20 0,45 dx ~ $0,43 I 7.11. Regressão da Média I Como já salientamos na seção I anterior, E(X I y) é o valor dava- riável' aleatória E(X I Y) e · é uma junção de y. O gráfico .desta função de y é conhecido como a çurva de I regressão (da média) de X em Y. Analogamente, o gráfico da funçãp de x, E(Yix) é denominado a curva de regressão (da média) de Y em X,. Para, cada valor fixalio y, E(XIy) será o valor esperado da variável aleatória (unidimensio- nal) cuja distribUição de probabiliçlade é definida pela Eq. (6.5) ou (6.7). (Veja a Fig. 7.10.) Em geral, este valpr esperado dlipenderá de y. [Interpretações análogas podem ser feitas para E(Yix).r ' ~I 176 I IP'ROBAB!U.DADE E(Y ix) E(XJy) ·J! (a) (b) Fig.7.11 Exemplc 7.24. Suponha-se que (X, Y) seja uniformemente dis- tribuída sobre o semicírculo indicado na Fig. 7 .11. Nesse csso, f(x, y) = 2/'if', (x, y) E semicireulo. Portanto, -1 :::;; :E:::;; ll; Logo, . g(x I y) 1 - V 1 - y 2 :::; x :::; V 1 - y 2 ,· I = 2Vl- Y2 ' 1 h(yix) - O:::; y:::; V 1 - x 2• - Vl- x 2 ' CARACTERiZAÇÃO ADiCiONAl DAS VARIÁVEiS AlEATÓRiAS I 177 Em conseqüência E(Yix) = i.yr-:;; yh(ylx) dy - r~·y 1 dy= 1 r/~= - }o V 1 - x2 V 1 - x2 2 o ;Semelhantemen te { ' l _;-- = 2 v 1- x 2 • ! +·~II-•• E(XIy) = _ xg(xly) dx -v1-11' =o. Pode acontecer que ·uma ou ambas as curvas de regressão sejam de fato linhas retas (Fig. 7.12). Isto é, E(YI;;) pode ~er uma função linear .de x, ou E(X I y) pode ser uma função linear de y, ou ambas as funções podem ser lineares. Neste caso, diremos que a regressão da média, digamos de Y em X, é linear. y Fig. 7.12 Exemplo 7.25. Suponha-se que (X, Y) seja uniformemente dis- tribuída sobre o triângulo indicado na Fig. 7 .13. :Kesse caso, j(x, y) = 1, (x, y) E T. As seguintes expressões para as ídp margi- nal e condicionada são facilmente encontradas: g(x)= 2x, O::::; x::::; 1j 2- y h(y) = -2- ' o ::::; y ::::; 2. 2 ' 1 g(xly) = 2 _ y , y/2::::; x::::; 1; h(ylx) = 2x , O ~\y::::; 2x. Portanto, E(Yix) = fr/z yh(yjx) dy = fo 2" y(!/2x)dy = x. 178 I PROBABIUDADE Semelhantemen te, E(X I y) = r! xg(x I y)dx JY/2 1 1 - X Y/2 2 y 1 dx=--:;-+- 2 • 2- y "" Por conseguinte, ambas as regressões de Y em X e de X em Y são lineares (Fig. 7.14 ). y y (1, 2) (1, 2) T Fig. 7.13 !Fig. 7.14 Verifica-se que se a regressão da média de Y em X for ~ear, digamos E(Yix) = aX + {3, po,deremos nesse caso e,q>rimir os ·coe- ficientes a e f3 em termos de certos parâmetros da distribuição con- junta de (X, Y). Vale o seguinte teorema: Teorema 7.17. Seja (X, Y) uma variável aleatória bidimensio- nal e suponha-se que E(X) = J.Lx, E(Y) = J.Ly, Seja p o coeficiente de correlação entre X e Y. Se a regressão de Y em X for linear, teremos E(Yix) = !J.y + p uu (x- J.L,). u., ('1.27) Se a regressão de X em Y for linear, teremos " E(XIy) = Jl.x + P Ux (y- J.Ly). fTy (7.28) Demonstração: A demonstração deste teorema está esboçada no Probl. 7.44. - I . . .CARACTEIFI!ZAÇAO ADICiONAl DAS VARDAVIEiS AliEATORiAS I 179 I Comentários: (a) Como foi sugerido pe~a exposição acima, é possível que uma. das regressões da média seja linear, enquanto ia outra não o seja. (b) Observe-se o papel decisivo represbnt!do pelo coeficiente de correlação nas expressões ooima. Se 111 regressão de xj em Y, por exemplo, for linear, e se p =O, então verificaremos (de novo) que E(X Iy) não depende de y. Observe-se também que o sinal algébrico de p determiml' o sinal da declividade da reta de re- gressão. (c) Se ambas as funções de regressãb forem lineares, verificaremos, pela resolução simultânea das Eqs. (7.'J:7) e (7.28),! que as retas de regressão se intercep- tam no "centro" da distribuição, (y.", P-y). I I I ! Como já salientamos (Ex. 7.23), por exemplo), as funções de regressão não precisam ser lineares. No entanto, poderemos ainda estar interessados em aproximar a curva Ide regressão com uma função linear. Isto é usualmente feito recorrendo-se ao princípio dos mí- nimos quadrados, o qual neste conte~to é assim enunciado: Esco- lham-se as constantes a e b de modo \ que E[E(YJX) - (aX + b))2 se torne mínima. Semelhantemente, es,colham-se as constantes c e d, de modo que E[E(XI Y)- (cY + d)]r se torne miníma. As retas y = ax + b e ~· = cy ~ d são denominadas as aproxi- mações de mínimos quadrados às correspondentes curvas de regressão· E(Yix) e E(X Jy), respectivamente: I O teorema seguinte relaciona essas retas de regressão àquelas examinadas anteriormente. . I Teorema 7.18. Se y = ax + b fpr a aproximação de I}Únimos quadrados a E(Y I x) e se E(YJx) for de fato uma função linear de x, isto é I I E(YJx) = a'x + b', então a = a' e b = b'. Enunciado báiogo vale para . a regressão de X em Y. I Demoru;tração: Veja o Probl. 7.45. Problemas 7.1 . (a) (b) (c) (d) I Determinar o valor esperado das i seguintes vatiáveis alea.t6rias: A variável aleatória X definida nd Probl. 4.1. A variável aleat6ria. X definid& nd Probl. 4.2. ,A_ variável ~eatória T definida nd Probl. 4.'6. k variável aleat6ria. X definida. no, Probl. 4.18. I ' l I \ , ', 7.2. Mostre que E(X) não existe par~ a variável aleatória X defini~& ~.o Probl. 4.25. 180 I PROBABIUDADE 7.3. Os valores abaixo represent!!m a distribuiçe.o de probabilidade de D, a ·procura diária de um certo produto. Calcule E(D): d: 1, 2, 3, 4, 5 P(D = d) : 0,1, 0,1, 0,3, 0,3, 0,2. 7.4. Na produção de petróleo, e temperstura de destila.ção T (graus cen- tígrados) é decisivs na determ ina.çã.o da qualidade do produto final. Suponh&-se que T seja considerada uma variável aleatória uniformemente distribufda sobre (150, 300). Admita-se que produzir · um galão de petróleo . custe C1 dólaz:es . . Se o óleo for destilado á ums temperatura menor que 200<>C, o produto é conhecido como nafta e se vende por C2 dólares por galão. Se o .~leo for destilado a uma tempe- rstura maior que 200<>C, o produto é denominado óleo refinado desti.lado e se vende por CJ dólares o galão. Determinar ó lucro líquido esperado (por ga!Ao). . 7.5. Uma cert.a. liga é formada pela reunião da mistura em f~o de dois metais. A liga resultante contém uma certe percentagem de chumbo X, que pode ser considerada como uma. variável aleatória. Suponha que X tenha a seguinte fdp: 3 f(x) = 5 l<r5 x(lOO - x), o~ z~ 100. Suponha-se que P, o lucro líquido obtido pela venda dessa liga (por libra), seja a seguinte função da percentagem de chumbo contida: P = C1 + C2X. Calcule o lucro esperado (por libra). 7.6. -Suponha que um dispositivo eletrônico tenha uma duração de vida X (em unidades de 1.000 horas), a qual é considerada como uma variável aleatória. contínua, com a seguinte fdp: ·'. f(x) = e-:r:, X> O. Suponha que o custo de fabricação de um desses dispositivos seja US$ 2,00. O fsbricante vende a peça por US$ 5,00, mas garante o reembolso tot.a.l se X::::_ (),9. Qual será o lucro esperado por peça, pelo fabricante? . 7.7. As 5 primeiras repetições de um experimento custam US$10 cada.uma. 'I'odru; as repetições subseqüen'tes custn.m US$ 5 cada uma. Suponha que o ex- perimento seje. repetido até que o primeiro resultado bem sucedido ocorra. Se· a probabilidade de mn resultado bem sucedido for sempre iguai a 0,9, e se as repe- tições forem independentes, qual. será o custo esperado da operação complete? 7.8. Sabe-se que um lote contém 2 peças defeituosas e 8 nã.CHI.efeituoses. Se essas peças forem inspecionadas ao acaso, uma após outra, qual será o número esperado de peças que devem ser escollúdas para inspeção, a fim de removerem-se todas as peças defeituosas? 7.9. Um lote 'de 10 motores elétricos deve ser ou totalmente rejeitado ou vendido, dependendo do resultado do seguinte procedimento: Dois motores f!Ji.o es_colhidos ao acaso e inspecionados. ·Se um ou mais forem defeituoooo, o lote será rejeitado; caso contrário, será aceito. Suponha que cada motor custe US$ 75 e seja vendido por US$ 100. Se o lote contiver 1 motor defeituoso, qual será. o lucro esperado do fabricante? CARACTEIFIRZAÇÃO ADiCIONAL DAS VAifUÃVIERS AlEATÓRiAS I 181 7.10. Suponha que D, a demanda diária de uma peça, seja uma variável aleatória com a seguinte distribuição de probabilidade: 1 • P(D = d) = C2ajd!, d = 1' 2, 3, 4. (a) Calcule a constante C. (b) Calcule a demanda esperada. (c) Suponha que urna peça seja vendida por US$ 5,00 Um fabricante produz diariamente K peças. Qualquer peça que não .tenha sido vendida ao fim do dia, deve ser abandonada, com um prejuízo de US$ 3,00. (i) Determine a distribuição de probabilidade do lucro diário, como uma função de K. (ii) Quan- ws peças devem ser fabricadas para tomar máx.imo o lucro diário esperado? 7.11 . (a) Com N =50, p = 0,3, efetue alguns cálculos para achar.qual o valor de k minirnizaE(X) no Ex. 7 .12. (b) Empregrando os valores acima de N e p, e tomando lc = 5, 10, 25, determine, para cada um desses valores de k, se o "teste de grupo" é preferí- vel. 7.12. Suponha que X e Y sejam variáveis aleatórias independentes, com as seguintes fdp: J(x) = 8/r, X> 2; g(y) = 2y, o< y < 1. (a) Determine a fdp de Z,;, XY. (b) Obtenha E(Z) por duas maneiras: (i) empregai;!.do a fdp de Z, como foi obtida em (a); (ii) Diretamente, sem empregar a ídp de Z. 7.13. Suponha que X tenha a fdp: j(x) = Sfr, x > 2. Seja W = (lj3)X. (a) Calcule E(W), empregando a fdp de W. (b) CeJcule E(W), sem empregar a fdp de W. 7.14. Um dado equilibrado é jogado 72 vezes. Chamando de X o número de vezes que aparece o seis, calcule E()(l ). 7.1!i. Determine o valor esperado e a variância das variáveis aleatórias Y e Z do JP'robl. 5.2. 7.16. Determine o valor C:,!peyado e a variância da variá.vel aleatórie Y do lP'robl. 5.3. 7.17. Determine o valor esperado e a variância das variáveis aleatórias Y e Z do Probl. 5.5. 7.18. Determine o valor espern.do e a variância das variáveis Y, Z e W do lP'robl. 5.6 7.19. Determine o valor esperado e a variância. das variáveis ·slentórias V e S do Probl. 5.'!. '1.211. Determine o valor esperado e a variâncis de variável Y do Probl. 5.10, am cuis um dos três casoo. 7.21. Determine o valor espe,rado e . a ve.riânci& da variável aleatóri:~. A do lP'robl. 6.'1. 7.22. Determine o valor e.~per~o e 11 variância da. variável ~tle~tórh;l H dlo Pl"obl. 6. 11. 1_, [~11 !I l l:t ,, fi " ····· ); !"~!i . 'I ii:, I! j ' I li \i ! ;~;l ! I. i :~. r ,/ ~l:l I 1'':'1 nj 'I ~11 .!1 t{~:ii!l[ ! t~:iil I I ~ '•11'1'1;11 t·:!, l • ·lt l"''ni'· ; !:Jt,l'!'' ' '·~r~ ~~ / l~l' ll' ll ~~~- ,, ' ' 1~ li ffi 1 ~1 1 ' 1 1 li ,, I' I _il!bi tm~ 1 1 :1 11 .. ~,~ -- 1\ír!l ·!ii ':'111'! I .. · · ""i['l ( 1,, ., 'I'!' I '1,[': ,; 'iii I' j'i:l ld:r '11; 'r' !I ~: i ii. ·: l···ii-:1 I' Ji~!l·!( ~' i'!!jJ [ ~ ,_,,,,,, : J ~l,l' I 'i'''':[ ~ Uj·i 11~1- ,, ;;l,lll' ,; ~ i:i}tji " j I f"r I'H l l!t:ii fi' ii:·:! !i!lj:f !liJfii ;n~ . ! lr1 ~)f.:ii.!ili ~ .;; !:)!· ':]! ·;li ):i· ill; i!l! ji~~; :!,1, 1\;. I!;[ 'iii. li ":! i r ,., ;! i[ ' I t'! ~ ' I l·ii 182 I PROIBABIUDADE 7.23. Determine o valor esperado e a variância da; variável aleat6ria W do Probl. 6.13. 7.24. Suponha que X seja uma variável aleatória, para a ,qual E(X) = 10 e V(X) = 25. Para quais valores positivos de a e b deve Y = aX - b ter valot esperado O e variância 1 ? 7.25, Suponha que S, uma _tensão aleatória, varie entre O e 1 volt e seja uniformemente distribuíd-a sobre esse intervalo. Suponha que o sinal S seja per- turbado p~r um ruído aleatório indepe~dente, aditivo, N, o qual seja uniforme- me_nte distribuído;> entre O e 2 volts. (a) Determine a tensão esperada do sinal. levando em conta o ruído. (b) Determine a potência esperada quando o sinal perturbado for aplicado a um resistor de 2 ohms. 7.26. Suponha que X seja uniformemente distribuída sobre [ -: a, 3a]. De- termine a variância de X. 7.27. Um alvo é constituído de três círculos concêntricos de raios 1/v3; 1, e V3. Tiros dentro do ~lrculo interior valem 4 pontos, dentro do anel seguinte valem 3 pontos, e dentro do anel exterior valem 2 pontos. Tiros fora do alvo valem zero. S0ja R a variável-aleatória que representa a distância do ponto de impacto ao centro do alvo. Suponha que a fdp de R seja j(r) = 2{-rr(l + r'Z), r > O. Calcule o valor esperado do escore depois de 5 tiros. 7.28. Suponha que a variável contínua X tenha a fdp j(x) = 2xe-r, X~ 0. Seja Y =X'-. Calcule E(Y): (a) Diretamente, sem primeiro obter a fdp de Y. (b) Primeirame!_lte, obtendo a fdp de Y. 7.29. Suponha que a vaxjável aleatória bidimensional (_X, Y) seja unifor- memente distribuída sobre o triângulo da Fig. 7.15. Calcule V(X) e _ V(Y). y (2, 4) Fig. 7.15 Fig. 7.16 7.30. Suponha que (X, Y) seja unüonnemente distribuída sobre o triân- gulo da Fig. 7.16. (a) Estabeleça a fdp marginal de X e 111 de Y. (b) Calcule V(X) e V(Y), ! CARACTERI2AÇÃO ADJCIONAL -Dl SVARIÃVEIS AlEATÓfliAS l 183 7.31. Suponh& que X e Y sejj ·· variáveis mleatórioo para oo quais I . .E(X) = p.,., E(Y) =lly, V(X) =· ~r,}, e V{IY) =<rl. Empregmndo o Teor. 7.7, obtenha uma aproximaçittbde E(Z) e V(Z), jonde Z = X/Y. 7.32. Suponha qu~ X e Y sejam v~á.veis eJ.e~tórias indepàndentA:s, cmdl!. uma delas uniformemente distribuída sobrjl (1, 2). Seja Z = X/Y. · (a) Empregando o Teor. 7.7, obtenpa expressões aproximadas para E(Z) a V(Z). 1 (b) Empregando o Teor. 6.5, obteruJ a fdp de Z, a a seguir, determine oo I vll.llores exmtos de E(Z) e V(Z). Comparej<>s com (a). 7.33. Mostre que se X for ~ma va~vel aleatória contíÍma, com fdp j tendo 111 propriedade de que o gráfico de j sejaJ simétrico em relação & z = a, entã.o E(X) =a, desde que E(X) exista. (Veja o Ex. 7.16.) . 7.34. (a) Suponha que a variável eJ.Ja.tória X tome os valores -1 e 1, c!Mlm um deles com probabilidade 1/2. Consid~re P[ IX- E(X)I 2:: k v'v(X}] como uma função de k, k > O. Em um gráfico) marque esta função de k e, no mesmo sistema de coordenadas, marque o limitei superior da ·probabilidade acima, tal COIW) é dada. pela. desigualdade de Tchebylheff. (b) O mesmo que em (a), exceto qj P(X = - 1) = 1/3, P(X = 1) = 2/3. 7.35. Compare o limite superior da probabilidade P[ I X- E(X) I 2:: 2 VV(X)l, · obtida pela desigualdade de Tchebycheff, <iam a. probabilidade exata se X for uni- formemente distribuída sobre (-1, 3). j . 7.35. Verifique a. Eq. (7.17). i 7.37. Suponha que a variável alea.Jsria. bidimensional (X, Y) seja unifor- memente distribuída sobre R, onde R é ·definida por ( (z, y) I z2 + 1 y2 2 1, y 2:: O l . (Veja a Fig. 7.17.) Calcule p"'Y, o coefici~nte de correlaÇão. 7.38~ Suponha · que a variável aledtória bidimensional (X, Y) tenha fdp dada. por l j(x, y) = ke""11, I O < z < y < l = -0, para.1 quaisquer putros valores. (Veja a Fig, 7.1!3.) Detennine o coefrciente de oon:elação Pzu· I y . -1 FiiiJ. 7.17 I I I I I I ~ig. 7.18 · 7.~9. O exemplo segúinte ilustra ~ue p =O não significa independência. Suponha que (X, Y) tenha uma distribui~o de probabilidade conjunta d11-da pele. Tab. 7.1. ! · .· · ·. \ 184 I PROBABILIDADE (a) Mostre que E(XY) = E(X)E(Y) e conseqüentemente p =O. (b) Explique por que X e Y não são independentes. (c) Mostre que este exemplo pode ser generalizado como se segue. A esco- lha do número 1/8 não é decisiva. O que é importante é que todos os valores cir- cundados sejam· iguais, todos os vm.lores enqWIIdrados sejl!m iguais e o valor cen- tral seja zero. Tab. 7.1 I>< - I o i -I CD [}] CD o [I] o []] I CD w CD 7 . .00. Suponha que A. e B sejam dois eventos associados ao experimento e. Suponhs que P(A) > O e P(B) > O. Sejam as variáveis aleatórias X e Y defini- das =im: X = 1 se A. ocorrer, e O em caso contrário, Y = 1 se B ocorrer, e O em caso contrário. Mostre que P:rv = O ·implica que X e Y sejam independentes. 7.41. Demonstre o Teor. 7.14. 7.42. Para a variável aleatória (X, Y) definida no Probl. 6.15, calcule E(Xjy), E(Yjx), e v~rifique que E(X) = E[E(XIY)] e E(Y) = E[E(YjX)]. 7.43. Demonstre o Teor. 7.16. 7.44. Demonstre o Teor. 7.17. [SugesUw: Para o ci!SO contínuo, multi- plique a equação E(Y.lx) = Ax + B por g(x), a fdp de X, e integre de - <D 111 m, Faça a mesma coisa, empregando xg(x) e, depois, resolva ru> duas equações resul- tantes para A e para B.] 7.45. DemolllStre o Teor. 7.18. 7.46. Se X, Y e Z forem variáveis m.leatóri&s não-correlacionadas, com desvios-padrões 5, 12 e 9, respectivamente, e se U = X + Y e V = Y + Z, cal- cule o coeficiente. de correlação entre U e V. .., 7.47. Suponha que ambas as curvas de regressãO da média. sejam, de fato, lineares. Particularmente, admita. que E(Y)jx) = - (3/2)x- 2 e E(Xjy) = = - (3/5)y - 3. (a) Determine o coeficiente de correlação p. (b) Determine E(X) e E(Y). 'I .I i CARACTERfiZAÇÃO ADICRONAL DAS VARIÃVEIS AlEATÓRiAS I 185 7.48. Considere a previsão de tempo com duas possibilidades: "chove" ou "não chove" nas próximas 24 horas; Suponha que p = Prob (chove nas próximas 24 horas > 1/2). O previsor marca 1 ponto se ele estiver correto e O ponto se não estiver. Ao fazer n previsões, um previsor sem capacidade escolhe de qualquer maneira, ao acaso, n dias, (O< r < n) para afirmar "chove" e os restantes n- r dias para afirmar "não chove" . Seu escore total de pontos é Sn. Calcule E(Sn) e V ar (Sn) e encontre qual o valor de r para o qual E (Sn) é o maior. (Sugestão: F aça Xi = 1 ou O, dependendo de que a i-ésima previsão esteja correta ou não . Então, Sn = :Ef = 1 Xi. Observe que os xi não são independentes.] \. '. Discretas: Variáveis Aleatórias A de Poisson e Outras Capítulo 8 8,1, A !Distribuição de Poisson Tal como nos modelos determinísticos, nos quais algumas rela- ções funcionais desempenham importante papel (como por exemplo a linear, a quadrática, a exponencial, a trigonométrica etc.), também verificamos que, na construção de modelos não-determinísticos para fenômenos observáveis, algumas distribuições de probabilidade sur- gem mais freqüentemente que outras. Um motivo para isso ~ que, da mesma maneira que no caso determinístico, alguns modelos mate- máticos relativamente si~ples parecem ser capazes de descrever uma classe bastante grande de fenômenos. Neste capítulo, estudaremos bastante pormenorizadamente, algu- mas variáveis aleatórias discretas. No capitulo seguinte, faremos o mesmo para variáveis aleatórias contínuas. Vamos apresentar. rigorosamente a seguinte variável aleatória. Depois, indicaremos sob quais circunstâncias esta variável aleatória poderá representar o resultado de um experimento aleatório. Definição. Seja X uma variável aleatória discreta, tomando os seguintes valores: O, 1, . .. , n, . . . Se e--a ak P(X= k) = --k! I k. = O, 1, ... ~ n, ... , (8.1) diremos que X tem distribuição de Poisson, com parâmetro a > O. Para verificar que a expressão. acima representauma legítima distribuição de probabilidade, basta observar q~e L;;=oP(X = k) = L,;;=o (e--aakfk!) = e,_,.e" = 1. VARIÁVEiS ALEATÓRiAS DISCRIE~AS: A DE POISSON E' OUTRAS I 187 I i Comentário: Já que estamos definindo a variável aleatória diretamente em termcs de seu contradomínio e distribbição de probabilidade, sem referência a qualquer espaço amostral subjacente s,l poderemos snpor que o espaço amostral S tenha sido identificado coin Rx e qt.Íe X(s) = s. Isto é, os resultados do ex- perimento são apenas os números O, 1, 2j .. . e as probabilidades ·associadas a cada um desses resultados são dadas pela Eq.! (8.1). . I Teorema 8.1. Se X tiver ~istribuição metro a, . então E(X) ;, a e V(X) I= a. de Poissón ·com parâ- i Demonstração: .. E(X) =.L k! I :t ~-e-«_a_k-.-: k=1 (k - 1)! k~O Fazendo-se s = k - 1; verificamos que a expressão ·"' e-"a'~ 1 j "' e-" a' E(X) L l=aL- =a. s~o 8! I s~O 8! Semelhan temente, I "' 2 --a J E(XZ) = L . k e a ' k~O k! Fazendo, novamente, 8 = k-- 1, ! obteremos I se torna (I) e-a. as+ 1 1 Ol e--a a' co e-a as E(X2) = L (s + 1) = a [: 8 --+ a L-- = a 2 + a o~O s! s: ~o s! s=O s! (porque o primeiro somatório é igual a um]. Portanto, · I rewesenta E(X), enquanto I o segundo V(X) = E(X2) - [E(X))Z = a 2 + a - a 2 = a. Comentário: NotEHJe a. interessante / propriedade que uma 1variável aleatória de Poisson apresenta.: seu valor esperadt é igual a sua variância. 8.2. A DistriblUiição de Poisson! Como AproJtimação : da Distrib111ição Binomial 1 A distribuição de Poi~son reJresenta U:m papel muito importante, por si mesma; como um modelo probabilístico adequado para um gran- de número de fenômenos 'aleató~os. Explanaremos isso na próxima seção. Aqui, trataremos da impo~tância dessa dist'ribuição como uma aproximação das probabilidades bihomiais. I .. Exemplo 8.1. Suponhamos que chamadas telefônicas <;heguem a uma grande central, e que em fn período particular de três 'horas ~~ ~; ,t jf, ~~ ~· !i ~ ~ j f~ •I r;, ~f :j' ~ li :i ? ,.1 ~ t· ~ ~: ~ f' li f~ t~ '~ 1i' f i: i' n i t 188 I PROBABI LIDADE (180 minutos), um total de 270 chamadas tenham sido recebidas, ou seja, 1,5 chamadas por minuto. Suponhamos que pretendamos, com base nessa evidência, calcular a probabilidade de serem recebidas O, 1, 2 etc. chamadas durante os próximos três minutos. Ao considerar o fenômeno da chegada de chamadas, poderemos chegar à .conclusão. de que, a qualquer instante, uma chamada telefônica é tão provável de ocorrer comoem qualquer outro instante . Assim, a probabilidade permanece constante de "momento" a "momento". A di- ficuldade é que, mesmo em um intervalo de tempo muito pequeno, o número de pontos não é apenas infinito, mas n~o pode ser enumerado. Por isso, seremos levados a uma série de aproximações, que descreve- remos agora. Para começar, poderemos considerar o intervalo de três minutos subdividido em nove intervalos de 20 segundos cada um. Poderemos então tratar cada um desses nove intervalos como uma prova de Bernouilli, durante a qual observaremos uma chamada (sucesso) ou nenhuma chamada (insucesso ou falha), com P (sucesso) = (1,5) (20/60) = 0,5. Desse modo, poderemos ser tentados a afirmar que a probabilidade de duas chamadas durante o intervalo de três minutos [isto é, 2 sucessos em 9 tentativas com P (sucesso) = 0,5] seja igual a (~)(J/2)9 = 9/128. A dificuldade com esta aproximação é que estamos ignorando as possibilidades· de, digamos, duas, três etc. chamadas durante um dos períodos experimentais de 20 segundos. Se essas possibilidades fossem consideradas, o emprego da distribuição binomial indicado não poderia ser legitimado, porque essa distribuição é aplicável somente quando existe uma dicotomia: uma chamada ou nenhuma chamada. É para eliminar essa dificuldade que nos voltamos para a aproxima- ção seguinte e, de fato, seremos levados a uma inteira seqüência de aproximações. Uma das maneiras de estar provavelmente certo de que ao menos uma chamada será recebida na central, durante um pequeno intervalo de tempo, é fazer esse intervalo muito curto. Assim, em vez de considerar nove intervalos de 20 segundos de duração, vamos, a seguir, considerar 18 intervalos, cada um de dez segundos de duração. Agora poderemos representar nosso experimento como 1 8' provas de Bernouilli, com P (sucesso) = P (entrar chamada durante o subintervalo) = (1,5) (10/60) = 0,25. Conseqüentemente, P (duas chamadas durante o inter- valo de três minutos)= C~J (0,25)2 (0,75l 6 . Observe-se que, não obstante, agora, estarmos tratando com uma distribuição binomial VARIÁVEIS ALEATÓRIAS DISCRETAS: A DE POISSON E OUTRAS I 189 diferente da anterior (isto é, tendo parâmetros n = 18, p = 0,25, em lugar de n = 9, p = 0,5), o valor esperado np é o mesmo, a saber, np = = 18 (0,25) = 9(0,5) = 4,5. Se continuarmos nesta maneira, aumentando o número de subinter- · valas (isto é, n), faremos, ao mesmo tempo, decrescer a probabilidade de chegar uma chamada (isto é, p ), de tal maneira que np fique cons- tante . Portanto, o exemplo precedente nos leva a formular a seguinte pergunta: que acontece .com as probabilidades binomiais ( Z) pk (1 - p )n - k, se n--* oo e p--* O, de tal maneira que np permaneça cons- tante, digamos np =ex? O cálculo seguinte leva à resposta desta questão muito importante. Consideremos a expressão geral da probabilidade binomial, P(X = k) = (~ )p,.(1 - p)n-<c = n! k .....Jc k!(n - k)! p {l - p) = n(n- l )(n- 2) .. . (n- 1c + 1) k! Façamos np = ot. Daí, p = ot/n, e 1 - p = 1 - afn = (n - a)/n. Substituindo todos os termos que contenham p . por sua expressão equivalente em termos de ot, obteremos P(X = k) = n(n- 1). ··~~- k + 1) (~f (n ~ otr-k _ ot 1' [ ( 1 ) ( 2) ( k - 1)' ]( a ]"-k = k! (1) 1 - -; 1 - -; . . . 1 - -n- 1 --;;- ~~ [ (1) ( 1 ~ ~) ( 1 - ! ) ... ( 1 -- k ~ 1)] X X (1- ;r(l .- :rk Agora, façamos n --+ m, de tal modo que np = ot permáneçil, cons- tante. Evidentemente, isto significa que p --+ O, enquanto n --> oo, f~J, E :: ~:, I !~i::,: \ :~i.-r· : ~ n:·::· .. !i:~ r ··],; :.u·:. 11 -~~~J! , . J I ' I ~ l i ' ti!:l'li•l 1111 ~~1íjl!l jiill''l ~~~:!·I ~iiL .jfjl;]fll lr!ii'' ' ilffi!i1iil ·r ''1\l:;il !t í'H' I, I ~ ( ~ ;i: , li\j' l Ir ! ·:::,l I ,':~~ i: l ' ii ! ;!i'it J ~~~ .i I , !t J: ~" ~ :1 j:.l! I :''' I' '.iit ·I ·ii: H ~ i}:' ir f;j l!i!i,il li I· i[! ' t '··'···I [ 1!1: .. i!lii!l ~~~~ il! mnr: !~i ll :i ilii:!i !'"! . :;!i ~~r ::! ~ r·i· ::I j : !' •' ! \:·;: ;.i• I: .! :ii 'i lt:ll I' ' .ii n! ii i:, t'· i': ll j ''' ,[: ;! !!·:!! l:i:t!j rii 1 ·1: ''lll :'1!; ;: i Iii:: : ~ ~ i ; : l: t,il'l- \!iil ii111 1,:rl· 1 ,;!i~l •' I ,., ,.,I H ''i i '' !' .l:;i, ,; : ~ ; :'I : I ! j, • r: ,!!! · 190 I PROBABIUDADIE porque de outro modo np não poderia ficar constante. (Equiva- lentemente, poderíamos impor que n ~ co e p ~ O, de · tal modo que np~a.) .i Na expressão acima, os termos da forma (1 - 1/n), (1 - 2/n), . . . se aproximam da unidade à medida que n tende para infinito, o que dá (1 - afn)-~<. f} bem conhecido (da definição do número e) que (1 - afn)" ~ e- quando n ~ "". Por isso, Iim ,._,, P(X = k) = e- ak/k!. Isto obteremos a distribuição de Poisson com parâmetro .01. . mir este importante :resultado no seguinte teorema: é, no limite, Vamos resu- Teorúna 8.2. Seja X uma variável ahiatória distribuída bino- mialmente com parâmetro p (baseado em n repetições de um experi- mento). Isto é, Admita-se que quando n ~ "", fique np = 01. (const.), ou equi- valentemente, quando n ~ "", p ~O, de modo que np ~a. Nessas •Condições teremos e-mOt.k lim. P(X = k) = --- , ,_,.. k! que é a distribuição de Poisson com parâmetro a. Comentários: (a) O teorema acima diz, essencialmente, que poderemos obter uma aproximação das probabilidades binomiais comas probabilidades da distribuição de Poisson, toda ve~ que n seja grande e p seja peq,ueno. (b) Já verificamos que se X tiver uma distribuição binomial, E (X) = np, enquanto se X tiver uma distribuição de Poisson (com parâmetro a), E(X) == a. (c) A distribuição binomial é caracterizada por dois parâmetros, n e p, enquanto · a distribuição de Poisson é caracterizada por um único parâmetro, a == np, o qual representa o número esperado de sucessos por unidade de tempo (ou por unidade de espaço em alguma outra situação). Esse parâmetro é também conhecido com a intensidade da distribuição. É importante distinguir entre o número esperado de ocorrências por unidade de tempo e o número esperado de ocorrências em um período de tempo especificado. Por exemplo, no Ex. 8.1, a intensidade é 1,5 chamadas por minutos e, portanto, o número esperado de cha- madas em, digamos, um período de 10 minutos seria 15." (d) Poderemos também considerar o seguinte raciocínio para avaliannos a variância de uma variável aleatória de Poisson X, com parâmetro a: X pode ser considerado como um caso limite de uma variável aleatória distribuída binomial- mente Y, com parâmetros n e p, onde .n--+ oo e p _,.O, de tal modo que np--+ a. Desde que E(Y) = np e Var(Y) = np (1- p), nós observamos que, no limite, Var(Y) --+ a. · ·~ ~'~! I ·~ ~:t :~. ~ -,;,~'!/ ··~i· I g; 11 ·"' [i ~, ~l I ~i I i~ .~[( ·~~ :~;~.{~. ~1~ I I VARIÁVEIS ALEATÓRIAS DISCT ETAS: A DE POISSON E OUTRAS I 191 Já existem extensas tábu~s da distribuição de Poisson. (E. C. Molina, Poisson's Exponential j Binomial Limit, D. Van Nostrand Company, Inc., New York, 1942.) Uma tábua resumida desta distribui- ção está ·apresentado no Apêndid,e (Tábua 3): Vamos apresentar três exe~plos a mais, que ilustram a aplicação da distribuição de Poisson. I I , Exemplo 8.2. Em um cruzamento de tráfego intenso, a probabili- dade p de um carro sofrer uni acidente é muito pequena, digamos · p = 0,0001. Contudo, durante! certa parte1 do dia, por exemplo das 16 às 18 horas, um grande número de carros passa no cruzamento (1000 carros, admitamos). Ness~s condições, qual é a probabilidade de que dois ou mais acidentes ocorr~m durante aquele período? . Vamos fazer algumas hipót~ses. Dever{1mos admitir que p seja a mesma para todo carro. També~ deveremo~ supor que o fato de um carro sofrer o~I não um acidente I não depende do que ocorra a qualquer outro carro. (Esta hipótese, ob~amente, não corresponde à realidade, mas, apesar disso, a aceitaremos.) Assim, poderemos supor que, se X for o número de acidentes ent}e os 1000 parros que chegam, então. X terá distribuição binomial corrb = 0,0001. (Outra hipótese que fare- mos, não explicitamente, é que n, o número de carros que passam no cruzamento entre 16 e 18 horas, é prefixado em 1000. Obviamente, . I . um tratamento mais realista seFia considerar o próprio n como uma variável aleatória, cujo vaior dep~nda de um mecanismo casual. Contu- . I do, não faremos isso, e tomare*os n como pré-fixado.) Deste modo, poderemos obter o valor exato d~ probabilidade procurada: I P(X~ 2) = 1- [Jf(X= O)+ P(X= 1)] = = 1- (0,9999)1000 - 11000(0,0001)(0,9999)999 • I Considerável dificuldade sulrge para o cálculo desses números. Como n é grande e pé pequeno!, poderemos aplicar o Teorema 8.2, e obter a seguinte aproximação: I . i e-o,I (O 1 ,k P(X~k)~ 'r k! Conseqüentemente, F(X~ 2) ~ 1- e~ 0 ' 1 (1 + 0,1) = 0,0045. 192 I I?ROBABflUDADIE Exemplo 8.3. Suponha-se que um processo de fabricação pro- duza peças de tal maneira que uma determinada proporção (cons- tante) das peças p seja defeituosa. Se uma partida de n dessas peças for obtida, a probabilidade de encontrar exatamente k peças defei- tuosas pode ser calculada pela distribuição binomial como igual a P(X = k) = (~)pk(l - p)"-k, onde X é o número de peças defei- tuosas na partida. Se n for grande e p for pequeno (como é freqüen- temente o caso), poderemos aproximar a probabilidade acima por Suponha-se, por exemplo, que um fabricante produza peças, das quais cerca de 1 em 1.000 sejam defeituof.fas. Isto é, p = 0,001. Daí, empregando-se a distribuição binomial, encontraremos que em uma partida de 500 peças, a probabilidade de que nenhuma das peças seja defeituosa será. (0,999)600 = 0,609. Se aplicarmos a aproxi- mação de Poisson, esta probabilidade poderá ser escrita cerno e-0•6 = 0,61. A probabilidade de encontrar 2 ou mais peças defei- ·tuosas será, de acordo com a aproximação de Poisson, 1 - e-M(l . + + 0,5) = 0,085. Exemplo 8.4. [Sugerido por uma expostçao contida em A. Renyi, .Çálculô de Probabilidade (em alemão) VEB Deutscher Verlag der Wisaenschaft, Berlim, 1962.1 Na fabricação de garrafas de vidro, partículas pequenas e duras silo encontradas no vidr() em fusão, com o qual se fabricam as garrafas. Se uma. única dessas partículas aparece na garrafa, a garrafa não pode ser utilizada e deve ser jogada fora. Pode-se admitir que as partículas estejam aleatoriamente espalhadas no vidro em fusão. Devemos supor que o vidro em fusão seja produzido de ta:l maneira que o número de partículas seja (em média) o mesmo para uma quan- tidade constante de vidro em fusão. Suponha-se, em particular, que em 100 kg de vidro em fusão sejam encontradas x dessas partículas e que seja necessário 1 kg de vidro em fusão para fabricar uma ga;rafa. Pergunta: Que percentagem das garrafas terá de ser jogada fora pelo fato de serem defeituosas? A primeira vista, a "solução'· deste problema poderia ser a seguinte. Visto que o material par~ 100 garrafas contém x partículas, haverá aproximadamente x pol cento de garrafas que deva ser· jogada fora. Um pouco de reflexãc mostrará, no entanto, que essa solução não é correta, porque umf garrafa defeituosa poderá conter mais de uma partícula, deste mod< VARiÁVEIS ALIEA'l"ÓROAS DISCRETAS : ADIE POUSSON E OUTRAS I 1~3 reduzindo a percentagem das garrafas defeituosas obtidas a partir do material restante. A fim de obtermos uma solução "correta", vamos fazer as se- guintes hipóteses simplificadoras: (a) Cada particula aparece no material de cada garrafa com igual probabilidade, e (b) a distribui~ ção de qualquer partícula especifica é independente da de qualquer outra partícula específica. Com essas hipóteses, poderemos reduzir nosso problema ao seguinte modelo de "urna":-n bolas são distribuí- das ao aca.So por N urnas. Qual é a probabilidade de que, em uma urna escolhida aleatoriamente, sejam encontradas exatamente k bo- las? (As urnas, evidentemente, correspondem às garrafas, enquanto ~ as bolas correspondem às partículas.) Chamando de Z o número de bolas encontradas em uma urna escolhida aleatoriamente, decorre das hipóteses acima que Z é bino- mialmente distribuída com parâmetro 1/N. Por isso P(Z = k) = (~) (~r ( 1 _ ~r-~ Suponha-se, agora, que o vidro em fusão seja preparado em quanti- dades muito grandes. De fato, suponha-se que seja preparado em unidades de·lOO kg e que M dessas unidades tenham sido fornecidas. Portanto, N = 100M e n = xM. Façamos a = x/100, que é igual à proporção de particulas por garrafa. Conseqüentem-ente, N = nfa e a probabilidade acima pode ser escrita como igual a Deste modo, à medida que o processo de produção continuar (isto é, queM-+ oo e portanto n -+ oo ), obteremos Vamos calcular a probabilidade de que uma garrafa deva ser jogada fora. Ela será igual a 1 - P(Z = 0). Conseqüentemente, a P(uma garrafa defeituosa) ~ 1 - e'""'100• Se o número de garrafas fabri- cadas for bastante grande; poderemos identificar a probabilidade de uma garrafa defeituosa com a freqüência relati'va das garrafas de- feituosas. Por isso, a percentagem de garrafas defeitdosas . será, aproximadamente, 100(1- e""''100). Se desenvolvermos · 100(1 - 194 I PROBABDUDADE - e-4/Ioo) pela série de Maclaurin, obteremos [ ( x x2 xs 100 1 - 1 - 100 + 2(100)2 - 3!(100) 8 + ... )] = Portanto, se x for pequeno, a proporçã<>de garrafas jogadas fora será aproximadamente x, como inicialmente sugerimos. No en- tanto, para x grande, isto não valerá mais, Na situaçao em que x = 100, a percentagem de garrafas jogadas fora não será 100, mas em vez disso 100(1 - e-1) = 63,21 por cento . Este constitui, na~ turalmente, um caso extremo e não seria encontrado em um 'processo · de fabricação razoavelmente controlado. Suponha-se que x = 30 (um número mais próximo da realidade). Nesse caso, em vez de jogar fora 30 por cento (nossa solução inicial, novamente), somente jogaríamos 100(1 - e-0•8) = 25,92 por cento. Poderíamos observar que se x fosse razoavelmente grande, seria mais ec~nômico fabricar garrafas menores. Por exemplo, quando for necessário apenas 0,25 kg de vidro · em fusão por garrafa em vez de 1 kg, e se x = 30, então a percentagem jogada fora se reduzirá de 25,92 por cento para 7,22 por cento. 8.3, O Processo dle IPoisson Na seção anterior, a distribuição de Poisson foi empregada como um recurso de aproximação de uma distribuição conhecida, a saber, ·a binomial. No entanto, a distribuição de Poissom exerce por si mesma um papel extremamente importante porque ela representa um modelo probabilistico adequado pari!.. wn grande número de fie- nômen.os ob~erváveis. · Muito embora noo venhamos a dlax umà d.ed:ução completamente rigorosa de alguns dos resUltados que iremos apresentar, o tmtamento gemi é de tal i.mporla.ncia que valerá a ·pena- oomprooridê-lo, mesmo que não po.ssamos d,emonstrnr cada pasaagem. Com o objetivo de aludir a um exemplo específico, enquanto formos apresentando os detalhes matemáticos, vamos considerar uma fon~ de. material radi()ativo, que emita partímlls.s a. Seja Xt definido como o número de partículas emitidas durante um períOdo especificado de tempo.[O, t)~ Devemos fazer algumas hipóteses sobre ! VARiÁVEiS ALEATÓRIAS DDSCRIE~AS: A DE POISSOI\I E ~UTRAS I 195 i!> variável aleatória (discreta) Xt, L quais nos, pe,mritiroo estabelecer ~~> distribuição de probabilidade d~ Xe. A plausibilidade dessas hi- p6t.eses (recordando o que Xe rep~esenta) é fortl!.lecida pelo fato de que a evidência empírica aceita, ~m grau bastante oo~derá.vel, oa resultados teóricos que iremos obier. · ! V ale a pena salientar que ao I deduzir qualquer resultado mate- mático, deveremos aceitar alguns postulados 1 ou axiomas subjacen- tes. Ao procurarmos axiomas p~.ra descrevei' fenô.menoa observá- veis, alguns axiomas poderão ser ibastant.e mais plausíveis (e menos l!J'bitrá.rios~ que outros. Por exemplo, ao descrever o movimento de um objeto lançado para cima ~om ~alguma velocidade inicial, po- deremos &Upor que a distância acima do solo, s, seja uma função quadrática do tempo t; isto é, si= at2 + bt + c. Com dificuldade isto conãtituiria uma suposição intuitiva genuína, em termos de ! nossa experiência. Em lugar dissp, poderíamos supor que a acele- ração fosse constante e, depois, deduzir disso 1que s deveria ser uma função quadrática de t. O importante é, naturalmente, que se de- vemos supor alguma coisa a fun de ~laborar nosso modelo matemático, deveremos admitir aquílo ·que sej~ plausível, em lugar daquilo que seja menos plausível. 1 A . mesma orientação nos guia~á aqui, aõ construirmos um mo- I delo probabilístico para a emissã<j de partículas a, por uma fonte :radioativa. A variável aleatória Jtt, definid~ acima, pode tomar os valores O, l, 2, . . . Seja Pn(t) = li[ X, = n], n = O, 1, 2, ... I I Agora serão feitas as cinco hipóteses seguintes: . I A1 : O número de partículak emitidas durante 'intervalos de tempo não-sobrepostos Jonstituem variáveis ;aleatórias in- dependentes. I ' I A2 : Se Xt for definida como ~cima, e se Y, for igual ao número de partículas emitidas !durante [tJ, tl + t), então, para qualquer t1 > O, as variãveis aleatórias Xt e Y; terão a mesma distribuição de brobabilidade. (Em outras pala- vras, a distribuiçCío do n~mero de partículas emitidas du~ rante qualquer intervaloi depende apenas do comprimento daquele intervalo e pão !de seus pontos extremos.) I A a: p 1(!:J.t) será aproximadamente igual a )\Ãt, 'se Ãl for sufi- cientemente pequeno, onde )\ é uma constante positi>;a. Es- creveremos isto, as~im \PJ(ó.t) ~ ÀÓ.t. Por toda \~stâ. se- ção, a(ó.t) ~ b(!:J.t) sigllifica que a(ó.t)jb(!:J.t) -> 1 quando . . . . I -- . .. I 196, I PROBABILIDADE ilt ---7 O. Devemos também supor que D.t > O. (Esta hi- pótese afirma que se o intervalo for suficientemente pe- queno, a probabilidade de obter exatamente uma eniissãO durante o intervalo é diretamente proporcional ao compri- mento do intervalo considerado.) A4: L,;:= 2Pk(!J.t) -r O. (Isto significa que Pk(D.t) "' O, k ;:::: 2.) Isto afirma que a probabilidade de obter duas ou mais emissões durante um intervalo suficientemente · pequeno é desprezível. A~: Xo = O, ou o que é equivalente, po(O) = 1. Isto equivale a uma condição inicial ~ara o modelo que estamos apresen- tando. Como dentro em pouco demonstraremos, as cinco hipóteses relacionadas acima nos permitirão deduzir ~a expressão para Pn(t) = P[Xt = nl. Vamos agora tirar algumas conclusões, a par- tir das hipóteses acima. (a) As hipóteses Ai . e A2, em conjunto, querem dizer que as o t+~t Fig. 8.1 variáveis aleatórias Xt e [XttAt- - Xtl são variáveis aleatórias in- dependentes, com a mesma distri- buição de probabilidade. (Veja a Fig. 8.1.) (b) Da.c; hipóteses Aa e Â4, pqdemos concluir que m Po(!J.t)= 1-pl(!J.t)- L Pk(!J.t)~l-'At+p(!J.t), (8.2) k=2 quando t-+ O. (c) Podemos escrever po(t + Llt) = P[Xt+At = O] = P[Xt = O e (X~+t.t- Xt) = oJ = Po(t)po(fJ.t). ~ Po(t)[t - À!J.t]. (d) Daí, teremos [Veja a conclusão (a).] [Veja a Eq. (8.2).] Po(t + D.t) - Po(t) ,...., _ Àpo(t). tit VARiÁVEiS AILEATÓRDAS DISCRETAS: A DE PO!SSOI\I E OUTRAS / 197 Fazendo i1t--) O, e observando que o primeiro membro repre- senta o quociente das diferenças da função po e por isso se aproxima de po'(t) (mais corretamente, se aproxima da derivada à direita, por- que i1t > O), teremos '(t) ' () , . I Po'(t) , Po = - I'.Po t ou, o que e. eqmva ente, -(-) = - 1\. Po t Integrando ambos os membros em relação a t, obtém-se ln po(t) = = - Àt + C, onde C é uma constante de integração. Da hipótese As, fazendo t = O, obtemos C = O. Portanto, Deste modo, nossas hipóteses nos levaram a uma expressão para P[X1 = ot Empregando essencialmente o mesmo caminho, agora obteremos pn(t) para n;:::: 1. (e) Consideremos Pn(t + l1t) = P[Xt+Lit = n]. Agora Xt+Lit = ·n se, e somente se, X, = x e [Xt+Lit ~ X,] = = n- x, x =O, 1, 2, .. -., n. Empregando as hipóteses At e A2, teremos Pn(t + f:1t) :t Px(t)pn-x(f:1t) = x=O n-2 = L p.f...t}pn-x(f:1t) + Pn-t(t)pl(f:1t)+Pn(t)po(f:1t). 8=0 Empregando as hipóteses A3 e Â4 e também a Eq. (8.2), obteremos Pn(t + f:1t) "-' Pn-t(l)À./::it + p,.(t)(l - À.f:1t]. Conseqüentemente, Pn(t + /::it) - Pn(t) "-' Àpn-t(l) - Àpn(t). l1t De novo fazendo l1t--) O, e também observando que o primeiro mem- bro representa o quociente das diferenças da função pn, obteremos Pn'(t) = - Àpn(t) + Àpn-I(t), n = 1, 2, .. : Isto representa um sistema infinito de equações diferenciais e de di- ferençaS (lineares). O leitor, interessado poderá verificar que se definirmos a função qn pela relação qn(t) = eÀ1pn(t), ' o sistema acima se torna qn'(t) = Àqn-1(t), n = 1, 2, ... Desd~ que po(t) = ,e..->..\ en- contramos que qo(t) = L [Observe-se também que qn(O) ='9 para n > O.] Por conseguinte, obteremos sucessivamente t.JJJ •'! 1!!8 I PROBABiliDADE e daí Em geral, q .. '(t) = Àq,.-1(t) e por isso q,.(t) = (Àt)n/n! Lembrando a definição de q,., obteremos finalmente p,.(t) = e-">-'(1\t)"/n!,' n =· O, 1, 2, . . . (8.4) Mostramos, portanto, que o número de partfcúlas emitidas durante o intervalo de tempo [0, t) por uma fonte radioativa, sujeita ~ hipóteses feitas acima, é uma variável aleatória, com distribuição de Poisson, com parâmetro (Àt).Comenúirios: (a) 11: importante compreender que a distrib,lição de Poisson surgiu como wna conseqüência de alguma.s hipótE'.ses que fizemos. Isto significa que ·~empre que essas hipóteses sejani válida.s (ou ao menos aproximadamente válida.s), a. distribuição de Poisson po.de ser empregada como um modelo adequado. Verifica-se que existe uma grande classe de fenômenos para os quais o modelo de Po.isson é adequado. (i) Admita-se que Xt represente o número de chamados que chegam a uma central telefónica, durante um período de tempo de comprimento t. As hlpó- teses acima são aproximadamente satisfeitas, particularmente durahte o "p~ rlodo movimentado" do dia. Conseqüentemente, Xt tem urna distribuição de Poisson. (ií) Adm.ita-tle que Xt represente o número de elétrons lil:.>ertados pelo catodo de uma válvula eletrônica. Tambéin as hipóteses acima.são adequadss e, portanto, Xt tem uma distribuição de Poisson. (iii) o seguinte exemplo (da Astronomia) revela que o racioc(nio ACima pode ser aplicado não ,somente ao número de ocorrências de algum evento, durante um período de tempo fixado, mas também ao número de ocorrências de um evento dentro das fronteiras de uma área ou volume fixados. Suponha-se que um astrônomo investigue uma parte de. via-Láctea, .a admita que na parte considerada, a densidade das estrelas X seja constante. [Isto. significa que em um volume V (unidades cúbicas), podem-se encontrar, em média, À V estrelas.) Seja X v o número de estrelas encontradaS em uma parte da Via-Láctea que tenha o volume V. Se as hipóteses acima forem sat~feítas (com "volume" substituindo "tempo"), ent!l:o P[X v = n) = (X V)n e-À Vjn!. (As hipóteses, intsrpreta.das neste contexto, afirmariam essencialmente que o número de estre- las que aparecem em P.artes não-sobrepostas do céu, representam variáveis aleatórias independentes, e que e. probabilidade de mais do que uma estrehl. &parecer em uma parte bastante pequena do ·céu é zeto.) (iv) Outra aplicação, no campo da Biologia, é lembrada se fizermos XA ser o número de glóbulos sangüíneos visíveis ao microscópio, a área de superfície visível no campo do microscópio sendo de.da por A unide.des quadradas. (b) A constante ]\. originalmente surgiu como uma constante de proporcio- nalidade Dili hipótese Aa. As seguintes interpretações de ]\. sl!,o dignas de nOta : Se Xt representar o número de ocorrências de algum evento, durante um intervalC> de tempo de comprimento t, então E(Xt) = Àt, e portanto X = [E(Xt)lft repre- I VARiÁVEiS AliEATÕRDAS DISCRIEf AS: A DE POISSON E OUTRAS I 1S!ll 115nt& a. taxa (freqüência} esperada segun~o a qual as partículas sil.o emitidms. Se X v representar o número de ocorrênci4.. de algu~ evento dentro de um vol~e especificado V, então E(Xv) = XV, e portanto X= [E(Xy)]/V representa adefl.. sidade esperada, segundo a qual as estn\las ap&recem. I (c) É import&nte co~preender qu~ nossa exposição na. Seç. 8.3 nll.o tratou exatamente de uma v.ariivel ale&tóri& X 1 possuindo uma distribuição de Poiss<in . Mais exatamente, para todo t > O, encontramos que Xt possuíaluma distribuição de Poisson com um parâmetro dependehte de t. Tal coleção (infinita) de variáveis aleatórias é também conhecida conio Pr, cesso de Poiss~n. (Equivalentemente, um Processo de Poisson é gerado sempre que um evento ocorra em algum interv~lo de tempo: para o qual as hipótéses A 1 áté A 5 sejam satisfeitas.) De maheira análoga, poderemos.défmir um Processo de Bemouilli: se X 1 ,X2 , 1 • • • , Xn, ... forem os números de ocorrências de sucessos em 1, 2, . j ., n, . .. provas de Bemouilli, então I . a coleção de variáveis aleatórias Xi\1' ... ' xn' ... é denominada um Processo de Bernouilli. · . Exemplo 8.5. Uma corriplic~da peça de maquinaria, quando funciona adequadamente, dá um l~cro de C dóla~s por hora · (C > 2) , I a urna firma. Contudo, esta máquina tende a falhaJ;" em momentos in~sperados e imprevisíveis. Su~onha-se que o núm~ro de falhas, dura~te qualquer perlodo de duraJão t horas, seja urna variável alea-. tória com uma distribUição de Poisson com parâmetro t. Se a má·: quina falhar x vezes durante as t horas, o prejuízo sofrido (parada da máquina mais reparação) é igual ~ (~2 + x) dólares. Assim, o lucro total P, durante qualquer períodb de t horas, é igual a P = Ct - - (X2. + X), onde X é a variável I aleatória que repres~nta o número de falhas da máquina. Logo, P é uma variável aleatória, e poderá interessar escolher-se t (o qual es,tá à nossa disposição) de .tal ma- . neira que o lucro esperado se tome máximo. Teremos E(P) = Ct ~ E(X2 + X). Do Teor. 8.1, encontraremos ! que E(X) = t e E(X2) = t + (t)a. I . Segue-se então que E(P) = Ct - ~2t- t2• Para achar o valor de t para o qual E(P) se torna má.xirila, derivaremos E(P) e faremos a ~xpr~ssão resultante igual a zero. j . Obteremos C - 2 - 2t = O, qu~ fornece t = 1/2 (C - 2) horas. ! · I . I . Exemplo 8.6. Seja Xt o número de partículas emitidas por un:i.a fonte radioativa, durante um intenralo. d.e tempo de duração t. Admi- ta-se que X, possua distribuição d~ Poisson com parâmetro at. ,, Um dispositivo contador é colocado ~ara registrar Q número de p'artí- . culas emitidas. Suponha-se que exista urna probabilidade consÚmte p I .. . , ! 200 I PROBABIUDADE de que qualquer partícula emitida não seja contada. Se Rt for o número de partículas contadas durante o intervalo especificado, qual sem a distribuição de probabilidade de Rt? Para um dadO X. = x, a variável aleatória Rc possui uma distri- buição binomial, baseada em x repetições; com pacl~etro (1 - p). Isto é, Empregando a fórmula da probabilidade total [Eq. (3.4)], teremos ., P(Rc = k) = "L, P(R, = klXt = x)P(Xc = x) 8-k . ( .)I& " 1-p e-1 1 , = -.- -k, L ( - k)i (pat) · . p . a-k X • . Façamos i = x - k. Porlanto, ( 1 "' )"' e-mi "' l~~t)i+k P(R, = k) = - " ~L -"'\}J'-"~- p k! i-O i! = ( 1 .,.- p )"' e-«' (patY'eP"'t = p k! e-CI--Pll(I - p )at]"' k! Deste modo verificamos que Rt também possui distribuição de Pois- son, com parâmetro (1 - p)at. 8,4, A Distribuiçâlo Geométrica Suponha-se que realizemos um experimento· S e que estejamos interessados apenas·· na ocorrência ou. não-ocorrência de algum evento A. Admita~se; tal como na explicação da distribuição bino- mial, que realizemos S repetidamente, que as ,.repetições sejam inde- pendentes, e que em cada repetição P(A) = p e P(A) = 1 - p .= q permaneçam os mesmos. Suponha-se que repetimos o experimento até que A ocorra pela primeira vez. (Aqui nos afastamos das hipó- teseS que levaram à distribuição. binomial. Lá, o número de repeti- ções era predeterminado, enquanto aqui é uma variável aleatória.) VARIÁVIEIS AllEATÓRIAS DISCRETAS: ADIE I?OiSSOI\I E OUTRAS I 201 Defina-se a variável aleatória X como o número de repetições necessárias para obter a primeira ocorrência de A, nele se incluindo essa última. Assim, X toma os valores possiveis 1, 2, ... Como X:= k se, e somen.te se, as primeiras (k- 1) repetições de 8 derem o resultado A, enquanto a k-ésima repetição dê o resultado A, te- remos k = 1, 2, ... (8.5) Uma variável aleatória· com a distribuição de probabilidade da Eq. (8.5) recebe ~ denominação de distribuição geométrica. Um cálculo fácil mostra que a Eq. (8.5) define uma distribuição de probabilidade legítima. Temos, obviamente, que P(X = k) 2:: O, e "' - . ' [ 1 ] L P(X = k) = p(l + q + q2 + ·-· .) = p - 1 -·- = 1. k~l . - q , Poderemos obter o vàlor esperado de X, da seguinte maneira: "' "' d E(X) = Lkprf-1=p :E- q"' = k=l k=l dq = p---:- 2.::: t = P- -º- = -. d"' d[ ] 1 dqk=l qq 1-q p (A permuta da derivação e do somatório é válida aqui, porque a série converge quando I q I < 1.) Um cálculo semelhante mostra que V(X) = q(p2. (Obteremos de novo, ambos os resultados no Cap. 10, seguindo um caminho diferente.) Resumindo o que está acima, enunciamos o seguinte teorema: Teorema 8.3. Se X tiver uma distribuição geométrica,