Baixe o app para aproveitar ainda mais
Prévia do material em texto
Principais Modelos 1 Modelos Discretos 1.1 Modelo Uniforme Definic¸a˜o 1.1. Uma varia´vel aleato´ria segue o modelo uniforme discreto, com valores x1, x2, · · · , xn, se tem func¸a˜o massa de probabilidade dada por fX(xi) = 1 n , para todo i = 1, · · · , n. Notac¸a˜o: X ∼ Ud[I], onde I = {x1, x2, · · · , xn}. Exemplo 1.1. Lanc¸amento de um dado: Ω = {1, · · · , 6}. fX(i) = P(X = i) = 1 6 , para todo i = 1, · · · , 6. FX(x) = 0, se x < 1; 1 6 , se 1 6 x < 2; 1 3 , se 2 6 x < 3; 1 2 , se 3 6 x < 4; 2 3 , se 4 6 x < 5; 5 6 , se 5 6 x < 6; 1, se x > 6 1.2 Modelo Bernoulli Qualquer experimento aleato´rio com somente dois resultados poss´ıveis “fracasso”e “su- cesso”. Seja p a probabilidade de sucesso e q a probabilidade de fracasso, com p+ q = 1. Notac¸a˜o: p = P(“sucesso”), q = P(“fracasso”). Definic¸a˜o 1.2. Seja X o nu´mero de sucessos em uma u´nica tentativa do experimento. A varia´vel aleato´ria X segue o modelo Bernoulli se assume apenas dois valores 0 e 1. X = { 1, se ocorre sucesso; 0, se ocorre fracsso. Notac¸a˜o: X ∼ Ber(p) A sua func¸a˜o de probabilidade e´ dada por fX(x) = P(X = x) = pxq1−x = { q, se x = 0; p, se x = 1. A sua func¸a˜o de distribuic¸a˜o e´ dada por FX(x) = 0, se x < 0; q, se 0 6 x < 1; 1, se x > 1. Exemplo 1.2. Lanc¸amento de uma moeda. 1 Exemplo 1.3. Uma urna contem 30 bolas brancas e 20 verdes. Retira-se uma bola dessa urna. Seja X o nu´mero de bolas verdes. Encontre a func¸a˜o de probabilidade e a distribuic¸a˜o da varia´vel aleato´ria X. Resoluc¸a˜o: X = { 1, bola verde; 0, bola branca. fX(x) = P(X = x) = ( 2 5 )x(3 5 )1−x , x ∈ {0, 1}. Ou seja, X ∼ Ber(p), onde p = 25 . Propriedades 1.1. Seja X ∼ Ber(p), enta˜o (i) E(X) = p. (ii) Var(X) = pq. 1.3 Modelo Binomial Consideremos n tentativas independentes de um mesmo experimento aleato´rio. Cada tentativa admite apenas dois resultados: fracasso com probabilidade q e sucesso com probabilidade p, onde p + q = 1. Ou seja, um experimento de Bernoulli e´ repetido n vezes, independentemente. As probabilidades de sucesso e fracasso sa˜o as mesmas para cada tentativa. Definic¸a˜o 1.3. Seja X a varia´vel aleato´ria nu´mero de sucessos nas n repetic¸o˜es indepen- dentes. Diremos que X segue o modelo Binomial com paraˆmetros n e p e sua func¸a˜o de probabilidade e´ dada por fX(x) = P(X = x) = ( n x ) px(1− p)n−x, x ∈ {0, 1, · · · , n}. Notac¸a˜o: X ∼ B(n, p), 0 < p 6 1. Observac¸a˜o 1.1. Vamos verificar se fX(·) e´ func¸a˜o de probabilidade. Temos que fX(x) > 0, para todo x ∈ R e n∑ x=0 fX(x) = n∑ x=0 ( n x ) px(1− p)n−x = (p+ (1− p))n = 1, pois n∑ j=0 ( n j ) aj(b)n−j = (a+ b)n. Logo fX(·) e´ func¸a˜o de probabilidade. Propriedades 1.2. Seja X ∼ B(n, p), enta˜o (i) E(X) = np. (ii) Var(X) = npq. 2 Exemplo 1.4. Uma moeda honesta e´ lanc¸ada 20 vezes. Qual a probabilidade de sa´ırem 8 caras? Resoluc¸a˜o: Temos que X e´ o nu´mero de sucessos (caras). p = P(X = 1) = P(sucesso) = 1 2 . Logo, X ∼ B(20, 12) P(X = x) = ( 20 x )( 1 2 )x(1 2 )20−x , x ∈ {0, 1, 2, 3, · · · , 20}. Se x = 8, temos P(X = 8) = ( 20 8 )( 1 2 )8(1 2 )20−8 = 0, 12013. Exemplo 1.5. Uma prova tipo teste tem 50 questo˜es independentes. Cada questa˜o tem 5 alternativas. Apenas uma delas e´ a correta. Se um aluno resolve a prova respondendo a esmo a questa˜o, qual a probabilidade de tirar nota 5? Resoluc¸a˜o: A v.a. X e´ o nu´mero de acertos, x ∈ {0, 1, · · · , n}. A probabilidade de acerto p = P(acerto) = 15 . Logo, X ∼ B(50, 15). Portanto a func¸a˜o de probabilidade e´ dada por P(X = x) = ( 50 x )( 1 5 )x(4 5 )50−x . Logo, P(X = 25) = ( 50 25 )( 1 5 )25(4 5 )50−25 = 0, 000002. Exemplo 1.6. Numa criac¸a˜o de coelhos, 40% sa˜o machos. Qual a probabilidade de que nasc¸am pelo menos 2 coelhos machos num dia em que nasceram 20 coelhos? Resoluc¸a˜o: Seja X a v.a. nu´mero de coelhos machos (c.m.), x ∈ {0, 1, 2, · · · , 20}, onde p = P(sucesso) = P(c.m.) = 0.4. Logo, X ∼ B(20, 0.4), cuja func¸a˜o de probabilidade e´ dada por P(X = x) = ( 20 x ) (0.4)x (0.6)20−x . Portanto queremos calcular P(X > 2) = 1− P(X < 2) = 1− (P(x = 0) + P(X = 1)) = 1− {( 20 0 ) (0.4)0 (0.6)20−0 + ( 20 1 ) (0.4)1 (0.6)20−1 } = 1− (0.0003 + 0.00049) = 0.99948. 1.4 Modelo Geome´trico Consideremos tentativas consecutivas e independentes de ummesmo experimento aleato´rio. Cada tentativa admite sucesso com probabilidade p e fracasso com probabilidade q, com p+ q = 1. 3 Definic¸a˜o 1.4. A varia´vel aleato´ria X e´ o nu´mero de repetic¸o˜es necessa´rias ate´ o apare- cimento do primeiro sucesso. A func¸a˜o de probabilidade P(X = x) representa a probabi- lidade de fracasso nos primeiros k − 1 experimentos e sucesso no k−e´simo experimento. Uma varia´vel aleato´ria discreta X segue o modelo Geome´trico com paraˆmetro p, onde 0 < p < 1, se a sua func¸a˜o de probabilidade e´ dada por fX(x) = P(X = x) = p(1− p)x−1, x = 1, 2, · · · . Notac¸a˜o: X ∼ Geo(p), 0 < p < 1. Observac¸a˜o 1.2. (i) X = 1, corresponde ao sucesso (S), P(X = 1) = p; (ii) X = 2, corresponde ao fracasso na 1a tentativa e sucesso na 2a (FS), P(X = 2) = q·p; (iii) X = 3, corresponde ao fracasso nas duas primeiras tentativas e sucesso na 3a (FFS), P(X = 3) = q2 · p; (iv) X = 4, corresponde ao fracasso nas treˆs primeiras tentativas e sucesso na 4a (FFFS), P(X = 4) = q3 · p; (v) X = x, corresponde ao fracasso nas x− 1 primeira tentativas e sucesso na x−e´sima (F · · ·F︸ ︷︷ ︸ S), P(X = x) = qx−1 · p; Observac¸a˜o 1.3. Vamos verificar se fX(·) e´ func¸a˜o de probabilidade. Temos que fX(x) > 0, para todo x ∈ R e ∑ x>1 P(X = x) = ∑ x>1 qx−1 · p = p ∑ x>1 qx−1 = p(1 + q + q2 + q3 + · · · = p 1 1− q = p 1 p = 1, pois a soma acima e´ uma se´rie geome´trica cuja raza˜o |q| < 1 e∑ j>1 a1q j−1 = a1 1− q · A func¸a˜o de distribuic¸a˜o de uma varia´vel aleato´ria X ∼ Geo(p) e´ dada por FX(x) = P(X 6 x) = x∑ j=1 P(X = j) = x∑ j=1 p(1− p)j−1. Tomando i = j − 1 na expressa˜o acima, temos FX(x) = p x−1∑ i=0 (1− p)i = p1− (1− p) x−1+1 1− (1− p) = 1− (1− p) x, pois ∑n i=0(a) i = 1−a n+1 1−a , para 0 < a < 1. 4 Exemplo 1.7. A probabilidade de se encontrar aberto o sinal de traˆnsito numa esquina e´ 0.2. Qual a probabilidade de que seja necessa´rio passar pelo local 5 vezes para encontrar o sinal aberto pela primeira vez, ou seja, FFFFS? Resoluc¸a˜o: Seja X a v.a. nu´mero de vezes necessa´rias para encontrar o sinal aberto. p = 0.2 e q = 0.8. Logo, X ∼ Geo(0.2) e P(X = 5) = (0.8)4 · (0.2) = 0.08192. Exemplo 1.8. Qual a probabilidade de que um dado deva ser lanc¸ado 15 vezes para que na 15a vez ocorra a face 6 pela primeira vez? Resoluc¸a˜o: Seja X a v.a. nu´mero de lanc¸amentos necessa´rios ao aparecimento da pri- meira face 6. p = 16 e q = 5 6 . Logo, X ∼ Geo (16) e P(X = 15) = ( 5 6 )14 · ( 1 6 ) = 0.01298. Observac¸a˜o 1.4. De forma equivalente, a probabilidade de serem necessa´rios n fracassos antes do primeiro sucesso e´ fX(x) = P(X = x) = qxp, x = 0, 1, 2, · · · Observac¸a˜o 1.5. Falta de Memo´ria da Distribuic¸a˜o Geome´trica Seja X ∼ Geo(p), vamos verificar que para quaisquer nu´meros inteiros positivos m e n P(X > m+ n|X > m) = P(X > n). Por exe, se X representa a espera em dias para a ocorreˆncia de um certo evento, a probabilidade condicional representa a probabilidade de espera de pelo menos m+n dias, sabendo que o evento na˜o ocorreu antes de m dias. A falta de memo´ria estabelece que essa probabilidade e´ a mesma de esperar pelo menos n dias. De fato, P(X > m+ n|X > m) = P([X > m+ n] ∩ [X > m]) P([X > m]) = P([X > m+ n]) P([X >m]) = ∑ j>m+n P(X = j)∑ i>m P(X = i) = ∑ j>0 p(1− p)j − ∑m+n−1 j=0 p(1− p)j∑ i>0 p(1− p)i − ∑m−1 i=0 p(1− p)i = (1− p)m+n (1− p)m = (1− p) n = P(X > n), pois ∑ j>0 xj = 1 1− x e n∑ j>0 xj = ∑ j>0 xj − ∑ j>n+1 xj = 1 1− x − xn+1 1− x. Propriedades 1.3. Seja X ∼ Geo(p), enta˜o (i) E(X) = 1p . (ii) Var(X) = q p2 . 5 1.5 Modelo Pascal Suponhamos que um experimento aleato´rio de bernoulli seja repetido independentemente ate´ que um evento A ocorra pela r−e´sima vez. Seja P(A) = p(sucesso) e P(A) = q(fracasso) em cada uma das tentativas do experimento. Definic¸a˜o 1.5. Seja X a v.a. nu´mero de repetic¸o˜es necessa´rias (experimento bernoulli) para que o evento A ocorra pela r−e´sima vez (considerando que o experimento sera´ repetido ate´ que se obtenha o r-e´simo sucesso), enta˜o a varia´vel X = nu´mero de tentativas ate´ se obter o r-e´simo sucesso seguira a distribuic¸a˜o Pascal tambe´m chamada de Binomial Negativa. Para que o r-e´simo sucesso ocorra na x-e´sima tentativa e´ necessa´rio que ocorra um sucesso nesta tentativa (repetic¸a˜o do experimento) e que tenham ocorridos (r−1) sucessos nas (x−1) repetic¸o˜es anteriores. Dado que a probabilidade de ocorreˆncia de sucesso, numa dada repetic¸a˜o do experimento e´ dada por p e a probabilidade de ocorrerem r−1 sucessos em x − 1 repetic¸o˜es, sendo estes dois eventos independentes, a probabilidade de que o r-e´simo sucesso ocorra na x-e´sima repetic¸a˜o do experimento e dada por: fX(x) = P(X = x) = ( x− 1 r − 1 ) prqx−r, x > r. Notac¸a˜o: X ∼ BN(r, p), 0 < p < 1. Exemplo 1.9. A probabilidade de que um sinal de traˆnsito esteja aberto numa esquina e´ de 0.2. Qual a probabilidade de que seja necessa´rio passar pelo local 10 vezes para encontra´-lo aberto pela 4a vez? Resoluc¸a˜o: Seja X a v.a. nu´mero de passagens pela esquina. Temos que r = 4, x = 10 e p = 0.2. Logo, P(X = x) = ( x− 1 3 ) (0.2)4(0.8)x−4, x > 4. Portanto, P(X = 10) = ( 9 3 ) (0.2)4(0.8)6 = 0.035232. Exemplo 1.10. Bob e´ um jogador de basquete da faculdade. Como arremessador ela acerta 70% dos arremessos livres. Isto e´, a probabilidade de acerto de um arremesso livre e´ de 0.7.Durante uma partida, qual e´ a probabilidade que Bob acerte seu terceiro arremesso livre no seu quinto arremesso? Resoluc¸a˜o: Seja X a v.a. nu´mero de arremessos livres de Bob, onde a probabilidade de sucesso e´ p = 0.7. Temos que x = 5 e r = 3. Logo, P(X = x) = ( x− 1 2 ) (0.7)3(0.3)x−3, x > 3. Portanto, P(X = 5) = ( 4 2 ) (0.7)3(0.3)2 = 0.18552. Propriedades 1.4. Seja X ∼ BN(r, p), 0 < p < 1, enta˜o (i) E(X) = rp . (ii) Var(X) = rq p2 . 6 1.6 Modelo Poisson Na distribuic¸a˜o Binomial, a varia´vel de interesse era o nu´mero de sucessos em um intervalo discreto (n repetic¸o˜es de um experimento 0-1). Muitas vezes, entretanto, o interesse reside no nu´mero de sucessos em um intervalo cont´ınuo, que pode ser o tempo, comprimento, etc. A probabilidade de ocorreˆncia de um sucesso no intervalo e´ proporcional ao intervalo. A probabilidade de mais de um sucesso neste intervalo e´ bastante pequena com relac¸a˜o a` probabilidade de um sucesso. Definic¸a˜o 1.6. Seja X o nu´mero de sucessos em um intervalo. A varia´vel aleato´ria X segue o modelo Poisson de paraˆmetro λ, λ > 0, se a sua func¸a˜o massa de probabilidade for dada por fX(x) = P(X = x) = e−λλx x! , x = 0, 1, 2, · · · . Notac¸a˜o: X ∼ P(λ). O paraˆmetro λ indica o nu´mero esperado de sucessos no intervalo (a taxa de ocorreˆncia para uma unidade de medida). A distribuic¸a˜o de Poisson e´ largamente utilizada quando se deseja contar o nu´mero de sucessos que ocorrem em intervalos de tempo, ou superf´ıcie ou volume. Por exemplo (i) carros que passam por um cruzamento por minuto, durante uma certa hora do dia; (ii) erro tipogra´ficos por pa´gina, em um material impresso; (iii) defeitos por unidade (m2, m3, m etc.) por pec¸a fabricada; (iv) coloˆnia de bacte´rias numa dada cultura por 0.01 mm2, numa plaqueta de mi- crosco´pio; (v) mortes por ataque do corac¸a˜o por ano, numa cidade; (vi) em problemas de filas em geral; (vii) nu´mero de chamadas recebidas por um telefone durante cinco minutos; (viii) nu´mero de falhas de um computador num dia de operac¸a˜o; (ix) nu´mero de relato´rios de acidentes enviados a uma companhia de seguros numa semana. Observac¸a˜o 1.6. Vamos verificar se fX(·) e´ func¸a˜o de probabilidade. Temos que fX(x) > 0, para todo x ∈ R e ∑ x>0 e−λλx x! = e−λ ∑ x>0 λx x! = e−λeλ = 1, pois ∑ k>0 λk k! = e λ. Logo, fX(·) e´ func¸a˜o de probabilidade. Observac¸a˜o 1.7. Seja X a v.a. definida como o nu´mero de eventos que ocorrem sobre um per´ıodo de tempo t. Substitu´ımos λ na f.m.p. por tλ. Dessa forma, fX(x) = P(X = x) = e−tλ(tλ)x x! , x = 0, 1, 2, · · · . 7 Exemplo 1.11. Em um livro de 800 pa´ginas ha´ 800 erros de impressa˜o. Qual a proba- bilidade de que uma pa´gina contenha pelo menos 3 erros? Resoluc¸a˜o: Seja X o nu´mero de erros por pa´gina. Temos que λ = 1. Logo, P(X > 3) = 1− P(X < 3) = 1− {P(X = 0) + P(X = 1) + P(X = 2)} = 1− { e−1 · 10 0! + e−1 · 11 1! + e−1 · 12 2! } = 1− {0.367879 + 0.367879 + 0.183940} = 1− 0.919698 = 0.080302. Exemplo 1.12. Em uma central telefoˆnica chegam 300 telefonemas por hora. Qual a probabilidade de que (i) num minuto na˜o haja nenhuma chamada? (ii) em 2 minutos haja 2 chamados? (iii) em t minutos na˜o haja chamados? Resoluc¸a˜o: (i) Seja X a v.a. nu´mero de chamadas por minuto. Enta˜o, λ = 5. P(X = 0) = e−5 · 50 0! = 0.006738. (ii) Em dois minutos, λ = 10. Enta˜o, P(X = 2) = e−10 · 102 2! = 0.002270. (iii) Em t minutos, λ = 5t. Enta˜o, P(X = 0) = e−5t · (5t)0 0! = e−5t. Propriedades 1.5. Seja X ∼ P(λ), enta˜o (i) E(X) = λ. (ii) Var(X) = λ. 1.7 Aproximac¸a˜o do Modelo Binomial pelo Modelo Poisson Muitas vezes, no uso da binomial, acontece que n e´ muito grande (n → ∞), e p e´ muito pequeno (p → 0). Nestes casos, na˜o encontramos o valor em tabelas, ou enta˜o o ca´lculo torna-se muito dif´ıcil, sendo necessa´rio o uso do computador. Podemos enta˜o fazer uma aproximac¸a˜o da binomial pela distribuic¸a˜o Poisson. Consideremos: n→∞ (n > 30) p→ 0, (p < 0.1) 0 < µ 6 10, 8 Nestas condic¸o˜es, se X ∼ B(n, p), queremos calcular P(X = x) = ( n x ) px(1 − p)n−x. Vamos mostrar que P(X = x) ' e−λλxx! · Seja P(X = x) = ( n x ) px(1− p)n−x = n! x!(n− x)!p x(1− p)n−x = n(n− 1)(n− 2) · · · (n− x+ 1)p x(1− p)n−x x! · Fazendo p = λn (q = 1− λn) e passando o limite quando n→∞, obtemos P(X = x) ' lim n→∞ { n(n− 1)(n− 2) · · · (n− x+ 1) ( λ n )x 1 x! ( 1− λ n )n−x} = lim n→∞ { 1 ( 1− 1 n )( 1− 2 n ) · · · ( 1− x− 1 n ) λx 1 x! ( 1− λ n )n( 1− λ n )−x} = 1 · 1 · 1 · · · 1λx 1 x! e−x · 1 = e−λλx x! , pois, lim n→∞ [ 1− k n ]n = e−k· Logo, a binomial tem a distribuic¸a˜o Poisson como limite, quando n→∞ e p→ 0. Exemplo 1.13. Seja X ∼ B(200, 0.01). Calcular P(X = 10) usando binomial e apro- ximac¸a˜o pela Poisson. Resoluc¸a˜o: Binomial: P(X = 10) = ( 200 10 ) (0.01)10(1− 0.01)200−10 = ( 200 10 ) (0.01)10(0.99)190 = 0.000033. Aproximac¸a˜o pela Poisson: Temos que λ = np = 200× 0.01 = 2, logo P(X = 10) = e−2210 10! = 0.000038. Logo, a aproximac¸a˜o e´ bastante boa, pois o erro absoluto e´ de 0.000005 apenas. Exemplo 1.14. A probabilidade de uma laˆmpada queimar ao ser ligada e´ de 1/100. Em uma instalac¸a˜o com 100 laˆmpadas, qual a probabilidade de 2 laˆmpadas queimarem ao serem ligadas? Resoluc¸a˜o: Seja X o nu´mero de laˆmpadas queimadas. X ∼ B(100, 0.01). Logo, P(X = 2) = ( 100 2 ) (0.01)2(1−0.01)100−2= ( 100 2 ) (0.01)2(0.99)98 = 0.1848648 (Usando R). 9 Aproximac¸a˜o pela Poisson: Temos que λ = np = 100× 0.01 = 1, logo P(X = 2) = e−112 2! = 0.1839397 (Usando R). O erro absoluto e´ de 0.0009251. 1.8 Modelo Hipergeome´trico No modelo hipergeome´trico, a populac¸a˜o e´ constitu´ıda de N elementos, dos quais r sa˜o classificados como sucessos e n-r de fracassos. E´ selecionado, ao acaso e sem reposic¸a˜o, uma amostra de tamanho n < N . Seja X a v.a. nu´mero de sucessos na amostra de tamanho n. Qual a probabilidade P(X = x)? Temos que P(sucesso) = r N P(fracasso) = 1− r N = N − r N . Podemos tirar ( N n ) amostras sem reposic¸a˜o. Os sucessos na amostra podem ocorrer de ( r x ) maneiras e fracassos ( N − r n− x ) modos. Enta˜o as probabilidades de uma v.a. hipergeome´trica podem ser avaliadas por P(X = x) = ( r x )( N − r n− x ) ( N n ) , x ∈ {0, 1, · · · ,min(r, n)} ou 0 6 x 6 n e x 6 r. O evento [X = x] significa que foram retirados x elementos dentre os r sucessos e foram retirados n− x dentre os n− r fracassos. Notac¸a˜o: X ∼ H(N,n, r), com n < N e r < N . Exemplo 1.15. Pequenos motores sa˜o guardados em caixas de 50 unidades. Um inspetor de qualidade examina cada caixa, antes da posterior remessa, testando 5 motores. Se nenhum motor for defeituoso, a caixa e´ aceita. Se pelo menos um for defeituoso, todos os 50 motores sa˜o testados. Ha´ 6 motores defeituosos numa caixa. Qual a probabilidade de que seja necessa´rio examinar todos os motores dessa caixa? Resoluc¸a˜o: Seja X o nu´mero de motores defeituosos da amostra. Temos que N = 50, r = 6 e n = 5. Enta˜o, P(X > 1) = 1− P(X < 1) = 1− P(X = 0) = 1− ( 6 0 )( 50− 6 5− 0 ) ( 50 5 ) = 1− 0.5126 = 0.4874. Exemplo 1.16. De um baralho de 52 cartas, retiram-se 8 cartas ao acaso, sem reposic¸a˜o. Qual a probabilidade de que 4 sejam figuras? 10 Resoluc¸a˜o: Seja X o nu´mero de figuras em 8 cartas. Temos que N = 52, r = 12 e n = 8. Enta˜o, P(X = 4) = ( 12 4 )( 52− 12 8− 4 ) ( 52 8 ) = 0.0601. Exemplo 1.17. Uma firma compra laˆmpadas por centenas. Examina sempre uma amos- tra de 15 laˆmpadas para verificar se esta˜o boas. Se uma centena inclui 12 laˆmpadas quei- madas, qual a probabilidade de se escolher uma amostra com pelo menos uma laˆmpada queimada? Resoluc¸a˜o: Seja X o nu´mero de laˆmpadas queimadas na amostra. Temos que N = 100, r = 12 e n = 15. Enta˜o, P(X > 1) = 1− P(X < 1) = 1− P(X = 0) = 1− ( 12 0 )( 100− 12 15− 0 ) ( 100 15 ) = 0.8747. Propriedades 1.6. Seja X ∼ H(N,n, r), enta˜o (i) E(X) = nrN . (ii) Var(X) = nrN ( N − n N )( N − r N − 1 ) . 2 Modelos Cont´ınuos 2.1 Modelo Uniforme Definic¸a˜o 2.1. Diremos que uma varia´vel aleato´ria X segue o modelo Uniforme, no intervalo [α, β] ∈ R, α < β, se sua func¸a˜o densidade for dada por fX(x) = 1 β − αI[α,β](x). Notac¸a˜o: X ∼ Uc[α, β]. Observac¸a˜o 2.1. Vamos verificar se fX(·) e´ func¸a˜o densidade de probabilidade. A func¸a˜o fX(·), conforme apresentada na definic¸a˜o acima, satisfaz as condic¸o˜es para ser densidade. Ela e´ positiva e ∫ ∞ −∞ fX(x)dx = ∫ β α 1 β − αdx = 1. A func¸a˜o de distribuic¸a˜o do modelo uniforme em [α, β] e´ dada por 11 FX(x) = 0, se x < α; x−α β−α , se α 6 x < β; 1, se x > β. (a) (b) Figura 1: Distribuic¸a˜o Uniforme: (a) Func¸a˜o densidade de Probabilidade; (b) Func¸a˜o de Distribuic¸a˜o (acumulada). Exemplo 2.1. Um ponto e´ escolhido ao acaso no intervalo [0, 2]. Qual a probabilidade de que esteja ente 1 e 1.5? Resoluc¸a˜o: fX(x) = { 1 2 , se 0 6 x 6 2; 0, c.c. P(1 6 X 6 1.5) = ∫ 1.5 1 1 2 dx = x 2 ∣∣∣∣∣ 1.5 1 = 1 4 · Exemplo 2.2. A dureza H de uma pec¸a de ac¸o pode ser pensada como uma varia´vel aleato´ria com distribuic¸a˜o uniforme no intervalo [50, 70] da escala de Rockwell. Calcular a probabilidade de que uma pec¸a tenha dureza entre 55 e 60. Resoluc¸a˜o: fX(x) = { 1 20 , se 50 6 x 6 70; 0, c.c. P(55 6 X 6 60) = ∫ 60 55 1 20 dx = x 20 ∣∣∣∣∣ 60 55 = 1 4 · Propriedades 2.1. Seja X ∼ Uc[α, β], enta˜o (i) E(X) = α+β2 . (ii) Var(X) = (β−α) 2 12 . 12 2.2 Modelo Exponencial A distribuic¸a˜o exponencial e´ muito importante em aplicac¸o˜es de confiabilidade de siste- mas e bastante usada em engenharia. Tambe´m e´ usada frequentemente como modelo para distribuic¸a˜o dos tempos entre ocorreˆncias de eventos sucessivos, tais como clientes chegando em uma unidade de atendimento ou chamadas em uma central telefoˆnica. Definic¸a˜o 2.2. Diremos que uma varia´vel aleato´ria X segue o modelo Exponencial, de paraˆmetro λ, λ > 0, se sua func¸a˜o densidade for dada por fX(x) = λe −xλI(0,∞)(x). Notac¸a˜o: X ∼ Exp(λ). (a) (b) Figura 2: Distribuic¸a˜o Exponencial: (a) Func¸a˜o Densidade de Probabilidade, (b) Func¸a˜o de Distribuic¸a˜o (acumulada). O paraˆmetro λ indica a taxa de ocorreˆncia por unidade de medida, que pode ser tempo, distaˆncia ou volume, entre outras e 1/λ e´ o tempo me´dio entre chegadas. Observac¸a˜o 2.2. Vamos verificar se fX(·) e´ func¸a˜o densidade de probabilidade. A func¸a˜o fX(·), conforme apresentada na definic¸a˜o acima, satisfaz as condic¸o˜es para ser densidade. Ela e´ positiva e ∫ ∞ −∞ fX(x)dx = ∫ ∞ 0 λe−xλdx = −e−xλ ∣∣∣∞ 0 = 1. A func¸a˜o de distribuic¸a˜o do modelo exponencial e´ dada por FX(x) = (1− e−xλ)I(0,∞)(x). Exemplo 2.3. Suponha que o tempo de resposta X em um terminal de computador on-line espec´ıfico (o tempo entre o final de uma consulta de um usua´rio e o comec¸o da resposta do sistema para essa consulta) tenha distribuic¸a˜o exponencial com tempo de resposta esperado de 5 segundos. Enta˜o, 1λ = 5, ou seja, λ = 0.2. Calcule: (i) a probabilidade de o tempo de resposta ser no ma´ximo 10 segundos; (ii) a probabilidade de o tempo de resposta estar entre 5 e 10 segundos. Resoluc¸a˜o: Neste caso X ∼ Exp(0.2), enta˜o (i) P(X 6 10) = FX(10) = 1− e−10(0.2) = 1− 0.135 = 0.865. 13 (ii) P(5 6 X 6 10) = FX(10)− FX(5) = (1− e−10(0.2))− (1− e−5(0.2)) = 0.233. Exemplo 2.4. O tempo de vida (em horas) de um transistor pode ser considerado uma v.a. com distribuic¸a˜o exponencial. Seque-se que o a vida me´dia do transistor e´ de 500 horas. Qual a probabilidade que ele dure mais do que a me´dia? Resoluc¸a˜o: Neste caso 1λ = 500, enta˜o λ = 0.002 e X ∼ Exp(0.002). Logo, P(X > 500) = 1− P(X 6 500) = 1− FX(500) = 1− (1− e−500(0.002)) = 0.3678794. Propriedades 2.2. Seja X ∼ Exp(λ), enta˜o (i) E(X) = 1/λ. (ii) Var(X) = 1/λ2. 2.3 Modelo Gama Definic¸a˜o 2.3. Diremos que uma varia´vel aleato´ria X segue o modelo Gama, se sua func¸a˜o densidade for dada por fX(x) = βα Γ(α) xα−1e−βxI[0,∞)(x), (2.1) sendo α e β dois paraˆmetros que satisfazem α > 0 e β > 0, e com Γ(α) sendo a func¸a˜o gama dada por Γ(α) = ∫ ∞ 0 xα−1e−xdx, α > 0. (2.2) Notac¸a˜o: X ∼ Γ(α, β). Pela expressa˜o (2.2), tomando fX(x) = xα−1e−x Γ(α) I[0,∞)(x). (2.3) Observac¸a˜o 2.3. A func¸a˜o fX(x) dada pela expressa˜o (2.3) e´ func¸a˜o densidade de pro- babilidade pois fX(x) > 0 e ∫∞ 0 fX(x)dx = Γ(α) Γ(α) = 1. Figura 3: Func¸a˜o Densidade de Probabilidade: (a) Distribuic¸a˜o Γ(α, β); (b) Distribuic¸a˜o Gama Padra˜o. 14 Observac¸a˜o 2.4. Tomando β = 1 na expressa˜o (2.1) temos a distribuic¸a˜o gama padra˜o cuja func¸a˜o densidade de probabilidade e´ dada pela expressa˜o (2.3). Vamos verificar que a integral impro´pria em Γ(α) existe (converge) para α > 0. Inte- grando por partes, temos que u = xα−1, dv = e−xdx, du = (α− 1)xα−2dx e v = −e−x. Logo, Γ(α) = −xα−1e−x ∣∣∣∞ 0 − ∫ ∞ 0 −(α− 1)xα−2e−xdx = (α− 1) ∫ ∞ 0 xα−2e−xdx = (α− 1)Γ(α− 1). Logo a func¸a˜o Gama obedece a uma relac¸a˜ode recorreˆncia. Suponha que α seja um inteiro positivo, digamos α = n. Enta˜o, repetindo a relac¸a˜o Γ(α) = (α − 1)Γ(α − 1), temos que Γ(n) = (n− 1)Γ(n− 1) = (n− 1)(n− 2)Γ(n− 2) = (n− 1)(n− 2) · · ·Γ(1). Pore´m, Γ(1) = ∫∞ 0 e −xdx = 1, portanto Γ(n) = (n− 1)!. Logo podemos considerar que a func¸a˜o Γ(α) e´ uma generalizac¸a˜o da func¸a˜o fatorial. Podemos verificar que Γ(1/2) = ∫ ∞ 0 x−1/2e−xdx = √ pi. Agora, vamos verificar se fX(·) e´ func¸a˜o densidade. Temos que∫ ∞ 0 βα Γ(α) xα−1e−βxdx = βα Γ(α) ∫ ∞ 0 xα−1e−βxdx = βα Γ(α) A, onde A = ∫∞ 0 x α−1e−βxdx. Vamos encontrar o valor de A. Aplicando integrac¸a˜o por artes em A temos u = xα−1, dv = e−βxdx, du = (α− 1)xα−2dx e v = −e −βx β . Logo, A = −x α−1e−βx β ∣∣∣∞ 0 + (α− 1) β ∫ ∞ 0 xα−2e−βxdx = (α− 1) β ∫ ∞ 0 xα−2e−βxdx 15 Novamente fazendo integrac¸a˜o por partes u = xα−2, dv = e−βxdx, du = (α− 2)xα−3dx e v = −e −βx β . Assim, A = −(α− 1)x α−2e−βx β2 ∣∣∣∞ 0 + (α− 1)(α− 2) β2 ∫ ∞ 0 xα−3e−βxdx = (α− 1)(α− 2) β2 ∫ ∞ 0 xα−3e−βxdx. Aplicando integrac¸a˜o por partes α vezes teremos (α− 1)(α− 2) · · · 1 βα Γ(1) = (α− 1)! βα = Γ(α) βα . Portanto, ∫ ∞ 0 βα Γ(α) xα−1e−βxdx = βα Γ(α) A = 1 Assim, fx(·) e´ func¸a˜o densidade de probabilidade e o modelo esta´ bem definido. Observac¸a˜o 2.5. Se α = 1, temos que fx(x) = βe −βxI(0,∞), que a func¸a˜o densidade de probabilidade do modelo exponencial com paraˆmetro β, isto e´ X ∼ Exp(β), β > 0. Observac¸a˜o 2.6. Quando X tem distribuic¸a˜o Gama padra˜o, a func¸a˜o de distribuic¸a˜o e´ dada por FX(x) = ∫ x 0 yα−1e−y Γ(α) dy. Observac¸a˜o 2.7. Seja Y uma varia´vel aleato´ria com distribuic¸a˜o Γ(α, β). Enta˜o, para qualquer y > 0, a func¸a˜o de distribuic¸a˜o de Y e´ dada por FY (y) = P(Y 6 y) = ∫ y 0 βα Γ(α) xα−1e−βxdx = ∫ y 0 β Γ(α) (xβ)α−1e−βxdx = β ∫ y 0 (xβ)α−1e−βx Γ(α) dx. Fazendo u = βx, temos du = βdx, logo FY (y) = ∫ βy 0 uα−1e−u Γ(α) du = P(U 6 βy) = FU (βy), onde U ∼ Γ(α) (Gama Padra˜o). Propriedades 2.3. Seja X ∼ Γ(α, β), enta˜o (i) E(X) = α/β. (ii) Var(X) = α/β2. 16 2.4 Relac¸a˜o entre a distribuic¸a˜o Gama e Poisson Quando α e´ um inteiro positivo, a func¸a˜o densidade da distribuic¸a˜o Gama se relaciona tambe´m com a func¸a˜o massa de probabilidade da distribuic¸a˜o Poisson. Considere a integral C = ∫ ∞ a yαe−y α! dy, na qual α e´ um inteiro positivo e a > 0. Enta˜o, α!C = ∫ ∞ a yαe−ydy. Integrando por partes, fazendo u = yα, dv = e−ydy, du = αxα−1dx e v = −e−y, temos α!C = −yαe−y ∣∣∣∞ a + α ∫ ∞ a yα−1e−ydy = aαe−a + α ∫ ∞ a yα−1e−ydy. Novamente integrando por partes, temos que α!C = aαe−a + ( −αyα−1e−y ∣∣∣∞ a ) + α(α− 1) ∫ ∞ a yα−2e−ydy = aαe−a + αaα−1e−a + α(α− 1) ∫ ∞ a yα−2e−ydy. Continuando a integrar por partes desde que α seja um inteiro positivo, teremos α!C = e−a ( aα + αaα−1 + α(α− 1)aα−2 + · · ·+ α!) . Ou seja, C = e−a ( aα α! + αaα−1 α! + α(α− 1)aα−2 α! + · · ·+ α! α! ) = e−aaα α! + e−aaα−1 (α− 1)! + e−aaα−2 (α− 2)! + · · ·+ e −a = P(X = α) + P(X = α− 1) + P(X = α− 2) + · · ·+ P(X = 0) = α∑ k=0 P(X = k), pois P(X = k) = eaakk! e´ a func¸a˜o massa de probabilidade de uma varia´vel aleato´ria com distribuic¸a˜o Poisson, isto e´, X ∼ P(a), a > 0. A u´ltima igualdade e´ a func¸a˜o de distribuic¸a˜o de uma varia´vel aleato´ria com distribuic¸a˜o P(a), isto e´, 17 FX(α) = P(X 6 α) = α∑ k=0 P(X = k). 2.5 Modelo Normal A distribuic¸a˜o normal e´ a mais importante de todas as distribuic¸o˜es. Muitas populac¸o˜es nume´ricas possuem distribuic¸a˜o que podem ser ajustadas por uma curva normal apropri- ada. Os exemplos incluem alturas, pesos e outras caracter´ısticas f´ısicas, erros em medidas em experimentos cient´ıficos, medidas antropome´tricas em fo´sseis, tempos de reac¸a˜o em ex- perimentos psicolo´gicos, medidas de inteligeˆncia e aptida˜o, pontuac¸a˜o em testes variados, e numerosas medidas e indicadores econoˆmicos. Mesmo quando a distribuic¸a˜o e´ discreta, a curva normal frequentemente fornece aproximac¸a˜o excelente.Ale´m disso, ainda que as pro´prias varia´veis individuais na˜o seja normalmente distribu´ıdas, as somas e as me´dias das varia´veis tera˜o uma distribuic¸a˜o aproximadamente normal sob condic¸o˜es adequadas. Definic¸a˜o 2.4. Uma v.a. X segue o modelo Normal se a sua densidade e´ dada por: fX(x) = 1√ 2piσ2 e− (x−µ)2 2σ2 I(−∞,∞)(x), com µ, σ ∈ R, σ > 0. Notac¸a˜o: X ∼ N(µ, σ2). Figura 4: Gra´ficos da func¸a˜o densidade de probabilidade da distribuic¸a˜o normal N(µ, σ2). 18 Caso Particular: Distribuic¸a˜o Normal Padra˜o Quando, na Definic¸a˜o 2.4, temos µ = 0 e σ2 = 1. Definic¸a˜o 2.5. Uma v.a. Z segue o modelo Normal se a sua densidade e´ dada por: fZ(z) = 1√ 2pi e− z2 2 I(−∞,∞)(z). Notac¸a˜o: Z ∼ N(0, 1). Observac¸a˜o 2.8. Seja Z ∼ N(0, 1). Enta˜o, i) fZ(z) e´ sime´trica em relac¸a˜o a` origem. Enta˜o, FZ(z) = 1− FZ(−z). ii) fZ(z) tem um u´nico ponto cr´ıtico em z = 0 e fZ(0) = 1 2pi e´ o u´nico ma´ximo da func¸a˜o. iii) z = 1 e z = −1 sa˜o pontos de inflexa˜o. iv) limz→∞ fZ(z) = 0 = limz→−∞ fZ(z). v) ∫∞ −∞ 1√ 2pi e− z2 2 dz = 1. vi) P(Z ∈ A) = ∫A fZ(z)dz. Caso A = [a, b], com a < b, temos que P(a 6 Z 6 b) = ∫ b a fZ(z)dz. A func¸a˜o de distribuic¸a˜o (acumulada) da distribuic¸a˜o normal e´ dada por FZ(z) = ∫ z −∞ fZ(t)dt. Figura 5: Ca´lculo da func¸a˜o de distribuic¸a˜o (acumulada) da distribuic¸a˜o N(0, 1). 19 Figura 6: Func¸a˜o de distribuic¸a˜o (acumulada) da distribuic¸a˜o N(0, 1). Na˜o existe uma fo´rmula fechada para esta distribuic¸a˜o. Exemplo 2.5. Seja Z ∼ N(0, 1), isto e´, a v.a. Z tem distribuic¸a˜o Normal padra˜o. Calcule as seguintes probabilidades. (i) P(Z 6 1.25). Resposta: 0.8944 (ii) P(Z > 1.25). Resposta: 0.1056 Figura 7: A´reas da curva normal padra˜o itens (a) e (b), respectivamente. (iii) P(Z 6 −1.25). Resposta: 0.1056 (iv) P(−0.38 6 Z 6 1.25). Resposta: 0.8944-0.3520=0.5424 Figura 8: P(−0.38 6 Z 6 1.25) como a diferenc¸a entre duas a´reas acumuladas. Percentis da Distribuic¸a˜o Normal Padra˜o Para qualquer p, 0 < p < 1 podemos obter o 100p-e´simo percentil da distribuic¸a˜o normal padra˜o. Exemplo 2.6. O 99o percentil da distribuic¸a˜o normal padra˜o e´ o valor no eixo horizontal tal que a a´rea sob a curva a` esquerda do valor seja 0.9900. Este e´ o problema inverso de P(Z 6 z) =? 20 (a) (b) Figura 9: Distribuic¸a˜o Normal Padra˜o: (a) Determinac¸a˜o do 99o percentil, (b) Relac¸a˜o entre o 1o e o 99o percentis. (i) 99o percentil, z = 2.33. (ii) 1o percentil, z = −2.33. (iii) 67o percentil, z = 0.44. (iv) 95o percentil, z = 1.645 (me´dia de 1.64 e 1.65). (v) 5o percentil, z = −1.645. Notac¸a˜o zα: Em infereˆncia estat´ıstica, precisaremos dos valores do eixo das medidas que encerram pequenas a´reas da cauda abaixo da curva normal padra˜o. Definic¸a˜o 2.6. zα representara´ o valor no eixo das medidas para o qual uma a´rea abaixo da curva Z fuca a´ direita de zα. Exemplo 2.7. z0.10 conte´m a a´rea sob a cauda superior 0.10 e z0.01 conte´m a a´rea sob a cauda superior 0.01. Figura 10: Notac¸a˜o zα ilustrada. Como α da a´rea abaixo da curva normal padra˜o esta´ a` direita de zα, 1 − α da a´rea esta´ a` esquerda de zα. Portanto, zα e´ o 100(1−α)-e´simo percentil da distribuic¸a˜o normal padra˜o. Por simetria, a a´rea abaixo da curva normal e a` esquerda de −zα tambe´m e´ α. Os zα’s normalmente sa˜o denominados de valores cr´ıticos de z. A Tabela que relaciona os percentis normais padra˜o mais usados e os valores de zα. 21 Tabela 1: Percentisnormais padra˜o e valores cr´ıticos. Percentil 90 95 97.5 99 99.5 99.9 99.95 α(a´rea sob a cauda) 0.1 0.05 0.025 0.01 0.005 0.001 0.0005 zα = 100(1− α)-e´simo percentil 1.28 1.645 1.96 2.33 2.58 3.08 3.27 Exemplo 2.8. z0.05 e´ o 100(1−0.05)-e´simo percentil=95o pecentil da distribuic¸a˜o normal padra˜o, de modo que z0.05 = 1.645. A a´rea abaixo da curva normal padra˜o a` esquerda de −z0.05 tambe´m e´ 0.05. Figura 11: Determinac¸a˜o de z0.05. Teorema 2.1. Sendo X ∼ N(µ, σ2), enta˜o Z = Z−µσ possui distribuic¸a˜o N(0, 1). Prova: Temos que P ( Z − µ σ 6 z ) = P (Z 6 zσ + µ) = ∫ zσ+µ −∞ 1√ 2piσ2 e− (x−µ)2 2σ2 dx = ∫ z −∞ 1√ 2pi e− y2 2 dx, em que usamos y = x−µσ . Observamos que este u´ltimo integrando e´ a func¸a˜o densidade de uma N(0, 1) e, por- tanto, o resultado esta´ verificado. A distribuic¸a˜o N(0, 1) e´ denominada Normal Padra˜o. Corola´rio 2.1. Sendo X ∼ N(µ, σ2), enta˜o Z = Z−µσ possui distribuic¸a˜o N(0, 1) e assim P(a 6 X 6 b) = P ( a− µ σ 6 Z − µ σ 6 b− µ σ ) = FZ ( b− µ σ ) − FZ ( a− µ σ ) . P(Z 6 a) = FZ ( a− µ σ ) e P(X > b) = 1− FZ ( b− µ σ ) . 22 Figura 12: Igualdade das a´reas de curvas normais na˜o-padra˜o e padra˜o. Exemplo 2.9. O tempo que um motorista leva para reagir a`s luzes de freio de um ve´ıculo em desacelerac¸a˜o e´ crucial para evitar coliso˜es traseiras. O artigo “Fast-Rise Brake Lamp as a Collision-Prevention Device”(Ergonomics, 1993, p. 391-395) sugere que o tempo de reac¸a˜o de uma resposta no traˆnsito a um sinal de frenagem com luzes de freio convencionais pode ser modelado com uma distribuic¸a˜o normal de me´dia 1.25 segundos e desvio padra˜o 0.46 segundos. Qual a probabilidade de que o tempo de reac¸a˜o esteja entre 1.00 e 1.75 segundos? Enta˜o, Z ∼ N(1.25, (0.45)2) P(1 6 X 6 1.75) = P(−0.54 6 Z 6 1.09) = 0.8621− 0.2946 = 0.5675. Figura 13: Curvas normais. Observac¸a˜o 2.9. Seja X ∼ N(µ, σ2). Enta˜o, i) fX(x) e´ sime´trica com relac¸a˜o a` µ. Portanto, P(X 6 µ) = 1/2 = P(X > µ) e P(X 6 µ− a) = P(X > µ+ a). ii) µ+ σ e µ− σ sa˜o pontos de inflexa˜o. iii) Para X ∼ N(µ, σ2), temos que 23 P(|X − µ| < kσ) = P(−kσ < X − µ < kσ) = P(µ− kσ < X < µ+ kσ) = P( −kσ σ < X − µ σ < kσ σ ) = P(−k < X − µ σ < k) = P(−k < Z < k) = P(|Z| < k) = FZ(k)− FZ(−k) = 2FZ(k)− 1, onde Z ∼ N(0, 1) e Z = X−µσ . Assim, a) Para k = 1, P(|X − µ| < σ) = 2FZ(1)− 1 = 2× 0.8413− 1 = 0.6826. b) Para k = 2, P(|X − µ| < 2σ) = 2FZ(2)− 1 = 2× 0.9772− 1 = 0.9544. c) Para k = 3, P(|X − µ| < 3σ) = 2FZ(3)− 1 = 2× 0.9987− 1 = 0.9974. Percentis de uma Distribuic¸a˜o Normal Arbitra´ria O 100p-e´simo percentil de uma distribuic¸a˜o normal com me´dia µ e variaˆncia σ2 pode ser facilmente relacionado com o 100p-e´simo percentil da distribuic¸a˜o normal padra˜o. Proposic¸a˜o 2.1. 100p-e´simo percentil N(µ, σ2) = µ+ [100p-e´simo percentil N(0, 1)]σ. Outra forma de expressar a proposic¸a˜o: se z e´ o percentil desejado da distribuic¸a˜o normal padra˜o, enta˜o o percentil desejado da distribuic¸a˜o N(µ, σ2) esta´ a z desvios padra˜o de µ. Exemplo 2.10. A quantidade de a´gua destilada produzida por certa ma´quina tem dis- tribuic¸a˜o normal com valor me´dio de 64 onc¸as e desvio padra˜o de 0.78 onc¸as. Qual o tamanho do recipiente c que assegurara´ que ocorra transbordamento em apenas 0.5% das vezes? Se X representa a quantidade usada, a condic¸a˜o desejada e´ que P(X > c) = 0.005, ou de forma equivalente P(X 6 c) = 0.995. Assim, c e´ o 99.5o percentil da distribuic¸a˜o normal com µ = 64 e σ = 0.78. O 99.5o percentil da distribuic¸a˜o normal padra˜o e´ 2.58, enta˜o c = 64 + (2.58)(0.78) = 66 onc¸as. 24 Figura 14: Distribuic¸a˜o da quantidade produzida. Propriedades 2.4. Seja X ∼ N(µ, σ2), enta˜o (i) E(X) = µ. (ii) Var(X) = σ2. 2.6 Modelo Chi-Quadrado χ2 Um caso importante da distribuic¸a˜o Γ(α, β), α, β > 0 e´ obtido, se tomarmos α = n/2 e β = 1/2, onde n e´ um inteiro positivo. Obteremos uma famı´lia de distribuic¸o˜es de um paraˆmetro. Se X ∼ Γ(α, β), fX(x) = βα Γ(α) xα−1e−βxI(0,∞)(x). Tomando α = n/2 e β = 1/2, temos para x > 0, fZ(z) = (1/2)n/2 Γ(n/2) z n 2 −1e− z 2 I(0,∞)(z) = 1 2n/2Γ(n/2) z n 2 −1e− z 2 I(0,∞)(z). A v.a. Z, que tem f.d.p. fZ(z), e´ chamada de chi-quadrado, com n graus de liberdade. Notac¸a˜o: Z ∼ χ2n, ou Z ∼ χ2(n). (a) (b) Figura 15: Distribuic¸a˜o χ2n: (a) func¸a˜o densidade de probabilidade, (b) func¸a˜o de dis- tribuic¸a˜o acumulada. 25 Por ser um caso particular da distribuic¸a˜o Γ(α, β), a distribuic¸a˜o χ2n, tem esperanc¸a e variaˆncia dados por X ∼ Γ(α, β) E(X) = αβ Var(X) = α β2 −→ α = n 2 , β = 1 2 −→ Z ∼ χ2n E(Z) = n Var(Z) = 2n. Para n = 1, temos fZ(z) = 1 21/2Γ(1/2) z 1 2 −1e− z 2 I(0,∞)(z) = 1√ 2pi z −1 2 e− z 2 I(0,∞)(z). Para n = 2, temos fZ(z) = 1 2Γ(1) z0e− z 2 I(0,∞)(z) = 1 2 e− z 2 I(0,∞)(z), a qual e´ a f.d.p da distribuic¸a˜o exponencial. Para n > 30, podemos utilizar uma aproximac¸a˜o normal a` distribuic¸a˜o chi-quadrado. Especificamente, temos o seguinte resultado: Se Z ∼ χ2n, com n graus de liberdade, enta˜o a v.a. Y = √ 2Z −√2n− 1 ∼ N(0, 1). Exemplo 2.11. Consultando a tabela temos que, para n = 30, P(Z > 40.25) = 0.1. Utilizando a relac¸a˜o acima, temos que z = √ 2× 40, 256−√2× 30− 1 = 1, 291. Portanto, P(Y > 1, 291)]0.099, onde Y ∼ N(0, 1), que resulta em uma boa apro- ximac¸a˜o. Exemplo 2.12. Considere Z ∼ N(0, 1) e a v.a. Y = Z2. Qual a distribuic¸a˜o de Y . FY (y) = P(Y = y) = P(Z2 < y) = P(−√y < Z < √y) = FZ(√y)− FZ(−√y). Derivando a expressa˜o acima temos fY (y) = F ′ Y (y) = 1 2 √ y [ F ′Z( √ y)− F ′Z(− √ y) ] = 1 2 √ y [fZ( √ y)− fZ(−√y)] = 1 2 √ y [ 1√ 2pi e−y/2 − 1√ 2pi e−y/2) ] = 1√ 2pi y−1/2e−y/2 Logo, Y ∼ χ21. Teorema 2.2. Sejam X1, · · · , n v.a. independentes e identicamente distribu´ıdas e Sn =∑n i=1Xi. Enta˜o, i) Sn ∼ χ2n ⇐⇒ X1 ∼ χ21 ii) X1 ∼ N(0, 1) ⇐⇒ Sn = ∑n i=1Xi ∼ χ2n iii) Y1 ∼ χ2a e Y2 ∼ χ2b , Y1 e Y2 independentes, enta˜o Y1 + Y2 ∼ χ2a+b. 26 Observac¸a˜o 2.10. Seja X1, · · · , Xn uma amostra aleato´ria, com Xj ∼ N(µ, σ2), para j = 1, · · · , n. 1) Enta˜o, n∑ j=1 (Xj − µ)2 σ2 = n∑ j=1 Y 2j ∼ χ2n, Yj = (Xj−µ)2 σ2 , para j = 1, · · · , n 2) Seja Y 2 = n(X−µ) 2 σ2 . Temos que, E(X) = µ e Var(X) = σ2 n , logo Y = √ n(X−µ) σ ∼ N(0, 1). Portanto, Y 2 = n(X−µ) 2 σ2 ∼ χ21. 3) No item anterior, se substituirmos a me´dia da populac¸a˜o µ pela me´dia amostral X, temos que n∑ j=1 (Xj −X)2 σ2 ∼ χ2n−1. Como aplicac¸a˜o dessa relac¸a˜o, considera-se o estimador na˜o tendencioso para a variaˆncia da amostra s2 = ∑n j=1 (Xj−X)2 n−1 . Assim, (n− 1) σ2 n∑ j=1 (Xj −X)2 (n− 1) = (n− 1)s2 σ2 ∼ χ2n−1. 2.7 Modelo Log-Normal Definic¸a˜o 2.7. Uma varia´vel aleato´ria X tem a distribuic¸a˜o log-normal quando o seu logaritmo Y = ln(X) (X = eY ) tem a distribuic¸a˜o normal. Logo, sua func¸a˜o de densidade e´ fX(x) = 1√ 2piσ2x2 e− (ln(x)−µ)2 2σ2 I(0,∞)(x), Observac¸a˜o 2.11. 1) A esperanc¸a de X = eY , quando Y ∼ N(µ, σ2), e´ dado por E(X) = E(eY ) = exp(E(Y ) + 0.5Var(Y )) = exp(µ+ 0.5σ2). 2) A variaˆncia da log-normal tambe´m pode ser expressa em func¸a˜o da normal. Sendo X = eY e Y ∼ N(µ, σ2), temos que Var(X) = exp(2E(Y ) + Var(Y ))(exp(Var(Y ))− 1) = exp(2µ+ σ2)(exp(σ2)− 1). 27 (a) (b) Figura 16: Distribuic¸a˜o Log-Normal: (a) func¸a˜o densidade de probabilidade, (b) func¸a˜o de distribuic¸a˜o acumulada. 2.8 Distribuic¸a˜o t de student Definic¸a˜o 2.8. Sejam X ∼ N(0, 1) e Y ∼ χ2n, X e Y v.a. independentes. Enta˜o, a v.a. T = X√Y/n = √ nX√ Y , e´ dita ter distribuic¸a˜o t de student com n graus de liberdade. A func¸a˜o densidade de probabilidade da v.a. T e´ dada por fT (t) = Γ(n+12 ) Γ(n/2) √ npi ( 1− t 2 n )−(n+1)/2 , t ∈ R. Notac¸a˜o: T ∼ tn ou T ∼ t(n). Observac¸a˜o 2.12. 1) Caso particular: se n = 1, temos a distribuic¸a˜o de Cauchy com α = 0 e β = 1, onde fT (t) = 1 pi (1 + t2)−1, t ∈ R. 2) Para n grande, a distribuic¸a˜o t-student se aproxima da distribuic¸a˜o normal. 3) A f.d.p. da distribuic¸a˜o t-student e´ sime´trica em t = 0 e lim t→∞ fT (t) = 0 = limt→−∞ fT (t) Figura 17: Distribuic¸a˜o tn: Func¸a˜o densidade de probabilidade. 28 Observac¸a˜o 2.13. Modelo Cauchy: Se X ∼ C(α, β), enta˜o fX(x) = 1 piβ(1 + (x−αβ ) 2) , onde α ∈ R e β > 0. Propriedades: Seja X ∼ C(α, β), enta˜o i) E(X) = @. ii) Var(X) = @. Observac¸a˜o 2.14. Propriedades: Seja X ∼ tn, enta˜o i) E(X) = 0, se n > 1. ii) Var(X) = nn−2 , se n > 2. 2.9 Modelo F-Snedecor Definic¸a˜o 2.9. Sejam X e Y v.a. independentes com distribuic¸a˜o χ2m e χ 2 n, respectiva- mente. A v.a. F = X/m Y/n = n m X Y , e´ dita ter distribuic¸a˜o F-Snedecor com (m,n) graus de liberdade. Notac¸a˜o: F ∼ Fm,n ou F ∼ F (m,n). A func¸a˜o densidade de probabilidade da v.a. F e´ dada por fF (x) = Γ(m+n2 ) Γ(m2 )Γ( n 2 ) (m n )(m n x )m 2 −1 ( 1 + m n x )−(m+n 2 ) I(0,∞)(x). Figura 18: Distribuic¸a˜o F (m,n),m = 5, n = 2: (a) func¸a˜o de distribuic¸a˜o acumulada, (b) func¸a˜o densidade de probabilidade. Observac¸a˜o 2.15. Propriedades: i) Se X ∼ F (m,n) enta˜o, 1X ∼ F (n,m). ii) Se Z ∼ C(0, 1) = t1, enta˜o Z2 ∼ F (1, 1). 29 iii) E(F ) = nn−2 , para n > 2. iv) Var(F ) = n 2(2m+2n−4) n(n−2)2(n−4) , para n > 4. v) Se X ∼ tn, enta˜o X2 ∼ F (1, n). Figura 19: Relac¸o˜es entre as principais distribuic¸o˜es. 30 Tabela 2: Tabela Distribuic¸a˜o Normal Padra˜o Z ∼ N(0, 1): FZ(z) = P(Z 6 z). 0 1 2 3 4 5 6 7 8 9 -3.0 0.0013 0.0010 0.0007 0.0005 0.0003 0.0002 0.0002 0.0001 0.0001 0.0000 -2.9 0.0019 0.0018 0.0017 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014 -2.8 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019 -2.7 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026 -2.6 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036 -2.5 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048 -2.4 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064 -2.3 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084 -2.2 0.0139 0.0136 0.0132 0.0129 0.0126 0.0122 0.0119 0.0116 0.0113 0.0110 -2.1 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143 -2.0 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183 -1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0238 0.0233 -1.8 0.0359 0.0352 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0300 0.0294 -1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367 -1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455 -1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0570 0.0559 -1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0722 0.0708 0.0694 0.0681 -1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823 -1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985 -1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170 -1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379 -0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611 -0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867 -0.7 0.2420 0.2389 0.2358 0.2327 0.2297 0.2266 0.2236 0.2206 0.2177 0.2148 -0.6 0.2743 0.2709 0.2767 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451 -0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776 -0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121 -0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483 -0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859 -0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247 0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641 0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7 0.7580 0.7611 0.7642 0.7673 0.7703 0.7734 0.7764 0.7794 0.7823 0.7852 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9278 0.9292 0.9306 0.9319 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9430 0.9441 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.8 0.9641 0.9648 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9700 0.9706 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9762 0.9767 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857 2.2 0.9861 0.9864 0.9868 0.9871 0.9874 0.9878 0.9881 0.9884 0.9887 0.9890 2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952 2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964 2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974 2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981 2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 3.0 0.9987 0.9990 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 1.0000
Compartilhar