Prévia do material em texto
Probabilidade - Lista 02 Mestrado - PPGMAT - IM/UFAL Francisco Alan Lima da Silva francisco.alan@im.ufal.br 15 de maio de 2024 QUESTÕES FEITAS Cap. 4 Cap. 5 Cap. 6 3 × 9 × 1 × 6 × 11 × 3 × 9 × 13 × 5 × 12 × 15 × 7 × 15 × 17 9 × 18 × 19 × 11 × 21 × 21 × 13 × 24 × 23 15 × 27 × 17 × 19 × 21 × 1 4 Vetores aleatórios Exerćıcio 4.3. Seja X uma variável aleatória qualquer. Mostre que X é independente de si mesma se, e somente se, existe c ∈ R tal que P(X = c) = 1. Solução. Suponha que X é independente de si mesma e seja c1 um número real qualquer. Por independência, temos que FX(c1) = P(X ≤ c1) = P(X ≤ c1, X ≤ c1) = P(X ≤ c1) 2 = FX(c1) 2. Logo, FX(c1) = 0 ou 1. Utilizaremos as propriedades para a função de distribuição. Como FX(x) → 0 quando x → −∞ e FX(x) → 1 quando x → ∞, existe x ∈ R tal que FX(x) = 1. Sendo FX não-decrescente e cont́ınua à direita, existe c ∈ R tal que FX(c) = 1 e FX(x) = 0 para todo x < c. De fato, basta tomar c = inf{x ∈ R : FX(x) = 1} (pois o ı́nfimo de um conjunto é limite de uma sequência decrescente de pontos deste conjunto; a continúıdade à direita garante a continência do ı́nfimo no conjunto). Como 1 = FX(c) = P(X = c) + P(X < c) = P(X = c), o resultado segue. Reciprocamente, se existe c ∈ R tal que P(X = c) = 1, então para cada B ∈ B(R), temos que P(X ∈ B) = 1(c ∈ B), donde segue que P(X ∈ B1, X ∈ B2) = P(X ∈ B1 ∩B2) = 1(B1 ∩B2) (1) = 1(B1) · 1(B2) = P(X ∈ B1) · P(X ∈ B2), (2) para todos B1, B2 ∈ B(R). Isso mostra que X é independente de si mesma. Exerćıcio 4.6. Um ponto P é escolhido com distribuição uniforme no ćırculo unitário C = (x, y) ∈ R2 : x2 + y2 < 1. Informalmente, isso quer dizer que a probabilidade de (X, Y ) tomar valor em algum conjunto A ⊂ C é dada pela razão entre as áreas de A e de C. (a) Sejam (X, Y ) as coordenadas cartesianas de P . As variáveis X e Y são independen- tes? Justifique. (b) Sejam (R, θ) as coordenadas polares de P . Determine as funções de distribuição marginal FR e Fθ bem como a conjunta FR,θ. (c) As variáveis aleatórias R e θ são independentes? Justifique. Solução. (a) Não são independentes. De fato, considere os dois eventos mutuamente exclusivos A = {X < 1 2 } e B = {Y < √ 3 2 }. Ambos têm probabilidade positiva, e são da forma {Z ∈ B}. Então P(A) · P(B) > 0 = P(A,B), e portanto X e Y não são independentes. 2 (b) Tomando a transformação X = R cos θ e Y = R sen θ temos que o determinante jacobi- ano da transformação é R. Note que precisamos fazer isto pois há distorção da área propor- cional ao raio quando calculamos a área de um ćırculo ou setor circular em coordenadas po- lares. Também, a função de distribuição conjunta fX,Y é dada por fX,Y (x, y) = 1 π ·1C(x, y). Dáı, temos que fR,θ(r, α) = r π · 1D(r, α), onde D = {(r, α) ∈ R2 : 0 ≤ r < 1, 0 ≤ α < 2π}. Calcularemos os valores para r < 1 e α < 2π. Para r ≥ 1, note que FR,θ(r, α) = FR,θ(1, α). Vale um resultado análogo para α ≥ 2π. Se r < 0 ou α < 0, FR,θ(r, α) = 0. Suponha que 0 ≤ r < 1 e 0 ≤ α < 2π. Então FR,θ(r, α) = ∫ α 0 ∫ r 0 R π dRdθ = ∫ α 0 r2 2π dθ = αr2 2π . Agora calcularemos as marginais. Note que FR(r) = ∫ r 0 ∫ 2π 0 R π dθdR = ∫ r 0 2R dR = r2, enquanto Fθ(α) = ∫ α 0 ∫ 1 0 R π dRdθ = ∫ α 0 1 2π dθ = α 2π . (c) Sim. Basta notar pelo item anterior que FR,θ(r, α) = FR(r) · Fθ(α). Exerćıcio 4.9. Sejam X e Y variáveis aleatórias independentes, discretas e com distri- buições Poi(λ1) e Poi(λ2), respectivamente. Mostre que, dada a ocorrência do evento {X + Y = n}, a probabilidade condicional de X = k é P(X = k |X + Y = n) = ( n k )( λ1 λ1 + λ2 )k ( λ2 λ1 + λ2 )n−k . Interprete essa identidade. Solução. Comece observando que por independência temos que P(X = k,X + Y = n) = P(X = k, Y = n− k) = P(X = k) · P(Y = n− k). (3) Também, decompondo {X + Y = n} = ⋃n j=0{X = j, Y = n− j} temos que P(X + Y = n) = n∑ j=0 P(X = j, Y = n− j) = n∑ j=0 P(X = j) · P(Y = n− j). (4) A eq. (3) junto da eq. (4) nos dá que P(X = k |X + Y = n) = P(X = k) · P(Y = n− k)∑n j=0 P(X = j) · P(Y = n− j) = e−λ1λk 1 k! · e −λ2λn−k 2 (n− k)!∑n j=0 e−λ1λj 1 j! · e −λ2λn−j 2 (n− j)! . 3 Cancelando os termos constantes e−λ1 e e−λ2 no numerador e denominador, obtemos P(X = k |X + Y = n) = 1 k!(n− k)! · λk 1λ n−k 2∑n j=0 1 j!(n−j)! λj 1λ n−j 2 = n! k!(n− k)! · λk 1λ n−k 2∑n j=0 n! j!(n−j)! λj 1λ n−j 2 = ( n k ) λk 1λ n−k 2 (λ1 + λ2)n . Observando que (λ1 + λ2) n = (λ1 + λ2) k · (λ1 + λ2) n−k, o resultado segue. Exerćıcio 4.12. Considere um vetor aleatório (Z,W ) absolutamente cont́ınuo com den- sidade fZ,W (z, w) = c · 1{0<z<1,0<w<z}(z, w). Encontre c e FZ,W . Solução. Apesar da notação, tudo que faremos abaixo é calcular a integral de uma cons- tante c no conjunto C = {0 < z < 1, 0 < w < z). Para encontrar c, basta fazer 1 = ∫ R2 fZ,W (z, w)dA. Note que∫ R2 fZ,W (z, w)dA = ∫ R2 c1C(z, w)dA = c · A(C) = c · 1 2 , onde A(C) denota a área do conjunto C em R2, ou seja, A(C) = ∫ C 1 dA. Portanto c = 2. Agora encontraremos FZ,W . Para valores w̃ < 0 ou z̃ < 0, temos FZ,W (z̃, w̃) = 0. Suponha 1 ≥ w̃, z̃ ≥ 0. Dividiremos em casos. 1. Se w̃ > z̃, então FZ,W (z̃, w̃) = ∫ z̃ 0 ∫ w̃ 0 2 · 1C(z, w) dwdz = ∫ z̃ 0 ∫ z 0 2 · 1C(z, w) dwdz = 2 · z̃ 2 2 = z̃2. 2. Se w̃ ≤ z̃, então FZ,W (w̃, z̃) = w̃2 + w̃ · (z̃ − w̃). Ambos os cálculos acima foram feitos calculando as integrais. 4 Exerćıcio 4.15. Seja X = (X1, X2) um vetor com densidade conjunta dada por fX(x, y) = exp { 1 2(1− ρ2) [( x− µ1 σ1 )2 − 2ρ ( x− µ1 σ1 )( y − µ2 σ2 ) + ( y − µ2 σ2 )2 ]} 2πσ1σ2 √ 1− ρ2 . Tal vetor é dito ter distribuição normal bivariada com parâmetros µ1, µ2 ∈ R, σ1, σ2 > 0 e ρ ∈ [0, 1). Mostre que: (a) X1 ∼ N (µ1, σ 2 1) e X1 ∼ N (µ2, σ 2 2); (b) as variáveis aleatórias X1, X2 são independentes se, e somente se, ρ = 0. Solução. (a) Provaremos que fX1(x) = e−(x−µ1)2/σ2 1/ √ 2πσ2 1. Isto prova que X1 ∼ N (µ1, σ 2 1). De maneira completamente análoga se prova que X2 ∼ N (µ2, σ 2 2). Calcularemos a densidade marginal fX1(x) = ∫ ∞ −∞ fX(x, y)dy fX(x, y) = exp { − 1 2(1− ρ2) [( x− µ1 σ1 )2 − 2ρ ( x− µ1 σ1 )( y − µ2 σ2 ) + ( y − µ2 σ2 )2 ]} 2πσ1σ2 √ 1− ρ2 Desenvolveremos a expressão dentro do colchetes. Note que( x− µ1 σ1 )2 − 2ρ ( x− µ1 σ1 )( y − µ2 σ2 ) + ( y − µ2 σ2 )2 = = (1− ρ2) ( x− µ1 σ1 )2 + ρ2 ( x− µ1 σ1 )2 − 2ρ ( x− µ1 σ1 )( y − µ2 σ2 ) + ( y − µ2 σ2 )2 = (1− ρ2) ( x− µ1 σ1 )2 + [ −ρ ( x− µ1 σ1 ) + ( y − µ2 σ2 )]2 . Substituindo a igualdade acima na expressão para fX1(x), temos que fX1(x) = e −1 2 ( x−µ1 σ1 )2 √ 2πσ2 1 ∫ ∞ −∞ exp { − 1 2 √ (1− ρ2) 2 [ −ρ ( x− µ1 σ1 ) + ( y − µ2 σ2 )]2} √ 2π[σ2 √ (1− ρ2)] dy. Fazendo a mudança de variável dada por z = 1√ 1− ρ2 [ −ρ ( x− µ1 σ1 ) + ( y − µ2 σ2 )] 5 temos que dz = 1 σ2 √ 1− ρ2 dy, e os limites de integração continuam de −∞ até +∞. Portanto, temos que fX1(x) = e −1 2 ( x−µ1 σ1 )2 √ 2πσ2 1 ∫ ∞ −∞ e− z2 2 √ 2π dz. A última integral sabemos ser igual a 1, pois é o limite de FZ(z), quando z → ∞, onde Z ∼ N (0, 1). O resultado segue. (b) Fazendo o produto fX1(x)fX2(y), verifica-se que este coincide com fX(x, y) apenas para ρ = 0. Exerćıcio 4.18. Sejam X1, X2, . . . , Xk variáveis aleatórias i.i.d. com distribuição Geo(p). Qual a distribuição de X1 + · · ·+Xk? É alguma distribuição conhecida? Solução. Seja X = X1+· · ·+Xn. Provaremos que X ∼ BinNeg(n, p), ou seja, provaremos que P(X = k) = ( k−1 n−1 ) (1−p)n−kpk. Faremos isso por indução em n. Para n = 2, e sabendo que os valores que cada Xi assume são ≥ 1, temos que P(X1 +X2 = k) = k−1∑ j=1 P(X1 = j) · P(X2 = n− j), por independência. Dáı, segue que P(X1 +X2 = k) = n−1∑ j=1 ((1− p)j−1p) · ((1− p)n−j−1p) = n−1∑ j=1 (1− p)n−2p2 = ( n− 1 2− 1 ) (1− p)n−2p2, o que demonstra o nosso caso base. Suponha que agora que afirmaçãoseja válida para todos os números naturais entre 2 e n. Então, novamente por ser Xj ≥ 1 para todo j, temos que P ( n+1∑ j=1 Xj = k ) = k−1∑ i=n P ( n∑ j=1 Xj = i,Xn+1 = k − i ) = k−1∑ i=n P ( n∑ j=1 Xj = i ) · P(Xn+1 = k − i). 6 Por hipótese de indução, sabemos que P( ∑n j=1Xj = i) = ( i−1 n−1 ) (1− p)i−npn, e portanto P ( n+1∑ j=1 Xj = k ) = k−1∑ i=n [( i− 1 n− 1 ) (1− p)i−npn ] · [(1− p)k−i−1p] = k−1∑ i=n ( i− 1 n− 1 ) (1− p)k−n−1pn+1. Como ∑k−1 i=n ( i−1 n−1 ) = ( k−1 n−1 ) pelo Teorema das Colunas, segue o resultado. Exerćıcio 4.21. Sejam X1, . . . , Xn variáveis aleatórias independentes e identicamente dis- tribúıdas com distribuição Exp(λ). Mostre que X1+· · ·+Xn tem distribuição Gama(n, λ). Solução. Chame Yn = X1 + · · ·+Xn. Mostraremos o exerćıcio provando que fYn(z) = λnzn−1e−λz (n− 1)! · 1(0,+∞)(x), (5) uma vez que ∫∞ 0 xn−1e−xdx = Γ(n) = (n− 1)!. Procederemos por indução em n. Para n = 2, temos que fY2(z) = ∫ +∞ −∞ fX1(x)fX2(z − x)dx. Observe que se z ≤ 0, então x ou z− x também estará em (−∞, 0], e portanto fY2(z) = 0 caso z ≤ 0. Suponha z > 0. Agora observe que ao fazer o produto das densidades como acima, como z − x ∈ (0,+∞) apenas para x ∈ (−∞, z), obtemos que fX1(x)fX2(z − x) = (λe−λx 1(0,+∞))(λe−λ(z−x) 1(−∞, z)) = λ2e−λz 1((0,+∞) ∩ (−∞, z)) = λ2e−λz 1(0, z), de onde segue que para n = 2, temos que para z > 0 vale fY2(z) = λ2e−λz ∫ z 0 1dx = λ2ze−λz. o que, junto com o caso z ≤ 0, satisfaz eq. (5) e mostra o caso base. Supondo a afirmação válida para todo 2 ≤ k ≤ n, conclúımos a demonstração observando que fYn+1(z) = ∫ +∞ −∞ fYn(x)fXn+1(z − x)dx. 7 Para z ≤ 0, observe que fYn+1 = 0. Suponha z > 0. Então, uma vez que fYn(x)fXn+1(z − x) = ( λnzn−1e−λz (n− 1)! · 1(0,+∞) ) (λe−λ(z−x) 1(−∞, z)) = λn+1xn−1e−λz (n− 1)! · 1(0, z) segue que para z > 0 vale a expressão fYn+1(z) = λn+1e−λz (n− 1)! ∫ z 0 xn−1dx = λn+1e−λz (n− 1)! · x n n ∣∣∣x=z x=0 = λn+1zne−λz n! . A expressão acima para z > 0, junto com o que vimos que z ≤ 0, mostra que vale eq. (5) para o caso n+ 1, o que conclui a nossa demonstração. Exerćıcio 4.24. A distribuição dos comprimentos dos elos da corrente de bicicleta é normal, com parâmetros µ = 2, 00cm e σ2 = 0, 01 cm2. Para que uma corrente se ajuste à bicicleta, deve ter comprimento total entre 58, 00 e 61, 00 cm. Qual é a probabilidade de uma corrente com 30 elos não se ajustar à bicicleta? Solução. Temos 30 variáveis aleatóriasX1, . . . , X30 i.i.d. comX1 ∼ N (2, 0.01). Queremos calcular 1 − P(58 ≤ X1 + · · · + X30 ≤ 61). Algo que sabemos do texto do livro é que X1+ · · ·+X30 ∼ N (60, 0.3). Chamando S30 = X1+ · · ·+X30 temos que S30−60√ 0.3 ∼ N (0, 1), e portanto temos que P(58 ≤ S30 ≤ 61) = P ( 58− 60√ 0.3 ≤ Z ≤ 61− 60√ 0.3 ) ≈ P(−3.6515 ≤ Z ≤ 1.82574), onde Z ∼ N (0, 1). Assim, temos que P(58 ≤ S30 ≤ 61) ≈ P(Z < 1.82574)− P(Z < −3.6515). Conferindo em qualquer tabela da normal, vemos que P(Z < −3.6515) ≈ 0.00013. Por sua vez, P(Z ≤ 1.82574) ≈ 0.96606. Dáı, temos que a probabilidade de que uma corrente com 30 elos não se ajustar a bicicleta é de aproximadamente 0.03407. Exerćıcio 4.27. Sejam X e Y independentes com densidades fX e fY . Usando o método do jacobiano, dê uma prova alternativa para a fórmula fX+Y (s) = ∫ ∞ −∞ fX(t− s)fY (s)ds. 8 Solução. Considere a transformação h(X, Y ) = (X+Y, Y ). O determinante jacobiano de h é 1, o que implica que fX+Y,Y (t, s) = fX,Y (t − s, s), e portanto a distribuição marginal fX+Y (t) é dada por fX+Y (t) = ∫ ∞ −∞ fX+Y,Y (t, s)ds = ∫ ∞ −∞ fX,Y (t− s, s)ds. Por independência temos que fX,Y (t− s, s) = fX(t− s)fY (s), e o resultado segue. 5 Esperança Matemática Exerćıcio 5.9. Seja X ∼ U [0, 1]. Calcule E[X t] para todo t ∈ R. Solução. Sabemos que fX(x) = 1[0,1](x), donde segue que para cada t ∈ R com t ̸= −1, vale E[X t] = ∫ 1 0 xtdx = 1 t+ 1 . Para t = −1, temos que E[X−1] = ∫ 1 0 1 x dx = +∞. Exerćıcio 5.11. Seja X ∼ Beta(a, b) com a, b > 0. Calcule EX. Solução. Com a notação da proposition 1, sabemos que a denisidade de X é dada por fX(x) = 1 B(a,b) xa−1(1 − x)b−1 1(0,1)(x). Ainda pela proposition 1, sabemos que B(a, b) = Γ(a)Γ(b)/Γ(a+ b), donde temos que EX = Γ(a+ b) Γ(a)Γ(b) ∫ 1 0 x · (xa−1(1− x)b−1)dx = Γ(a+ b) Γ(a)Γ(b) ∫ 1 0 xa(1− x)b−1dx. Agora note que a integral do lado direito é igual a B(a+ 1, b), e portanto temos que∫ 1 0 xa(1− x)b−1dx = Γ(a+ 1)Γ(b) Γ(a+ 1 + b) . Juntando as igualdades vistas acima e o fato que Γ(x+ 1) = x · Γ(x), conclúımos que EX = Γ(a+ b) Γ(a+ b+ 1) · Γ(a+ 1) Γ(a) = a a+ b , o que procurávamos. 9 Exerćıcio 5.13. Seja X ∼ Cauchy(a, b). Mostre que EX não está definida. Solução. Faremos isto mostrando que ∫∞ 0 xfX(x)dx = +∞ e ∫ 0 −∞ xfX(x)dx = −∞. Para tal, começaremos relembrando que a densidade de X é dada por fX(x) = b π[b2 − (x− a)2] . Calcularemos a primeira integral. Observe que∫ ∞ 0 xfX(x)dx = ∫ ∞ 0 bx π[b2 + (x− a)2] dx. Fazendo a substituição u = (x − a)2, temos du = 2(x − a)dx e os limites de integração permanecem intactos. Escrevendo bx = b(x− a) + ba temos que∫ ∞ 0 xfX(x)dx ∫ ∞ 0 b(x− a) π[b2 + (x− a)2] dx+ a ∫ ∞ 0 b π[b2 + (x− a)2] dx = ∫ ∞ 0 b 2π[b2 + u] du+ a = +∞, pois a integral é comparável com a integral de 1 u de 0 a +∞ (uma vez que 1/(b2+u) ≥ 1/2u para u suficientemente grande). Calcularemos agora a integral∫ 0 −∞ bx π[b2 + (x− a)2] dx. Trocando novamente u = (x− a)2, du = 2(x− a)dx, temos os novos limites de integração de ∞ a 0, e portanto∫ 0 −∞ xfX(x)dx = ∫ 0 ∞ b 2π[b2 + u] du+ a = − ∫ ∞ 0 b 2π[b2 + u] du+ a = −∞. Isto conclui a prova de que a esperança para uma variável aleatória Cauchy não existe. Exerćıcio 5.15. Sejam X1, . . . , Xn variáveis aleatórias não-negativas (ou integráveis) in- dependentes. Prove que E[ ∏ j Xj] = ∏ j EXj. Solução. Provaremos variáveis aleatórias simples. Estendemos para variáveis aleatórias positivas pelo Teorema da Convergência Monótona e para variáveis aleatórias integráveis fazendo para a parte positiva e negativa. 10 SejamX1, . . . , Xn variáveis aleatórias simples. Então, por definição de variável aleatória simples e particionando o espaço na união dos conjuntos {Xi = xi}, onde xi varia no con- junto dos pontos que Xi pode assumir, temos que E [ n∏ j=1 Xj ] = ∫ (X1 · . . . ·Xn)dP = ∑ x1,...,xn ∫ {Xi=xi,1≤i≤n} (X1 · . . . ·Xn)dP = ∑ x1,...,xn ∫ x1 · . . . · xn 1{Xi=xi,i} dP = ∑ x1,...,xn x1 · . . . · xnP(Xi = xi, i) = ∑ x1,...,xn x1 · . . . · xn n∏ j=1 P(Xj = xj) = n∏ j=1 ∑ xj xjP(Xj = xj), onde na penúltima igualdade utilizamos a independências das variáveis aleatóriasX1, . . . , Xn. O resultado segue uma vez que E[Xj] = ∑ xj xjP(Xj = xj). Exerćıcio 5.19. Prove que, se X é integrável e A ∈ F , então X 1A é integrável. Solução. Como X é integrável, então ∫ Ω |X|dP < +∞. Também, λ(A) = ∫ A fdP, com f uma função mensurável positiva, defina uma medida sobre F , e portanto é monótona. Além do mais, 1A ≥ 0, donde temos que∫ |X 1A |dP = ∫ |X|1A dP = ∫ A |X|dP ≤ ∫ |X|dP < +∞, e segue a integrabilidade de X 1A. Exerćıcio 5.21. Seja X uma variável aleatória não-degenerada tal que P(a ≤ X ≤ b) = 1. Mostre que a < EX < b. Solução. Por ser não-degenerada, P(X = a) < 1, donde a < b. Como a ≤ X ≤ b P-quase certamente, então {X < a ou X > b} é um evento de chance nula, donde segue que EX = ∫ XdP = ∫ {a≤X≤b} XdP. Como X é não-degenerada, segue que P(X = a) < 1 e P(X = b) < 1. Isto implica que existe n0 ∈ N tal que a + 1 n0 < b e P(a ≤ X < a + 1 n0 ) < 1. De fato, se para todo 11 n ∈ N fosse P(a ≤ X < a + 1 n ) = 1, como {a ≤ X < a + 1 n } ↓ {X = a}, deveria ser P(X = a) = limn→∞ P(a ≤ X < a+ 1 n ) = 1, um absurdo. Dáı, segue que EX = ∫ {a≤X≤b} XdP = ∫ {a≤X<a+ 1 n0 } XdP+ ∫ {a+ 1 n0 ≤X≤b} XdP Como P(a ≤ X < a+ 1 n0 ) < 1, então P(a+ 1 n0 ≤ X ≤ b)> 0. Também, temos que∫ {a≤X<a+ 1 n0 } XdP ≥ ∫ {a≤X< 1 n0 a dP = a · P(a ≤ X < a+ 1 n0 ), e analogamente∫ {a+ 1 n0 ≤X≤b} XdP ≥ (a+ 1 n0 ) · P(a+ 1 n0 ≤ X ≤ b) > a · P(a+ 1 n0 ≤ X ≤ b). Como {a ≤ X < a + 1 n0 } e {a + 1 n0 ≤ X ≤ b} formam uma partição de {a ≤ X ≤ b}, segue que EX > a. Analogamente se prova que EX < b. 6 Momentos e Desigualdades Exerćıcio 6.1. Calcule VarX, onde (a) X ∼ Geo(p); (b) X ∼ Poi(λ); (c) X ∼ Exp(λ); (d) X ∼ Laplace(a, b). Solução. (a) Calcularemos EX e EX2, quando X ∼ Geo(p). Começaremos com a esperança. Como P(X = k) = (1− p)k−1p, onde k ≥ 1. Portanto, EX = ∞∑ k=1 k(1− p)k−1p = p+ (1− p) · ∞∑ k=2 k(1− p)k−2p. Substituindo k por k + 1 no somatório da direita, obtemos que EX = p+ (1− p) · ∞∑ k=1 (k + 1)(1− p)k−1p = p+ (1− p) · [ ∞∑ k=1 k(1− p)k−1p+ ∞∑ k=1 (1− p)k−1p ] . 12 Agora note que o primeiro termo dentro do parêntesis é EX e o segundo é ∑∞ k=1 P(X = k) = 1. Dáı, segue que a esperança de X satisfaz a equação EX = p+ (1− p) · [EX + 1], o que implica que EX = 1 p . Prosseguindo, calcularemos EX2. Utilizaremos a mesma ideia, mas neste caso, quando fizermos a mudança de variável, queremos que a expressão fique em termos do primeiro e segundo momento. Comece observando que EX2 = ∞∑ k=1 k2(1− p)k−1p = p+ 4(1− p)p+ (1− p)2 · ∞∑ k=3 k2(1− p)k−3p. (6) Desenvolveremos, por agora, apenas o último somatório. Substituindo k por k + 2 nele, temos que ∞∑ k=1 (k + 2)2(1− p)k−1p = ∞∑ k=1 (k2 + 4k + 4)(1− p)k−1p = EX2 + 4EX + 4. Substituindo a igualdade acima na eq. (6), e substituindo EX = 1 p , obtemos que EX2 = p+ 4(1− p)p+ (1− p)2 · [EX2 + 4 p + 4]. Abrindo as contas, obtemos que (2p− p2)EX2 = p− 4 + 4 p = p2 − 4p+ 4 p = (2− p)2 p , e por fim obtemos que EX2 = (2− p)2 p2(2− p) = 2− p p2 . Pela Proposição 6.5, temos que VarX = EX2 − EX = 2− p p2 − 1 p2 = 1− p p2 , (7) o que termina este item. (b) Calcularemos EX e EX2, quando X ∼ Poi(λ). Como P(X = k) = λke−λ k! e P(X = 0) = e−λ, segue que EX = ∞∑ k=1 k λke−λ k! = λe−λ + λ ∞∑ k=2 λk−1e−λ (k − 1)! = λe−λ + λ ∞∑ k=1 λke−λ k! = λe−λ + λ(1− e−λ) = λ. 13 Por sua vez, observe que E[X2] = ∞∑ k=1 k2λ ne−λ k! = λe−λ + λ ∞∑ k=2 k λk−1e−λ (k − 1)! = λe−λ + λ ∞∑ k=1 (k + 1) λke−λ k! = λe−λ + λ(EX + (1− e−λ)) = λ2 + λ. Dáı, como VarX = E[X2]− (EX)2, temos que VarX = (λ2 + λ)− λ2 = λ, o que conclui este item. (c) Seja X ∼ Exp(λ). Sabemos que a densidade de X é dada pela função fX(x) = λe−λx 1(0,+∞)(x). Calcularemos EX e E[X2]. Eis a esperança EX = ∫ +∞ 0 xλe−λxdx. Integraremos por partes. Fazendo u = x e dv = λe−λx, temos que du = dx e v = −e−λx, temos que EX = −xe−λx ∣∣∣x=∞ x=0 − ∫ ∞ 0 −e−λxdx. Note agora que x = o(eλx), quando x → ∞, e portanto a primeira parcela do lado direito é 0. Quanto a segunda, temos que∫ ∞ 0 e−λxdx = −e−λx λ ∣∣∣x=∞ x=0 = 1 λ . Segue dáı que EX = 1 λ . Já o segundo momento é dado por E[X2] = ∫ ∞ 0 x2λe−λxdx. Integraremos mais uma vez por partes. Fazendo u = x2 e du = λeλxdx, temos que du = 2xdx e v = −e−λx, de onde segue que E[X2] = −x2e−λx ∣∣∣x=∞ x=0 + 2 λ ∫ ∞ 0 xλe−λxdx = 2 λ · EX = 2 λ2 , onde acima utilizamos que x2 = o(eλx) e multiplicamos por λ λ para obter uma expressão que é a esperança de X. Por fim, conclúımos que VarX = 2 λ2 − ( 1 λ )2 = 1 λ2 . 14 Exerćıcio 6.3. Sejam X ∼ U [0, 2π], Y = senX e Z = cosX variáveis aleatórias. Calcule Cov(Y, Z). As variáveis Y e Z são independentes? Solução. Calcularemos EY,EZ e E(Y Z), uma vez que Cov(Y, Z) = E(Y Z) − EY EZ. Utilizaremos o Teorema que diz que se g é cont́ınua por partes e X é absolutamente cont́ınua, então E[g(X)] = ∫ ∞ −∞ g(x)fX(x)dx. No nosso caso, fX(x) = 1 2π · 1([0, 2π])(x) e as funções serão g1(x) = senx, g2(x) = cosx e g3(x) = senx cosx. Calculando, temos que EY = ∫ 2π 0 senx 2π dx = 0 EZ = ∫ 2π 0 cosx 2π dx = 0 E(Y Z) = ∫ 2π 0 senx cosx 2π dx = 0, donde Cov(Y, Z) = 0. No entanto, Y e Z não são independentes, como teremos a oportu- nidade de ver. Comece notando que P(Y, Z ≥ 1 2 ) = P(X−1{x ∈ [0, 2π] : cos x ≥ 1 2 , senx ≥ 1 2 }) = P(X−1([π 6 , π 3 ])) = |[π 6 , π 3 ]| 2π = 1 12 . Por sua vez, P(Y ≥ 1 2 ) = P(X−1([π 6 , 5π 6 ])) = 1 3 . Analogamente, P(Z ≥ 1 2 ) = 1 3 , e portanto P(Y ≥ 1 2 ) · P(Z ≥ 1 2 ) = 1 9 ̸= 1 12 = P(Y ≥ 1 2 , Z ≥ 1 2 ), o que conclui a demonstração. Exerćıcio 6.5. Mostre que, se X é integrável, então o mı́nimo de E[(X − c)2] é atingido quando c = EX. Solução. Comece notando que E[(X − c)2] = E[X2] − 2cEX + c2. Note também que EX < +∞ por hipótese. Se for E[X2] = +∞, então todo ponto c é mı́nimo para a E[(X − c)2]. Suponha, portanto que E[X2] < +∞. Provaremos que c = EX é mı́nimo para E[(X − c)2]. Para tal, observe que c2 − 2cEX + E[X2] = 0, é uma parábola em c ∈ R, com vértice em c = EX. Note também que E[(X − c)2] ≥ 0. Logo, todo ponto c ̸= EX está acima do eixo x, e portanto c2 − 2cEX + E[X2] ≥ 0 para todo c ∈ R, o que conclui que c = EX é mı́nimo para E[(X − c)2]. 15 Exerćıcio 6.7. Seja X uma variável aleatória discreta com função de probabilidade P(X = n) = nλne−λ λn! , para n = 0, 1, 2, . . . Calcule Var(X). Solução. Primeiro provaremos que ∑∞ n=0 P(X = n) = 1. Para tal, observe que ∞∑ n=0 P(X = n) = ∞∑ n=0 nλne−λ λn! = ∞∑ n=1 nλne−λ λn! . Fazendo a substituição n 7→ m+ 1, e renomeando de volta para n, temos que ∞∑ n=0 P(X = n) = ∞∑ n=0 (n+ 1)λn+1e−λ λ(n+ 1)! = ∞∑ n=0 λne−λ n! = 1, uma vez que eλ = ∑∞ n=0 λ n/n!. Agora podemos calcular a esperança de X e o seu segundo momento, para calcular a variância. Começaremos calculando a esperança da variável aleatória X. Observe que EX = ∞∑ n=1 n nλne−λ λn! = 1 λ ∞∑ n=1 n2λ ne−λ n! . Seja Y ∼ Poi(λ). Então, para cada n ≥ 0, P(Y = n) = λne−λ/n!, donde o lado direito da última igualdade acima é o segundo momento de Y , que sabemos ser λ + λ2. Assim, temos que EX = 1 λ (λ+ λ2) = 1 + λ. Calcularemos agora o segundo momento de X. Observe que EX2 = ∞∑ n=1 n2 · λ n−1e−λ (n− 1)! = e−λ + ∞∑ n=2 n2 · λ n−1e−λ (n− 1)! . Fazendo uma substituição adequada, obtemos que EX2 = e−λ + ∞∑ n=1 (n+ 1)2 · λ ne−λ n! = e−λ + ∞∑ n=1 (n+ 1)2 · P(Y = n), 16 onde Y , relembramos, se distribui como uma variável aleatória Poisson com parâmetro λ. Como (n+ 1)2 = n2 + 2n+ 1, segue que EX2 = e−λ + EY 2 + 2EY + ∞∑ n=1 P(Y = n). Como Y assume valores em N∪{0}, temos que ∑∞ n=1 P(Y = n) = 1−P(Y = 0) = 1−e−λ. Também sabemos que EY = λ e EY 2 = λ+ λ2, e portanto EX2 = λ2 + 3λ+ 1. Uma vez que (EX)2 = λ2 + 2λ+ 1, segue que VarX = EX2 − (EX)2 = λ. Exerćıcio 6.9. Seja (X, Y ) um vetor aleatório com distribuição uniforme no ćırculo unitário C = {(x, y) ∈ R2 : x2 + y2 < 1}, isto é, com densidade conjunta fX,Y (x, y) = 1 π 1C(x, y). Calcule Cov(X, Y ). Solução. A covariância é a dada por Cov(X, Y ) = E[XY ] − EX · EY . Calcularemos por partes. Na primeira coordenada, note que −1 ≤ x ≤ 1, enquanto na segunda temos que − √ 1− x2 < y < √ 1− x2. Para evitar dependências desnecessárias, faremos uma mudança de variável para coordenadas polares. As funções marginais fR e fθ são dadas por fR(r) = 2r 1[0,1)(r) e fθ(α) = 1 2π 1[0,2π)(α), uma vez que a densidade conjunta é dada por fR,θ(r, α) = 1 π 1D(r, α), onde D = {(r, α) : r ∈ [0, 1), α ∈ [0, 2π)}. Assim, XY = (R cos θ)(R sen θ), donde E[XY ] = E[(R cos θ)(R sen θ)] = E[R2 cos θ sen θ] Calculando, temos que E[R2 cos θ sen θ] = 0, já que ∫ 2π 0 cosα senα dα = 0. Por sua vez, E[X] = E[R cos θ] = ∫ 2π 0 ∫ 1 0 r cosα · 1 π drdθ = 0. Isso é suficiente para provar que Cov(X, Y ) = 0. Exerćıcio 6.11. Sejam X e Y variáveis aleatórias independentes, ambas com distribuição Be(1 2 ). (a) Mostre que X + Y e |X − Y | são não-correlacionadas. (b) Elas são independentes? 17 Solução. (a) Mostraremos que Cov(X + Y, |X − Y |) = 0. Comece observando que |X − Y | ∼ Be(1 2 ). De fato, |X − Y | assumeapenas os valores 0 e 1. Para que |X − Y | seja 0, devemos ter X = 1 e Y = 1, ou X = 0 e Y = 0. Ou seja, {|X − Y | = 0} = {X = 0, Y = 0} ⊔ {X = 1, Y = 1}, e portanto temos que P(|X − Y | = 0) = P(X = 0, Y = 0) + P(X = 1, Y = 1) = P(X = 0) · P(Y = 0) + P(X = 1) · P(X = 1) = 1 2 · 1 2 + 1 2 · 1 2 = 1 2 , onde, acima, utilizamos que X e Y são independentes. Dáı, P(|X − Y | = 1) = 1 2 , e segue que |X − Y | tem distribuiçãpo Bernoulli com parâmetro 1 2 . Portanto E[|X − Y |] = 1 2 . Assim, por propriedades da covariância, temos que Cov(X + Y, |X − Y |) = Cov(X, |X − Y |) + Cov(Y, |X − Y |). Provaremos que Cov(X, |X−Y |) = 0, e de maneira análoga prova-se que Cov(Y, |X−Y |) = 0. Como |X − Y | ∼ Be(1 2 ), segue que Cov(X, |X − Y |) = E[X · |X − Y |]− E[X] · E[|X − Y |] = E[X · |X − Y |]− 1 4 . Para conclui o item, basta mostrar que E[X · |X − Y |] = 1 4 . Chamando g(X, Y ) = X · |X − Y |, temos que E[g(X, Y )] = 1∑ x=0 1∑ y=0 x · |x− y| · P(X = x, Y = y) = P(X = 1, Y = 0) = 1 4 , onde acima utilizamos que para x = 0 e para x, y = 1, temos que x · |x − y| = 0. O resultado segue. (b) Não. Basta observar que P(X + Y = 1, |X − Y | = 0) = 0, pois estes são eventos disjuntos. No entanto, ambos têm probabilidade positiva, e o resultado segue. Exerćıcio 6.13. Sejam X e Y variáveis aleatórias i.i.d. (a) Calcule ρ(X, 2X) e ρ(X,X + Y ). (b) Saberia explicar, sem fazer o cálculo do item anterior, por que os valores de ρ(X, 2X) e ρ(X,X + Y ) são iguais ou diferentes? 18 Solução. (a) Por propriedades do coeficiente de correlação, temos que ρ(X, 2X) = 2 |2|ρ(X,X) = 1. Por sua vez, por serem X e Y i.i.d. temos que σ(X +Y ) = σ(X)+σ(Y ) = √ 2σ(X). Dáı, ρ(X,X + Y ) = 1 2σ(X)2 · Cov(X − EX,X + Y − E[X + Y ]) = 1√ 2VarX · [Cov(X − EX,X − EX) + Cov(X − EX, Y − EY )] = 1√ 2VarX · [VarX + Cov(X, Y )] = 1√ 2VarX · [VarX + E[XY ]− EX · EY ] = 1√ 2 . (b) Sim. Basta se atentar ao fato que Cov(X,X) = VarX, enquanto que Cov(X, Y ) = 0 se X e Y são independentes. No entanto, para a definição do coeficiente de correlação, sempre estamos supondo 0 < VarX,VarY < +∞. Dáı, os resultados serão diferentes. Exerćıcio 6.15. Prove que E[|X|] ≤ √ E[X2] sem usar as desigualdades de Jensen e Lyapunov. Solução. Se X não tem segundo momento finito, então E[X2] = +∞, e a desigualdade segue trivialmente. Se X tem segundo momento finito, chamando Y = 1, temos que E[Y 2] = 1 < +∞, e pela Desigualdade de Cauchy-Schwarz segue que E[|X|] = E[|X · Y |] ≤ √ E[X2] √ E[Y 2] = √ E[X2], o que mostra o resultado. Exerćıcio 6.17. Considere uma sequência de variáveis aleatórias X1, X2, X3, . . . i.i.d. com distribuição Be(p). Encontre um número n para o qual a média observada, dada por X̃n = 1 n n∑ j=1 Xj, não difira da média p por mais de 0, 01, com probabilidade mı́nima de 0, 95. 19 Solução. Queremos encontrar um número natural n para o qual vale P(|E[X̃n]− p| < 0, 01) ≥ 0, 95. A priori, isto não tem cara de nenhuma desigualdade. Mas decompondo Ω = {|E[X̃n]− p| < 0, 01} ⊔ {|E[X̃n]− p| ≥ 0, 01}, isso é equivalente a provar que 1− P(|E[X̃n]− p| ≥ 0, 01) ≥ 0, 95, e portanto basta provar que P(|E[X̃n]− p| ≥ 0, 01) ≤ 0, 05. Utilizaremos a desigualdade de Markov. Ela nos dá que P(|E[X̃n]− p| ≥ 0, 01) ≤ E[|X̃n − p|] 0, 01 . Então é suficiente encontrar n de tal modo que E[|X̃n−p|] ≤ 0, 01 ·0, 05 = 0, 0005. Como a sequência de variáveis aleatórias (Xj)j é i.i.d. com distribuição Bernoulli p, então ∑n j=1Xj tem distribuição binomial com parâmetros n, p. Além do mais, chamando Yn = ∑n j=1 Xj, temos que E[|X̃n − p|] = 1 n · E[|Yn − np|] = 1 n · E[|Yn − E[Yn]|] Pela desigualdade de Cauchy-Schwarz, segue que E[|X̃n − p|] ≤ 1 n √ E[(Yn − EYn)2] = 1 n √ Var(Yn) = 1 n √ np(1− p), e portanto segue que E[|X̃n− p|] ≤ 1√ n √ p(1− p). Para resolver a questão, basta portanto encontrar n tal que 1√ n ≤ 0, 0005√ p(1− p) , e portanto basta tomar n = ⌈ p(1− p) 0, 00052 ⌉ . Exerćıcio 6.19. Se X ≥ 0 quase certamente, então P(X = 0) ≤ VarX E[X2] ≤ VarX (EX)2 . 20 Solução. A última desigualdade segue do fato de ser E[X2] ≥ (EX)2. Utilizaremos a Desigualdade de Paley-Zigmundo para a = 0 para provar que P(X = 0) ≤ VarX E[X2] . Como, por hipótese, temos P(X ≥ 0) = 1, e a Desigualdade de Paley-Zigmund para a = 0 nos diz que P(X > 0) ≥ (EX)2/E[X2], temos que P(X = 0) = 1− P(X > 0) ≤ 1− (EX)2 E[X2] = E[X2]− (EX)2 E[X2] = VarX E[X2] , como queŕıamos demonstrar. O resultado segue. Exerćıcio 6.20. Sejam X e Y variáveis aleatórias. Prove que [FX,Y (x, y)] 2 ≤ FX(x)FY (y) para todos x, y ∈ R. Solução. Provaremos algo mais geral utilizando o Exerćıcio 16 do Caṕıtulo 1, que diz que P(A ∪ B) · P(A ∩ B) ≤ P(A) · P(B), quaisquer que sejam os eventos A e B. Afirmamos que P(A ∩ B)2 ≤ P(A) · P(B) para quaisquer eventos A e B. O resultado segue tomando A = {X ≤ x} e B = {Y ≤ y}. A prova da afirmação, no entanto, é imediata. Basta observar que P(A ∪B) ≥ P(A ∩B), e o resultado segue. Depois de tudo Dedicarei este espaço para escrever algumas coisas que julguei legais enquanto estudava. Proposição 1 (Relação da Beta com a Gama). Sejam a, b > 0 e defina B(a, b) = ∫ 1 0 xa−1(1− x)b−1dx. Então B(a, b) = Γ(a)Γ(b) Γ(a+ b) , onde Γ é a função gama. Demonstração. Para provar a proposição, desenvolveremos Γ(a)Γ(b) e faremos uma mu- dança de variáveis. Comece notando que Γ(a)Γ(b) = ∫ ∞ 0 e−xxa−1dx · ∫ ∞ 0 e−yyb−1dy = ∫ ∞ 0 ∫ ∞ 0 e−x−yxa−1yb−1dxdy. Fazendo a mudança de variáveis x = st e y = s − st, temos que x + y = s, e portanto s varia ainda de 0 a +∞, mas t = (y − s)/s = x/(x+ y), e como x e y são positivos, segue 21 que 0 < t < 1. Além do mais, o determinante do jacobiano da transformação é s. Assim, temos que Γ(a)Γ(b) = ∫ ∞ 0 ∫ 1 0 e−s(st)a−1(s(1− t))b−1s dtds = ∫ ∞ 0 ∫ 1 0 e−ssata−1sb−1(1− t)b−1dtds = ∫ ∞ 0 e−ssa+b−1ds · ∫ 1 0 ta−1(1− t)b−1dt = Γ(a+ b) ·B(a, b), o que conclui a demonstração. A proposição abaixo só serve para a variável aleatória geométrica, mas eu me dei conta disso tarde demais. Proposição 2. Seja X uma variável aleatória discreta tomando valores nos inteiros po- sitivos e seja f(n) = P(X = n). Se existe α ̸= 1 constante para o qual f(n) = αf(n− 1) para todo n ≥ 1, então EX = f(1)+α 1−α . Em particular, X é integrável. Demonstração. Comece observando que EX = ∞∑ n=1 nf(n) = f(1) + ∞∑ n=2 nf(n) = f(1) + α · ∞∑ n=2 nf(n− 1). Aplicando a mudança de variável n 7→ m+ 1 e rerotulando de volta para n, temos que EX = f(1) + α · ∞∑ n=1 (n+ 1)f(n) = f(1) + α · (EX + 1). Resolvendo a equação em EX, o resultado segue. Proposição 3. Sob as mesmas hipóteses da proposition 2, exceto por X assumir valores não-negativos, temos EX = f(1)+α·(1−f(0)) 1−α . Demonstração. Os cálculos são idênticos aos da proposition 2. Corolário 1. Sob as mesmas hipóteses da proposition 3, E[Xn] é integrável para todo n ≥ 1 natural e E[Xn] é um polinômio de grau 1 em f(0), f(1), . . . , f(n). 22 Vetores aleatórios Esperança Matemática Momentos e Desigualdades