Prévia do material em texto
1 MAE 5834 - Estat́ıstica Avançada I Lista de Exerćıcios 4 – 2o semestre de 2020 – Prof. Silvia L.P. Ferrari 1. Suponha que, dado θ, X1, . . . , Xn sejam variáveis aleatórias independentes e identicamente distribúıdas tais que Xi|θ ∼ U(0, θ). Considere a seguinte distribuição a priori para θ: 1/θ ∼ Gama(a, b), com a, b > 0 conhecidos.1 (a) Mostre que o estimador de Bayes de θ sob perda quadrática é dado por θ̂(X(n)) com X(n) = max(X1, . . . , Xn) e θ̂(y) = ∫∞ y θ 1 θn+a+1 exp{−1/(θb)}dθ∫∞ y 1 θn+a+1 exp{−1/(θb)}dθ . (b) Mostre que θ̂(y) pode ser expresso como θ̂(y) = 1 b(n+ a− 1) P[χ22(n+a−1) < 2/(by)] P[χ22(n+a) < 2/(by)] . 2. Seja (X1, . . . , Xn) uma uma amostra aleatória de X, que tem distribuição geométrica com função de probabilidade f(x|θ) = θx(1− θ), x = 0, 1, . . . ; θ ∈ [0, 1]. Considere o problema de estimar θ. Obtenha (i) o estimador de máxima verossimilhança; (ii) o estimador do método dos momentos e (iii) o estimador de Bayes com respeito à perda quadrática tomando uma distribuição a priori uniforme no intervalo unitário. 3. Prove ou dê contra-exemplo. (a) Se um estimador minimax é único, então ele é admisśıvel. (b) Um estimador minimax não pode ser não viciado. (c) Se um estimador tem risco constante e é admisśıvel, ele é minimax. (d) Se um estimador equivariante por localização de risco ḿınimo é admisśıvel, ele é minimax. 4. Suponha que, dado θ, X1, . . . , Xn (n ≥ 1) sejam variáveis aleatórias independentes e identi- camente distribúıdas com densidade f(x|θ) = exp(θ−x), x > θ. Considere que a distribuição a priori para θ é exponencial padrão. Encontre a densidade a posteriori de θ e o estimador de Bayes de θ sob perda quadrática. 5. Suponha que, dado θ (θ > 0), X1, . . . , Xn sejam variáveis aleatórias independentes e iden- ticamente distribúıdas com distribuição U(0, θ), θ > 0. Considere uma distribuição a priori Pareto(α, γ) para θ com densidade p(θ) = αγα θα+1 , 0 < γ < θ, α > 0. Encontre o estimador de Bayes de θ sob perda quadrática. 1Se Y ∼ Gama(a, b), sua fdp é {baΓ(a)}−1ya−1 exp{−y/b}, y > 0. 2 6. Admita que, dado θ, X1, . . . , Xn sejam i.i.d. e tenham distribuição de potência com função densidade de probabilidade f(x|θ) = θxθ−1I(0,1)(x); θ > 0. Suponha que, a priori, θ tem distribuição exponencial de parâmetro γ e função densidade de probabilidade p(θ) = γ exp(−θγ)I(0,+∞)(θ), sendo γ > 0 conhecido. Encontre o estimador de Bayes de θ sob perda quadrática. 7. Seja X = (X1, . . . , Xn) um vetor de n variáveis aleatórias independentes e identicamente distribúıdas segundo uma distribuição N(0, σ2). Considere o problema de estimar σ2 com a função de perda L(σ2, d) = (d/σ2 − 1)2 = (d− σ2)2/σ4. Considere uma distribuição a priori Gama(a, b) para θ = 1/(2σ2) com densidade π(θ) = 1 Γ(a)ba θa−1 exp { −θ b } ; a > 0, b > 0. (a) Encontre o estimador de Bayes de σ2. (b) Mostre que o estimador minimax de σ2 é ∑n i=1X 2 i /(n+ 2). 8. Seja X uma única observação de uma distribuição N(θ, 1) e considere a seguinte densidade a priori imprópria para θ: π(θ) = exp{θ}. Considere perda quadrática. Encontre o estimador de Bayes generalizado de θ e mostre que não é nem admisśıvel nem minimax. 9. Sejam X1, . . . , Xn uma amostra aleatória de uma distribuição de Poisson de média λ. Mostre que X = ∑n i=1Xi/n é estimador minimax de λ sob perda L(λ, d) = (d − λ)2/λ. Sugestão: Considere uma distribuição a priori Gama(a, b) para λ, com a = 1. Use resultados que relacionam estimador de Bayes e minimax, e faça b→∞. 10. Seja X = (X1, . . . , Xn) uma amostra aleatória da densidade f(x; θ) = a(θ)h(x), θ1 ≤ x ≤ θ2, onde h(x) > 0, θ = (θ1, θ2), −∞ < θ1 < θ2 <∞ e a(θ) = ( ∫ θ2 θ1 h(x)dx)−1 é finita. Encontre uma estat́ıstica suficiente (T1(X), T2(X)) bi-dimensional para θ. 11. Seja X uma única observação de uma distribuição U(0, θ) e considere a seguinte densidade a priori para θ: π(θ) = 1/(1 + θ)2, θ > 0. (a) Mostre que a densidade marginal de X é q(x) = log[(1 + x)/x]− 1/(1 + x), x > 0. (b) Mostre que o estimador de Bayes (δ(X)) de θ sob perda L(θ, d) = |d− θ| é solução de q(δ(X)) = q(X)/2. 12. Dizemos que X tem distribuição binomial negativa com parâmetros p e m (0 < p < 1, m inteiro positivo) se sua função de probabilidade é Pp,m(X = x) = ( m+ x− 1 m− 1 ) pm(1− p)x, x = 0, 1, . . . e escrevemos X ∼ BN(p,m). Seja (X1, . . . , Xn) uma amostra aleatória de X ∼ BN(p,m) e admita que m é conhecido. Considere uma distribuição a priori Beta(α, β) para p. Encontre o estimador de Bayes de p sob perda quadrática. 3 13. Seja X única observação de uma variável aleatória com densidade f(x; θ) = 2x/θ2, 0 < x < θ; θ > 0. Considere para θ uma distribuição uniforme no intervalo unitário. (a) Obtenha a função densidade de probabilidade a posteriori de θ. (b) Encontre o estimador de Bayes com respeito à perda θ2(d− θ)2. 14. Seja θ̂ um estimador não viciado de um parâmetro θ ∈ R. Seja R(θ, θ̃) o risco do estimador θ̃ de θ. (a) Sob perda quadrática, mostre que o estimador θ̂ + c, em que c 6= 0 é uma constante conhecida, não é estimador minimax de θ, a menos que supθR(θ, θ̃) = ∞ para todo estimador θ̃ de θ. (b) Sob perda quadrática, mostre que o estimador cθ̂, em que c ∈ (0, 1) é uma constante conhecida, não é estimador minimax de θ, a menos que supθR(θ, θ̃) = ∞ para todo estimador θ̃ de θ. (c) Considere a função de perda L(θ, d) = (d − θ)2/θ2, assumindo que θ 6= 0. Mostre que o estimador θ̂ não é estimador minimax de θ, a menos que supθR(θ, θ̃) = ∞ para todo estimador θ̃ de θ. Sugestão: Obtenha o risco de cθ̂ com c = 1/(1 + ζ), em que ζ = supθR(θ, θ̂), e compare com o risco de θ̂. 15. Sejam X e Y variáveis aleatórias independentes com distribuições Pζ e Qη respectivamente. Suponha que ζ e η são consideradas variáveis aleatórias independentes, reais, com distribuições Λ e Λ′ respectivamente. Se, com perda quadrática, δΛ é o estimador de Bayes de ζ com base em X e δΛ′ é o estimador de Bayes de η com base em Y , (a) mostre que δΛ′ − δΛ é o estimador de Bayes de η − ζ com base em (X,Y ). (b) Se η > 0 e δ∗Λ′ é o estimador de Bayes de 1/η com base em Y , mostre que δΛ · δ∗Λ′ é o estimador de Bayes de ζ/η com base em (X,Y ). 16. Seja X uma variável aleatória representando o tempo de vida de um sistema eletrônico, com função distribuição acumulada Fθ(x), θ ∈ Ω. Defina a confiabilidade do sistema por Rθ(τ) = Pθ(X > τ) = 1− Fθ(τ), τ > 0. Considere n observações independentes X1, . . . , Xn de X. Admita que, dado θ, X tem distri- buição exponencial de parâmetro θ e função densidade de probabilidade f(x; θ) = θ exp(−θx), x > 0; θ > 0. (a) Mostre que, neste caso, Rθ(τ) = exp{−τθ}. (b) Encontre o estimador de máxima verossimilhança de Rθ(τ). (c) Encontre o ENVVUM de Rθ(τ). (d) Mostre que o estimador de Bayes de Rθ(τ) sob perda quadrática e função densidade a priori para θ π(θ) = 1 γνΓ(ν) θν−1 exp(−θ/γ), θ > 0, é dado por ( 1 + τ∑n i=1Xi + 1/γ )−(n+ν) . 4 17. Suponha que X tenha distribuição binomial b(θ, n). Considere uma distribuição a priori Beta(a, b) com a = b = 0 (priori imprópria) e a perda quadrática. Considere estimadores δ que satisfazem δ(0) = 0 e δ(n) = 1. Mostre que o risco a posteriori é minimizado em δ(x) = x/n. [Ver Exemplo 2.8, p. 238-239, TPE]. 18. Suponha que, dados θ e σ2, X1, . . . , Xn sejam variáveis aleatórias independentes com dis- tribuição N(θ, σ2). Admita que, a priori, τ = 1/(2σ2) tem distribuição Gama(g, 1/α) e θ, independente de τ , tem distribuição uniforme (imprópria) na reta. (a) Mostre que a densidade conjunta a posteriori é proporcional a τ r+g−1e−τ [α+z+n(x̄−θ) 2] onde z = ∑ (xi − x̄)2 e r = n/2. (b) Mostre que distribuição a posteriori de τ é Gama(r + g − 1/2, 1/(α+ z)). (c) Mostre que se α = g = 0, o estimador de Bayes (generalizado) de σ2 é Z/(n − 3) para perda quadrática. Para a perda (d− σ2)2/σ4, este estimadoré Z/(n+ 1). (d) Mostre que a densidade a posteriori de θ é simétrica em relação a X e que o estimador de Bayes (generalizado) é X. 19. Suponha que X tem distribuição b(p, n) e considere o problema de estimar p com perda (d− p)2/[(p(1− p)]. Obtenha o estimador minimax. 20. Seja X = (X1, . . . , Xn) um vetor de variáveis aleatórias independentes e identicamente dis- tribúıdas com distribuição de Bernoulli(p). Considere o problema de estimar p com perda quadrática. Mostre que X = ∑n i=1Xi/n não é estimador mininax de p comparando seu risco com o do estimador aleatorizado T (X) que é igual a X com probabilidade n/(n + 1) e 1/2 com probabilidade 1/(n+ 1). 21. Sejam X1, . . . , Xm e Y1, . . . , Yn amostras aleatórias independentes das distribuições N(µx, σ 2 x) e N(µy, σ 2 y), respectivamente; aqui µx ∈ R, µy ∈ R, σ2x > 0 e σ2y > 0. Considere o problema de estimar ∆ = µy − µx sob perda quadrática. (a) Mostre que Y − X é estimador minimax de ∆ quando σx e σy são conhecidos; X = m−1 ∑m i=1Xi e Y = n −1∑n i=1 Yi. (b) Mostre que Y − X é estimador minimax de ∆ quando σ2x ≤ Mx e σ2y ≤ My, sendo Mx > 0 e My > 0 constantes conhecidas. Sugestão: Use o seguinte resultado: Se, dado ξ, Z1, . . . , Zn são independentes e têm distri- buição N(ξ, σ2), e se a distribuição a priori para ξ é N(ζ, b2), então a distribuição a posteriori de ξ, dado que Z1 = z1, . . . , Zn = zn, é normal de média (nz/σ 2 + ζ/b2)/(n/σ2 + 1/b2) e variância (n/σ2 + 1/b2)−1, onde z = ∑n i=1 zi/n. 22. Prove: Seja δ um estimador de Bayes (respectivamente NVVUM, minimax, admisśıvel) de g(θ) sob perda quadrática. Então, aδ+b é um estimador de Bayes (respectivamente NVVUM, minimax, admisśıvel) de ag(θ) + b. Aqui, a e b são números reais.