Baixe o app para aproveitar ainda mais
Prévia do material em texto
1 MAE 5834 - Estat́ıstica Avançada I Lista de Exerćıcios 3 – 2o semestre de 2020 – Prof. Silvia L.P. Ferrari 1. Dizemos que a variável aleatória discreta X tem distribuição de Bell de parâmetro θ > 0 se sua função de probabilidade é dada por Pθ(X = x) = θx e−e θ+1Bx x! , x = 0, 1, 2, . . . , em que Bx, x = 0, 1, . . . , são os números de Bell, que são dados pelos coeficientes da expansão exp(ex − 1) = ∞∑ n=0 Bn n! xn, x ∈ R. Sejam X1, . . . , Xn réplicas independentes de X. Use propriedades de faḿılias exponenciais para resolver os itens abaixo. (a) Mostre que Eθ(X) = θ exp(θ) e Var(X) = θ(1 + θ) exp(θ). Mostre que, portanto, a distri- buição de Bell de parâmetro θ tem ı́ndice de dispersão Dθ = Varθ(X)/Eθ(X) maior que o da distribuição de Poisson de parâmetro θ. (b) Encontre a informação de Fisher para θ. (c) Obtenha o estimador não viciado de variância uniformemente ḿınima de Eθ(X), obtenha sua variância e mostre que coincide com o correspondente limite inferior de Cramér-Rao. 2. Sejam X1, . . . , Xn observações independentes de uma distribuição geométrica de parâmetro θ (0 < θ < 1) com função de probabilidade Pθ(X = x) = θ(1− θ)x, x = 0, 1, 2, . . . ; Eθ(X) = (1− θ)/θ e varθ(X) = (1− θ)/θ2. Encontre o limite inferior de Cramér-Rao (LICR) para variância de estimadores não viesados de Eθ(X) e mostre que coincide com a variância de X = ∑n i=1Xi/n. 3. Suponha que X ∼ Poisson(λ), λ > 0, e que Y |X = x ∼ Poisson(xλ). Considere o problema de estimar λ com base em (X,Y ). (a) Mostre que (X,Y ) é uma estat́ıstica suficiente minimal para λ, mas não é completa. (b) Obtenha o limite inferior de Cramér-Rao para a variância de estimadores não viciados de λ e compare com a variância de X, que é um estimador não viciado de λ. (c) Encontre o estimador de máxima verossimilhança de λ e obtenha seu viés. 4. Seja X uma variável aleatória com distribuição geométrica e função de probabilidade Pθ(X = x) = θ(1 − θ)x, x = 0, 1, . . . . Qual é a menor variância posśıvel para um estimador não viciado de θ (baseado em uma única observação)? Compare essa variância com o limite inferior de Cramér-Rao. 5. Considere a distribuição exponencial de média λ e fdp f(x;λ) = (1/λ) exp(−x/λ), para x > 0 e =0, caso contrário. Encontre uma função de λ que define uma nova parametrização θ = h(λ) de tal forma que a informação de Fisher seja constante. 2 6. Sejam X1, . . . , Xn variáveis aleatórias independentes e identicamente distribúıdas de acordo com uma distribuição de Pareto P(a, c) com densidade f(x) = aca xa+1 , 0 < c ≤ x, a > 0. (a) Encontre o estimador de máxima verossimilhança (EMV) para c quando a é conhecido e o de a quando c é conhecido. (b) Encontre o EMV (â, ĉ) para (a, c) quando a e c são desconhecidos. (c) Mostre que â e ĉ são independentes, ĉ ∼ P(na, c) e 2na/â ∼ χ22(n−1). Sugestão: Mostre que se Xi ∼ P(a, c), então, Vi = a(logXi − log c) ∼ E(0, 1). Considere as variáveis aleatórias (n− i+ 1)[V(i) − V(i−1)], para i = 2, . . . , n. (d) Encontre o viés de ĉ. Comente. 7. Suponha que X1, . . . , Xn sejam variáveis aleatórias iid com distribuição U(0, θ), θ > 0. (a) Mostre que d dθ ∫ θ 0 xfθ(x)dx 6= ∫ θ 0 x d dθ fθ(x)dx, em que fθ é a densidade de X(n), a maior estat́ıstica de ordem. (b) Mostre que a desigualdade da informação não vale para o ENVVUM de θ. 8. Suponha que X1, . . . , Xn sejam variáveis aleatórias iid com distribuição N(ζ, 1) com ζ > 0. Mostre que a estimativa de máxima verossimilhança de ζ é a média amostral quando esta é positiva e não existe quando é negativa. 9. Seja X variável aleatória tomando os valores 0 e 1 com probabilidades 1 − p e p respectivamente; 1/3 ≤ p ≤ 2/3. (a) Encontre o EMV de p. (b) Mostre que o erro quadrático médio do EMV é uniformemente maior do que o de δ(X) = 1/2. 10. Suponha que X seja uma variável aleatória com distribuição binomial de parâmetros p e n sendo n um inteiro positivo (fixado) e p um parâmetro desconhecido, 1/3 < p < 2/3. Discuta o problema de estimação por máxima verossimilhança de p. 11. Provar a Desigualdade da Informação no caso uniparamétrico (Teorema 5.10, TPE). 12. Mostre que se E(δ) = g(θ) e var(δ) atinge o limite da desigualdade da informação, então, δ(x) = g(θ)± g ′(θ) I(θ) ∂ ∂θ log pθ(x). 13. Sejam X1, . . . , Xn variáveis aleatórias independentes com distribuição de Bernoulli com parâmetro θ ∈ (0, 1). (a) Encontre o ENVVUM de g(θ) = Pθ(X1 + . . .+Xm = k), onde m e k são fixados, 0 < m < n, 0 ≤ k ≤ m. (b) Encontre o limite inferior de Cramér-Rao para a variância de estimadores não viciados de g(θ) = Pθ(X1 + . . .+Xm = k), 3 14. Seja F a classe das densidades de parâmetro θ (θ > 0) com média 1/θ e variância 1/θ2 e que satisfazem as condições para a validade da desigualdade da informação. (a) Mostre que uma densidade que minimiza a informação de Fisher para θ na classe F é f(x; θ) = θe−θxI(0,∞)(x). Sugestão: use a desigualdade da informação. (b) Considere a distribuição N(1/θ, 1/θ2) e encontre o LICR (limite inferior de Cramér-Rao para variâncias de estimadores não viciados de g(θ)). Compare-o com o correspondente LICR para a distribuição exponencial. 15. Sejam X1, . . . , Xn uma amostra aleatória de uma distribuição N(µ, σ 2). (a) Encontre a matriz de informação (total) para (µ, σ2). Mostre que os parâmetros µ e σ2 são globalmente ortogonais no sentido de que os elementos de fora da diagonal principal dessa matriz são nulos. (b) Obtenha a matriz de covariância de (Xn, S 2 n), onde Xn = ∑n i=1Xi/n e S 2 n = ∑n i=1(Xi − X̄n) 2/(n− 1), e compare com o limite da desigualdade da informação. 16. Considere uma faḿılia de escala com densidade (1/θ)f(x/θ), x ∈ (−∞,∞); θ > 0. (a) Faça suposições adequadas e mostre que a quantidade de informação que uma única observação X contém sobre θ é 1 θ2 ∫ [ xf ′(x) f(x) + 1 ]2 f(x)dx e que a informação que X contém sobre ζ = log θ é independente de θ. (b) Encontre a informação que X contém sobre θ e ζ = log θ se f(x) = exp(−x) (distribuição exponencial). 17. Sejam Y1, . . . , Yn variáveis aleatórias independentes tais que Yi ∼ Poisson(exp{α + xiβ}), i = 1, . . . , n, onde α ∈ IR e β ∈ IR são parâmetros desconhecidos, xi são constantes conhecidas, não todas nulas e não todas iguais. Obtenha a matriz de informação (total) de Fisher para (α, β) e o limite inferior de Cramér-Rao para estimadores não viciados de α e de β. 18. Seja (X1, . . . , Xn) uma amostra casual simples de X ∼ Poisson(θ), θ ∈ [0,+∞). (a) Encontre o estimador de máxima verossimilhança de exp(−3θ). (b) Faça n = 1 na parte (a). Encontre a variância do estimador e compare-a com o limite inferior de Cramér-Rao. (c) Compare o estimador obtido em (b) com o ENVVUM. Qual dos dois você recomenda? Justifi- que. 19. Seja (X1, . . . , Xn) uma amostra casual simples de X ∼ N(ζ, σ2). Seja θ = (ζ, σ2). (a) Mostre que o ENVVUM e o EMV de ζ2 são, respectivamente, δ1n = X 2 − S2/n e δ2n = X 2 , onde X = n−1 ∑n i=1Xi e S 2 = (n− 1)−1 ∑n i=1(Xi −X)2. (b) Obtenha o viés do EMV e mostre que este pode ser escrito como B(θ)/n, onde B(θ) não depende de n. 20. Sejam X1, . . . , Xn variáveis aleatórias iid com densidade na faḿılia exponencial unidimensional como definida na Lista 1. 4 (a) Mostre que a equação de verossimilhança se reduz a Eη[T (Xj)] = n −1∑n i=1 T (Xi). (b) Mostre que a equação acima tem, no máximo, uma solução. 21. Seja (X1, . . . , Xn) uma amostra casual simples de uma distribuição de Weibull com densidade f(x; θ) = θxθ−1 exp{−xθ}, x > 0, θ > 0. Obtenha a equação de verossimilhança e mostre que esta tem uma única solução. 22. Sejam X1, . . . , Xn observações independentes de X, que tem distribuição seminormal com função densidade de probabilidade f(x; ξ) = ( 2 π )1/2 exp { −(x− ξ) 2 2 } I[ξ,+∞)(x); ξ ∈ R. (a) Obtenha uma estat́ısticasuficiente minimal para ξ. (b) Esboce a função de verossimilhança. Encontre o estimador de máxima verossimilhança de ξ. (c) Encontre o estimador ERM (equivariante por localição de risco ḿınimo) de ξ sob perda quadrática. 23. Mostre que uma função u satisfaz u(x1 + a, . . . , xn + a) = u(x1, . . . , xn), (1) para todo (x1, . . . , xn) e todo a, se e somente se é uma função das diferenças yi = xi − xn, para i = 1, . . . , n− 1, se n ≥ 2; se n = 1, se e somente se é uma constante. 24. Suponha que X e Y são variáveis aleatórias independentes com X ∼ N(θ, 1) e Y com densidade exp{−(y − θ)}, para y > θ e = 0, caso contrário. Determine o estimador equivariante de risco ḿınimo de θ baseado em (X,Y ) sob perda quadrática. 25. Seja X = (X1, . . . , Xn) uma amostra aleatória de uma distribuição exponencial truncada e função densidade de probabilidade p(x; ξ) = e−(x−ξ)/b b(1− e−1/b) , x ∈ [ξ, ξ + 1];−∞ < ξ < +∞, em que b > 0 é conhecido. (a) Encontre o estimador de máxima verossimilhança δ(X) de ξ e verifique que é equivariante por localização. (b) Obtenha o estimador de Pitman de ξ (estimador equivariante por localização de risco ḿınimo sob perda quadrática). Verifique que, de fato, o estimador que encontrou é equivariante por localização. 26. Seja X = (X1, . . . , Xn) com função densidade de probabilidade fX(x; τ) = 1 τn f (x1 τ , . . . , xn τ ) , x = (x1, . . . , xn) ∈ Rn; τ > 0, em que f é conhecida e τ é um parâmetro de escala desconhecido. Considere o problema de estimar τ r, r ≥ 1, inteiro. Dizemos que um estimador δ(X), tal que δ(x) > 0 para todo x ∈ Rn, é equivariante por escala se δ(bx) = brδ(x), para todo b > 0 e todo x ∈ Rn . Considere a função de perda L(τ, d) = [(d− τ r)/τ r]2. 5 (a) Mostre que o risco R(τ, δ(X)) de qualquer estimador equivariante por escala δ(X) é constante. (b) Seja δ0(X) um estimador equivariante por escala. Mostre que um estimador δ(X) é equivariante por escala se e somente se δ(x) = δ0(x)/v(x), em que v(x) é tal que v(cx) = v(x) > 0, para todo c > 0 e todo x ∈ Rn. (2) Mostre ainda que, se xn 6= 0 e n > 1, uma condição necessária e suficiente para que v(x) sa- tisfaça (2) é que exista uma função w(y) tal que v(x) = w(y) em que y = (x1/|xn|, . . . , xn/|xn|). (c) Seja δ0(X) um estimador equivariante de risco finito. Mostre que o estimador equivariante de risco ḿınimo de τ r é dado por δ∗(X) = δ0(X) E1[δ0(X)|Y] E1[δ20(X)|Y] , em que Y = (X1/|Xn|, . . . , Xn/|Xn|). (d) Considere a situação em que (X1, . . . , Xn) é uma amostra aleatória da distribuição N(0, τ 2), τ > 0. Encontre o estimador equivariante de risco ḿınimo de τ2. Sugestão: usar o Teorema de Basu. 27. Seja X = (X1, . . . , Xn) com função densidade de probabilidade conjunta fX(x; τ) = 1 τn f (x1 τ , . . . , xn τ ) , x = (x1, . . . , xn) ∈ Rn; τ > 0, em que f é conhecida e τ é um parâmetro de escala desconhecido. Considere o problema de estimar τ r, r ≥ 1, inteiro. Dizemos que um estimador δ(X) é equivariante por escala se δ(bX) = brδ(X), para todo b > 0. Pode-se mostrar que o estimador de Pitman de τ r, dado por δ∗(X) sendo δ∗(x) = ∫∞ 0 v n+r−1f(vx1, . . . , vxn)dv∫∞ 0 v n+2r−1f(vx1, . . . , vxn)dv , é um estimador equivariante por escala de risco ḿınimo sob perda [(d− τ r)/τ r]2. (a) Mostre que, de fato, o estimador δ∗(X) é equivariante por escala. (b) Obtenha o estimador δ∗(X) de τ r para a situação em que X é uma amostra aleatória da distribuição exponencial de média τ > 0. (c) No contexto do item (b), encontre o estimador não viesado de risco ḿınimo de τ r considerando a perda dada acima. 28. Sejam X1, . . . , Xn réplicas independentes de X, que tem função densidade de probabilidade pθ(x) = 2x θ2 , 0 ≤ x ≤ θ; θ > 0. (a) Mostre que X(n) = max(X1, . . . , Xn) é uma estat́ıstica suficiente completa. (b) Obtenha o estimador não viciado de variância uniformemente ḿınima de g(θ) se g(θ) é dife- renciável e θ2ng(θ)→ 0 quando θ → 0. Particularize para o caso em que g(θ) = θr, r ≥ 1. (c) Obtenha o estimador de máxima verossimilhança de g(θ). Particularize para o caso em que g(θ) = θr, r ≥ 1. (d) Mostre que a classe de posśıveis distribuições de X é uma faḿılia de escala. Obtenha um estimador equivariante por escala de risco ḿınimo para g(θ) = θr, r ≥ 1, sob perda L(θ, d) = [(d− θr)/θr]2.
Compartilhar