Buscar

MAE5834_Lista3_2020

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 5 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

1
MAE 5834 - Estat́ıstica Avançada I
Lista de Exerćıcios 3 – 2o semestre de 2020 – Prof. Silvia L.P. Ferrari
1. Dizemos que a variável aleatória discreta X tem distribuição de Bell de parâmetro θ > 0 se sua
função de probabilidade é dada por
Pθ(X = x) =
θx e−e
θ+1Bx
x!
, x = 0, 1, 2, . . . ,
em que Bx, x = 0, 1, . . . , são os números de Bell, que são dados pelos coeficientes da expansão
exp(ex − 1) =
∞∑
n=0
Bn
n!
xn, x ∈ R.
Sejam X1, . . . , Xn réplicas independentes de X. Use propriedades de faḿılias exponenciais para
resolver os itens abaixo.
(a) Mostre que Eθ(X) = θ exp(θ) e Var(X) = θ(1 + θ) exp(θ). Mostre que, portanto, a distri-
buição de Bell de parâmetro θ tem ı́ndice de dispersão Dθ = Varθ(X)/Eθ(X) maior que o da
distribuição de Poisson de parâmetro θ.
(b) Encontre a informação de Fisher para θ.
(c) Obtenha o estimador não viciado de variância uniformemente ḿınima de Eθ(X), obtenha sua
variância e mostre que coincide com o correspondente limite inferior de Cramér-Rao.
2. Sejam X1, . . . , Xn observações independentes de uma distribuição geométrica de parâmetro θ (0 <
θ < 1) com função de probabilidade
Pθ(X = x) = θ(1− θ)x, x = 0, 1, 2, . . . ;
Eθ(X) = (1− θ)/θ e varθ(X) = (1− θ)/θ2.
Encontre o limite inferior de Cramér-Rao (LICR) para variância de estimadores não viesados de Eθ(X)
e mostre que coincide com a variância de X =
∑n
i=1Xi/n.
3. Suponha que X ∼ Poisson(λ), λ > 0, e que Y |X = x ∼ Poisson(xλ). Considere o problema de
estimar λ com base em (X,Y ).
(a) Mostre que (X,Y ) é uma estat́ıstica suficiente minimal para λ, mas não é completa.
(b) Obtenha o limite inferior de Cramér-Rao para a variância de estimadores não viciados de λ e
compare com a variância de X, que é um estimador não viciado de λ.
(c) Encontre o estimador de máxima verossimilhança de λ e obtenha seu viés.
4. Seja X uma variável aleatória com distribuição geométrica e função de probabilidade Pθ(X = x) =
θ(1 − θ)x, x = 0, 1, . . . . Qual é a menor variância posśıvel para um estimador não viciado de θ
(baseado em uma única observação)? Compare essa variância com o limite inferior de Cramér-Rao.
5. Considere a distribuição exponencial de média λ e fdp f(x;λ) = (1/λ) exp(−x/λ), para x > 0 e
=0, caso contrário. Encontre uma função de λ que define uma nova parametrização θ = h(λ) de tal
forma que a informação de Fisher seja constante.
2
6. Sejam X1, . . . , Xn variáveis aleatórias independentes e identicamente distribúıdas de acordo com
uma distribuição de Pareto P(a, c) com densidade
f(x) =
aca
xa+1
, 0 < c ≤ x, a > 0.
(a) Encontre o estimador de máxima verossimilhança (EMV) para c quando a é conhecido e o de
a quando c é conhecido.
(b) Encontre o EMV (â, ĉ) para (a, c) quando a e c são desconhecidos.
(c) Mostre que â e ĉ são independentes, ĉ ∼ P(na, c) e 2na/â ∼ χ22(n−1).
Sugestão: Mostre que se Xi ∼ P(a, c), então, Vi = a(logXi − log c) ∼ E(0, 1). Considere as
variáveis aleatórias (n− i+ 1)[V(i) − V(i−1)], para i = 2, . . . , n.
(d) Encontre o viés de ĉ. Comente.
7. Suponha que X1, . . . , Xn sejam variáveis aleatórias iid com distribuição U(0, θ), θ > 0.
(a) Mostre que
d
dθ
∫ θ
0
xfθ(x)dx 6=
∫ θ
0
x
d
dθ
fθ(x)dx,
em que fθ é a densidade de X(n), a maior estat́ıstica de ordem.
(b) Mostre que a desigualdade da informação não vale para o ENVVUM de θ.
8. Suponha que X1, . . . , Xn sejam variáveis aleatórias iid com distribuição N(ζ, 1) com ζ > 0. Mostre
que a estimativa de máxima verossimilhança de ζ é a média amostral quando esta é positiva e não
existe quando é negativa.
9. Seja X variável aleatória tomando os valores 0 e 1 com probabilidades 1 − p e p respectivamente;
1/3 ≤ p ≤ 2/3.
(a) Encontre o EMV de p.
(b) Mostre que o erro quadrático médio do EMV é uniformemente maior do que o de δ(X) = 1/2.
10. Suponha que X seja uma variável aleatória com distribuição binomial de parâmetros p e n sendo n
um inteiro positivo (fixado) e p um parâmetro desconhecido, 1/3 < p < 2/3. Discuta o problema de
estimação por máxima verossimilhança de p.
11. Provar a Desigualdade da Informação no caso uniparamétrico (Teorema 5.10, TPE).
12. Mostre que se E(δ) = g(θ) e var(δ) atinge o limite da desigualdade da informação, então,
δ(x) = g(θ)± g
′(θ)
I(θ)
∂
∂θ
log pθ(x).
13. Sejam X1, . . . , Xn variáveis aleatórias independentes com distribuição de Bernoulli com parâmetro
θ ∈ (0, 1).
(a) Encontre o ENVVUM de g(θ) = Pθ(X1 + . . .+Xm = k), onde m e k são fixados, 0 < m < n,
0 ≤ k ≤ m.
(b) Encontre o limite inferior de Cramér-Rao para a variância de estimadores não viciados de g(θ) =
Pθ(X1 + . . .+Xm = k),
3
14. Seja F a classe das densidades de parâmetro θ (θ > 0) com média 1/θ e variância 1/θ2 e que
satisfazem as condições para a validade da desigualdade da informação.
(a) Mostre que uma densidade que minimiza a informação de Fisher para θ na classe F é f(x; θ) =
θe−θxI(0,∞)(x). Sugestão: use a desigualdade da informação.
(b) Considere a distribuição N(1/θ, 1/θ2) e encontre o LICR (limite inferior de Cramér-Rao para
variâncias de estimadores não viciados de g(θ)). Compare-o com o correspondente LICR para
a distribuição exponencial.
15. Sejam X1, . . . , Xn uma amostra aleatória de uma distribuição N(µ, σ
2).
(a) Encontre a matriz de informação (total) para (µ, σ2). Mostre que os parâmetros µ e σ2 são
globalmente ortogonais no sentido de que os elementos de fora da diagonal principal dessa
matriz são nulos.
(b) Obtenha a matriz de covariância de (Xn, S
2
n), onde Xn =
∑n
i=1Xi/n e S
2
n =
∑n
i=1(Xi −
X̄n)
2/(n− 1), e compare com o limite da desigualdade da informação.
16. Considere uma faḿılia de escala com densidade (1/θ)f(x/θ), x ∈ (−∞,∞); θ > 0.
(a) Faça suposições adequadas e mostre que a quantidade de informação que uma única observação
X contém sobre θ é
1
θ2
∫ [
xf ′(x)
f(x)
+ 1
]2
f(x)dx
e que a informação que X contém sobre ζ = log θ é independente de θ.
(b) Encontre a informação que X contém sobre θ e ζ = log θ se f(x) = exp(−x) (distribuição
exponencial).
17. Sejam Y1, . . . , Yn variáveis aleatórias independentes tais que Yi ∼ Poisson(exp{α + xiβ}), i =
1, . . . , n, onde α ∈ IR e β ∈ IR são parâmetros desconhecidos, xi são constantes conhecidas, não
todas nulas e não todas iguais. Obtenha a matriz de informação (total) de Fisher para (α, β) e o
limite inferior de Cramér-Rao para estimadores não viciados de α e de β.
18. Seja (X1, . . . , Xn) uma amostra casual simples de X ∼ Poisson(θ), θ ∈ [0,+∞).
(a) Encontre o estimador de máxima verossimilhança de exp(−3θ).
(b) Faça n = 1 na parte (a). Encontre a variância do estimador e compare-a com o limite inferior
de Cramér-Rao.
(c) Compare o estimador obtido em (b) com o ENVVUM. Qual dos dois você recomenda? Justifi-
que.
19. Seja (X1, . . . , Xn) uma amostra casual simples de X ∼ N(ζ, σ2). Seja θ = (ζ, σ2).
(a) Mostre que o ENVVUM e o EMV de ζ2 são, respectivamente, δ1n = X
2 − S2/n e δ2n = X
2
,
onde X = n−1
∑n
i=1Xi e S
2 = (n− 1)−1
∑n
i=1(Xi −X)2.
(b) Obtenha o viés do EMV e mostre que este pode ser escrito como B(θ)/n, onde B(θ) não
depende de n.
20. Sejam X1, . . . , Xn variáveis aleatórias iid com densidade na faḿılia exponencial unidimensional como
definida na Lista 1.
4
(a) Mostre que a equação de verossimilhança se reduz a Eη[T (Xj)] = n
−1∑n
i=1 T (Xi).
(b) Mostre que a equação acima tem, no máximo, uma solução.
21. Seja (X1, . . . , Xn) uma amostra casual simples de uma distribuição de Weibull com densidade
f(x; θ) = θxθ−1 exp{−xθ}, x > 0, θ > 0. Obtenha a equação de verossimilhança e mostre que
esta tem uma única solução.
22. Sejam X1, . . . , Xn observações independentes de X, que tem distribuição seminormal com função
densidade de probabilidade
f(x; ξ) =
(
2
π
)1/2
exp
{
−(x− ξ)
2
2
}
I[ξ,+∞)(x); ξ ∈ R.
(a) Obtenha uma estat́ısticasuficiente minimal para ξ.
(b) Esboce a função de verossimilhança. Encontre o estimador de máxima verossimilhança de ξ.
(c) Encontre o estimador ERM (equivariante por localição de risco ḿınimo) de ξ sob perda quadrática.
23. Mostre que uma função u satisfaz
u(x1 + a, . . . , xn + a) = u(x1, . . . , xn), (1)
para todo (x1, . . . , xn) e todo a, se e somente se é uma função das diferenças yi = xi − xn, para
i = 1, . . . , n− 1, se n ≥ 2; se n = 1, se e somente se é uma constante.
24. Suponha que X e Y são variáveis aleatórias independentes com X ∼ N(θ, 1) e Y com densidade
exp{−(y − θ)}, para y > θ e = 0, caso contrário. Determine o estimador equivariante de risco
ḿınimo de θ baseado em (X,Y ) sob perda quadrática.
25. Seja X = (X1, . . . , Xn) uma amostra aleatória de uma distribuição exponencial truncada e função
densidade de probabilidade
p(x; ξ) =
e−(x−ξ)/b
b(1− e−1/b)
, x ∈ [ξ, ξ + 1];−∞ < ξ < +∞,
em que b > 0 é conhecido.
(a) Encontre o estimador de máxima verossimilhança δ(X) de ξ e verifique que é equivariante por
localização.
(b) Obtenha o estimador de Pitman de ξ (estimador equivariante por localização de risco ḿınimo
sob perda quadrática). Verifique que, de fato, o estimador que encontrou é equivariante por
localização.
26. Seja X = (X1, . . . , Xn) com função densidade de probabilidade
fX(x; τ) =
1
τn
f
(x1
τ
, . . . ,
xn
τ
)
, x = (x1, . . . , xn) ∈ Rn; τ > 0,
em que f é conhecida e τ é um parâmetro de escala desconhecido. Considere o problema de estimar
τ r, r ≥ 1, inteiro. Dizemos que um estimador δ(X), tal que δ(x) > 0 para todo x ∈ Rn, é
equivariante por escala se δ(bx) = brδ(x), para todo b > 0 e todo x ∈ Rn . Considere a função de
perda L(τ, d) = [(d− τ r)/τ r]2.
5
(a) Mostre que o risco R(τ, δ(X)) de qualquer estimador equivariante por escala δ(X) é constante.
(b) Seja δ0(X) um estimador equivariante por escala. Mostre que um estimador δ(X) é equivariante
por escala se e somente se δ(x) = δ0(x)/v(x), em que v(x) é tal que
v(cx) = v(x) > 0, para todo c > 0 e todo x ∈ Rn. (2)
Mostre ainda que, se xn 6= 0 e n > 1, uma condição necessária e suficiente para que v(x) sa-
tisfaça (2) é que exista uma função w(y) tal que v(x) = w(y) em que y = (x1/|xn|, . . . , xn/|xn|).
(c) Seja δ0(X) um estimador equivariante de risco finito. Mostre que o estimador equivariante de
risco ḿınimo de τ r é dado por
δ∗(X) = δ0(X)
E1[δ0(X)|Y]
E1[δ20(X)|Y]
,
em que Y = (X1/|Xn|, . . . , Xn/|Xn|).
(d) Considere a situação em que (X1, . . . , Xn) é uma amostra aleatória da distribuição N(0, τ
2),
τ > 0. Encontre o estimador equivariante de risco ḿınimo de τ2. Sugestão: usar o Teorema de
Basu.
27. Seja X = (X1, . . . , Xn) com função densidade de probabilidade conjunta
fX(x; τ) =
1
τn
f
(x1
τ
, . . . ,
xn
τ
)
, x = (x1, . . . , xn) ∈ Rn; τ > 0,
em que f é conhecida e τ é um parâmetro de escala desconhecido. Considere o problema de estimar
τ r, r ≥ 1, inteiro. Dizemos que um estimador δ(X) é equivariante por escala se δ(bX) = brδ(X),
para todo b > 0. Pode-se mostrar que o estimador de Pitman de τ r, dado por δ∗(X) sendo
δ∗(x) =
∫∞
0 v
n+r−1f(vx1, . . . , vxn)dv∫∞
0 v
n+2r−1f(vx1, . . . , vxn)dv
,
é um estimador equivariante por escala de risco ḿınimo sob perda [(d− τ r)/τ r]2.
(a) Mostre que, de fato, o estimador δ∗(X) é equivariante por escala.
(b) Obtenha o estimador δ∗(X) de τ r para a situação em que X é uma amostra aleatória da
distribuição exponencial de média τ > 0.
(c) No contexto do item (b), encontre o estimador não viesado de risco ḿınimo de τ r considerando
a perda dada acima.
28. Sejam X1, . . . , Xn réplicas independentes de X, que tem função densidade de probabilidade
pθ(x) =
2x
θ2
, 0 ≤ x ≤ θ; θ > 0.
(a) Mostre que X(n) = max(X1, . . . , Xn) é uma estat́ıstica suficiente completa.
(b) Obtenha o estimador não viciado de variância uniformemente ḿınima de g(θ) se g(θ) é dife-
renciável e θ2ng(θ)→ 0 quando θ → 0. Particularize para o caso em que g(θ) = θr, r ≥ 1.
(c) Obtenha o estimador de máxima verossimilhança de g(θ). Particularize para o caso em que
g(θ) = θr, r ≥ 1.
(d) Mostre que a classe de posśıveis distribuições de X é uma faḿılia de escala. Obtenha um
estimador equivariante por escala de risco ḿınimo para g(θ) = θr, r ≥ 1, sob perda L(θ, d) =
[(d− θr)/θr]2.

Continue navegando