Buscar

Resolução Introdução à Inferência Estatística - Bolfarine

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 23 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 23 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 23 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Resolução do Livro “Introdução à Inferência Estatística” 
 
 
CAPÍTULO 2 – ESTIMADORES EFICIENTES E 
ESTATÍSTICAS SUFICIENTES 
2.3. ------------------------------------------------------------------------------------------------------------------------------------------- 
Seja (𝑋1, … , 𝑋2) uma a.a. da v.a. 𝑋 com função densidade de probabilidade dada por 
𝑓(𝑥|𝜃) = 𝜃𝑥𝜃−1, 0 < 𝑥 < 1, 𝜃 > 0 
Isto é: 𝑋 ~ 𝐵𝑒𝑡𝑎(𝜃, 1) 
(i) Podemos escrever a f.d.p. da v.a. 𝑋 como 
𝑓(𝑥|𝜃) = exp[ln(𝜃𝑥𝜃−1)] = exp[ln 𝜃 + (𝜃 − 1) ln 𝑥] = exp[𝜃 ln 𝑥 + ln 𝜃 − ln 𝑥] 
Portanto a distribuição de 𝑋 pertence à família exponencial unidimensional com 
𝑐(𝜃) = 𝜃, 𝑇(𝑥) = ln 𝑥 , 𝑑(𝜃) = ln 𝜃 , 𝑆(𝑥) = − ln 𝑥 e 𝐴 = {𝑥: 0 < 𝑥 < 1} 
(ii) Tomando o logaritmo da densidade: 
log 𝑓(𝑥|𝜃) = 𝜃 log 𝑥 + log 𝜃 − log 𝑥 
Derivadas parciais: 
𝜕 log 𝑓(𝑥|𝜃)
𝜕𝜃
= log 𝑥 +
1
𝜃
 ⇒ 
𝜕2 log 𝑓(𝑥|𝜃)
𝜕𝜃2
= −
1
𝜃2
 
Então a Informação de Fisher de 𝜃 é dada por 
𝐼𝐹(𝜃) = −𝐸 [−
1
𝜃2
] =
1
𝜃2
 
Com isso, o limite inferior da variância dos estimadores não viciados de 𝜃 é 
𝐿𝐼(𝜃) =
𝜃2
𝑛
 
(iii) Como a distribuição da v.a. 𝑋 pertence à família exponencial, então uma estatística suficiente equivalente 
para 𝜃 será 
𝑇(𝑿) =∑−ln𝑋𝑖
𝑛
𝑖=1
 
Onde: 𝑇(𝑿) = ∑ − ln𝑋𝑖
𝑛
𝑖=1 ~ 𝐺𝑎𝑚𝑎(𝑛; 𝜃). 
(iv) Como 𝑇 = ∑ −ln𝑋𝑖
𝑛
𝑖=1 ~ 𝐺𝑎𝑚𝑎(𝑛, 𝜃), então 𝐸[∑ −ln𝑋𝑖
𝑛
𝑖=1 ] =
𝑛
𝜃
. 
Agora, 
𝐸 [
1
𝑇
] = ∫
1
𝑡
∞
0
𝜃𝑛
Γ(𝑛)
𝑡𝑛−1𝑒−𝜃𝑡𝑑𝑡 =
𝜃𝑛
Γ(𝑛)
∫ 𝑡𝑛−2
∞
0
𝑒−𝜃𝑡𝑑𝑡 
Fazendo uma mudança de variável na integral: 𝑢 = 𝜃𝑡 ⇒ 𝑑𝑡 =
𝑑𝑢
𝜃
 ; 𝑢 > 0. 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
𝐸 [
1
𝑇
] =
𝜃𝑛
Γ(𝑛)
∫ (
𝑢
𝜃
)
𝑛−2∞
0
𝑒−𝑢
𝑑𝑢
𝜃
=
𝜃𝑛
Γ(𝑛)
1
𝜃𝑛−1
∫ 𝑢𝑛−2
∞
0
𝑒−𝑢𝑑𝑢 =
𝜃
Γ(𝑛)
∫ 𝑢𝑛−2
∞
0
𝑒−𝑢𝑑𝑢 
Ora, 
∫ 𝑢𝑛−2
∞
0
𝑒−𝑢 = Γ(𝑛 − 1). 
Logo, 
𝐸 [
1
𝑇
] = 𝜃
Γ(𝑛 − 1)
Γ(𝑛)
= 𝜃
(𝑛 − 2)!
(𝑛 − 1)!
=
𝜃
𝑛 − 1
. 
Então um estimador não viciado para o parâmetro 𝜃 é dado por 
𝜃 =
𝑛 − 1
∑ −ln𝑋𝑖
𝑛
𝑖=1
, 
pois 
𝐸[𝜃] = 𝐸 [
𝑛 − 1
∑ −ln𝑋𝑖
𝑛
𝑖=1
] = (𝑛 − 1)𝐸 [
1
∑ − ln𝑋𝑖
𝑛
𝑖=1
 ] = (𝑛 − 1)
𝜃
𝑛 − 1
= 𝜃. 
Verificando eficiência de 𝜃: 
𝑉𝑎𝑟[𝜃] = 𝑉𝑎𝑟 [
𝑛 − 1
∑ −ln𝑋𝑖
𝑛
𝑖=1
] = (𝑛 − 1)2𝑉𝑎𝑟 [
1
∑ −ln𝑋𝑖
𝑛
𝑖=1
] 
Tem-se: 
1
∑ − ln𝑋𝑖
𝑛
𝑖=1
 ~ 𝐼𝑛𝑣 − 𝐺𝑎𝑚𝑎(𝑛, 1/𝜃), então 
𝑉𝑎𝑟 [
1
∑ − ln𝑋𝑖
𝑛
𝑖=1
] =
𝜃2
(𝑛 − 1)2(𝑛 − 2)
 
Portanto, 
𝑉𝑎𝑟[𝜃] = (𝑛 − 1)2
𝜃2
(𝑛 − 1)2(𝑛 − 2)
=
𝜃2
𝑛 − 2
 
Como 𝑉𝑎𝑟[𝜃] ≠ 𝐿𝐼(𝜃), então 𝜃 =
𝑛−1
∑ −ln𝑋𝑖
𝑛
𝑖=1
 é não eficiente para 𝜃. 
CAPÍTULO 5 – ESTIMAÇÃO POR INTERVALO 
5.4. ------------------------------------------------------------------------------------------------------------------------------------------- 
(i) 
𝑄(𝑿, 𝜃) = −𝜃 log 𝑋 = 𝑔(𝑋) 
Pelo método do Jacobiano, teremos: 
𝑓𝑄(𝑞) = 𝑓𝑋(𝑔
−1(𝑞)) |
𝑑𝑔−1(𝑞)
𝑑𝑞
| 
𝑄 = 𝑔(𝑋) = −𝜃 log 𝑋 ⇒ 𝑔−1(𝑄) = 𝑒−
𝑄
𝜃⁄ 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
Percebe-se que 𝑞 > 0. Então, 
𝑓𝑋(𝑔
−1(𝑄)) |
𝑑𝑔−1(𝑞)
𝑑𝑞
| = 𝜃 (𝑒−
𝑞
𝜃⁄ )
𝜃−1
|
𝑑
𝑑𝑞
(𝑒−
𝑞
𝜃⁄ )| = 𝜃𝑒−
𝑞(𝜃−1)
𝜃 |−
1
𝜃
𝑒−
𝑞
𝜃⁄ | = 𝑒−
𝑞(𝜃−1)
𝜃
−
𝑞
𝜃 
Com isso, chega-se que 
𝑓𝑄(𝑞) = 𝑒
−𝑞, 𝑞 > 0 
Portanto, 𝑄(𝑿, 𝜃) = −𝜃 log𝑋 é uma quantidade pivotal para 𝜃. 
Construindo um intervalo de confiança com 𝛾 = 1 − 𝛼: 
𝑃[𝜆1 ≤ −𝜃 log𝑋 ≤ 𝜆2] = 1 − 𝛼 
𝜆1 ≤ −𝜃 log 𝑋 ≤ 𝜆2 ⇒ 
𝜆1
log𝑋
≥ −𝜃 ≥
𝜆2
log 𝑋
 ⇒ −
𝜆1
log𝑋
≤ 𝜃 ≤ −
𝜆2
log 𝑋
 
𝑃 [−
𝜆1
log 𝑋
≤ 𝜃 ≤ −
𝜆2
log𝑋
] = 1 − 𝛼 
Então, o intervalo de confiança, com 𝛾 = 1 − 𝛼, é dado por: 
[−
𝜆1
log𝑋
≤ 𝜃 ≤ −
𝜆2
log𝑋
] 
(ii) 
𝑌 = (− log𝑋)−1 = −
1
log 𝑋
 
𝑃 [
𝑌
2
≤ 𝜃 ≤ 𝑌] = 𝑃 [−
1
2log 𝑋
≤ 𝜃 ≤ −
1
log𝑋
] = 𝑃 [
1
2
≤ −𝜃 log𝑋 ≤ 1] = 𝑃 [
1
2
≤ 𝑄 ≤ 1] = 𝛾 
𝑃 [
1
2
≤ 𝑄 ≤ 1] = ∫ 𝑒−𝑞𝑑𝑞
1
1
2
=
√𝑒 − 1
𝑒
 
⇒ 𝛾 =
√𝑒 − 1
𝑒
 
5.5. ------------------------------------------------------------------------------------------------------------------------------------------- 
Temos 𝑋 ~ 𝑁(𝜃, 𝜃) 
Ora, 
𝑄(𝑿, 𝜃) =
�̅� − 𝜃
𝑆
√𝑛
⁄
=
√𝑛(�̅� − 𝜃)
𝑆
 ~ 𝑡𝑛−1 
então 𝑄(𝑿, 𝜃) é uma quantidade pivotal para 𝜃. 
𝑃 [−𝑡 ≤
√𝑛(�̅� − 𝜃)
𝑆
≤ 𝑡] = 1 − 𝛼 
Agora, 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
𝑡 ≤
√𝑛(�̅� − 𝜃)
𝑆
≤ 𝑡 ⇒ −𝑡
𝑆
√𝑛
≤ �̅� − 𝜃 ≤ 𝑡
𝑆
√𝑛
 ⇒ �̅� − 𝑡
𝑆
√𝑛
≤ 𝜃 ≤ �̅� + 𝑡
𝑆
√𝑛
 
Assim, 
𝑃 [�̅� − 𝑡
𝑆
√𝑛
≤ 𝜃 ≤ �̅� + 𝑡
𝑆
√𝑛
] = 1 − 𝛼 
Logo, [�̅� − 𝑡
𝑆
√𝑛
; �̅� + 𝑡
𝑆
√𝑛
] é um intervalo de confiança para o parâmetro 𝜃. 
5.6. ------------------------------------------------------------------------------------------------------------------------ 
Temos que a f.d.p. da v.a. 𝑋 é dada por 
𝑓(𝑥|𝜃) = 𝐼(𝜃−1 2⁄ ,𝜃+1 2⁄ )(𝑥) 
Seja [𝑋(1); 𝑋(𝑛)] um intervalo de confiança para 𝜃, então 
𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 𝛾 
Agora, 
𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 𝑃[𝜃 ∈ (𝑋(1), 𝑋(𝑛))] = 1 − 𝑃[𝜃 ∉ (𝑋(1), 𝑋(𝑛))] 
Nota-se que: 𝜃 ∉ (𝑋(1), 𝑋(𝑛)) ⟺ 𝜃 < 𝑋(1) ou 𝜃 > 𝑋(𝑛). Equivalentemente, tem-se 
[(𝑋(1) > 𝜃) ∪ (𝑋(𝑛) < 𝜃)] 
 e é mais fácil de ser calculado, pois (𝑋(1) > 𝜃) e (𝑋(𝑛) < 𝜃) são eventos disjuntos, isto é 
𝑃[(𝑋(1) > 𝜃) ∪ (𝑋(𝑛) < 𝜃)] = 𝑃[𝑋(1) > 𝜃] + 𝑃[𝑋(𝑛) < 𝜃] 
Calculando 𝑃[𝑋(1) > 𝜃]: 
𝑃[𝑋(1) > 𝜃] = 𝑃[𝑋1 > 𝜃] × 𝑃[𝑋2 > 𝜃] × …× 𝑃[𝑋𝑛 > 𝜃] = {𝑃[𝑋 > 𝜃]}
𝑛
 
⇒ 𝑃[𝑋(1) > 𝜃] = (∫ 𝑑𝑥
𝜃+
1
2
𝜃
)
𝑛
= (
1
2
)
𝑛
=
1
2𝑛
 
Calculando 𝑃[𝑋(𝑛) < 𝜃]: 
𝑃[𝑋(𝑛) < 𝜃] = 𝑃[𝑋1 < 𝜃, 𝑋2 < 𝜃,… , 𝑋𝑛 < 𝜃] = {𝑃[𝑋 < 𝜃]}
𝑛
 
⇒ 𝑃[𝑋(𝑛) < 𝜃] = (∫ 𝑑𝑥
𝜃
𝜃−
1
2
)
𝑛
= (
1
2
)
𝑛
=
1
2𝑛
 
Com isso, temos 
𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 1 − (
1
2𝑛
+
1
2𝑛
) = 1 −
2
2𝑛
= 1 − 21−𝑛 = 𝛾 
Logo, o coeficiente de confiança para 𝜃 com intervalo dado por [𝑋(1); 𝑋(𝑛)], é 𝛾 = 1 − 2
1−𝑛. 
Dada uma distribuição simétrica em torno de 𝜃, teremos que 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
𝑃[𝑋 ≥ 𝜃] = 𝑃[𝑋 < 𝜃]⏟ 
𝐹𝑋(𝜃)
=
1
2
 
Agora 𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 𝛾, onde foi visto que 
𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 1 − {𝑃[𝑋(1) > 𝜃] + 𝑃[𝑋(𝑛) < 𝜃]} 
ou, equivalentemente, usando as funções de distribuições, 
𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 1 − {[1 − 𝐹𝑋(1)(𝜃)] + 𝐹𝑋(𝑛)(𝜃)} = 𝐹𝑋(1)(𝜃) − 𝐹𝑋(𝑛)(𝜃) 
É possível verificar que para qualquer v.a. 𝑋 tem-se 
𝐹𝑋(1)(𝑢) = 1 − [1 − 𝐹𝑋(𝑢)]
𝑛 e 𝐹𝑋(𝑛)(𝑢) = [𝐹𝑋(𝑢)]
𝑛 
Calculando 𝐹𝑋(1)(𝜃): 
𝐹𝑋(1)(𝜃) = 1 − [1 − 𝐹𝑋(𝜃)⏟ 
𝑃[𝑋≥𝜃]
]
𝑛
= 1 − (
1
2
)
𝑛
= 1 −
1
2𝑛
 
Calculando 𝐹𝑋(𝑛)(𝜃): 
𝐹𝑋(𝑛)(𝜃) = [𝐹𝑋(𝜃)]
𝑛 = (
1
2
)
𝑛
=
1
2𝑛
 
Então, tem-se 
𝛾 = 1 −
1
2𝑛
−
1
2𝑛
= 1 − 21−𝑛 ∎ 
Portanto, para qualquer distribuição simétrica em torno de 𝜃 o intervalo de confiança [𝑋(1); 𝑋(𝑛)] para 𝜃 terá 
coeficiente de confiança 𝛾 = 1 − 21−𝑛. 
5.7. ------------------------------------------------------------------------------------------------------------------------------------------- 
Temos que a f.d.p. da v.a. 𝑋 é dada por 
𝑓(𝑥|𝜃) = 𝜃𝑒−𝜃𝑥 , 𝑥 > 0, 𝜃 > 0 
Ou seja: 𝑋 ~ 𝐸𝑥𝑝(𝜃). Então, 
𝐸[𝑋] =
1
𝜃
 e 𝑉𝑎𝑟[𝑋] =
1
𝜃2
 
Para 𝐸[𝑋]: 
Foi visto no Exemplo 5.2.1. que 𝑄(𝑿; 𝜃) = 2𝜃 ∑ 𝑋𝑖
𝑛
𝑖=1 ~ 𝜒2𝑛
2 , ou seja, 𝑄(𝑿; 𝜃) pode ser considerada uma 
quantidade pivotal para 𝜃 e, consequentemente, para 𝐸[𝑋] = 1/𝜃 também. Dado 𝛾 = 1 − 𝛼, tem-se 𝜆1 e 𝜆2 
na tabela da distribuição 𝜒2𝑛
2 , de modo que 
𝑃 [𝜆1 ≤ 2𝜃∑𝑋𝑖
𝑛
𝑖=1
≤ 𝜆2] = 𝛾. 
Ora, 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
𝜆1 ≤ 2𝜃∑𝑋𝑖
𝑛
𝑖=1
≤ 𝜆2 ⇒ 
2 ∑ 𝑋𝑖
𝑛
𝑖=1
𝜆2
≤
1
𝜃
≤
2∑ 𝑋𝑖
𝑛
𝑖=1
𝜆1
 
Portanto, um IC para 𝐸[𝑋] =
1
𝜃
 com coeficiente de confiança 𝛾 = 1 − 𝛼 é dado por 
[
2∑ 𝑋𝑖
𝑛
𝑖=1
𝜆2
; 
2∑ 𝑋𝑖
𝑛
𝑖=1𝜆1
] 
De modo que 𝑃( 𝜒2𝑛
2 < 𝜆1) = 𝑃( 𝜒2𝑛
2 > 𝜆2) = 𝛼/2. 
Para 𝑉𝑎𝑟(𝑋): 
Encontremos um intervalor de confiança aproximado para 𝑔(𝜃) = 1/𝜃2. Para grandes amostras, e sendo 𝜃 o 
EMV de 𝜃, temos 
𝑔(𝜃) − 𝑔(𝜃)
√
(𝑔′(𝜃))
2
𝑛𝐼𝐹(𝜃)
⁄
 
𝑎
~
 𝑁(0, 1) 
𝜃 = �̅�−1 é o EMV do parâmetro 𝜃. Agora, 
𝑔(𝜃) = �̅�2 ; 𝑔′(𝜃) = −2(�̅�−1)−3 = −2�̅�3 ; 𝐼𝐹(𝜃) = 𝜃
−2 ⇒ 𝐼𝐹(𝜃) = �̅�
2 
Assim, 
�̅�2 − 1/𝜃2
√(−2�̅�
3)2
𝑛�̅�2
⁄
=
�̅�2 − 1/𝜃2
2�̅�3
�̅�√𝑛
⁄
=
�̅�2 − 1/𝜃2
2�̅�2
√𝑛
⁄
=
√𝑛(�̅�2 − 1/𝜃2)
2�̅�2
 
𝑎
~
 𝑁(0, 1) 
Agora, 
−𝑧𝛼 2⁄ ≤
�̅�2 −
1
𝜃2
2�̅�2
√𝑛
⁄
≤ 𝑧𝛼 2⁄ ⇒ −𝑧𝛼 2⁄
2�̅�2
√𝑛
 ≤ �̅�2 −
1
𝜃2
≤ 𝑧𝛼 2⁄
2�̅�2
√𝑛
 
⇒ �̅�2 − 𝑧𝛼 2⁄
2�̅�2
√𝑛
 ≤
1
𝜃2
≤ �̅�2 + 𝑧𝛼 2⁄
2�̅�2
√𝑛
 
Logo, um intervalo de confiança para 𝑉𝑎𝑟(𝑋) é dado por 
[�̅�2 − 𝑧𝛼 2⁄
2�̅�2
√𝑛
; �̅�2 + 𝑧𝛼 2⁄
2�̅�2
√𝑛
] 
onde 𝑃(𝑋 > 𝑧𝛼 2⁄ ) = 𝛼/2. 
5.9. ------------------------------------------------------------------------------------------------------------------------------------------- 
Sejam 𝑋1, … , 𝑋𝑛+1 uma a.a. de tamanho 𝑛 + 1 (𝑛 > 1) da distribuição 𝑁(𝜇, 𝜎
2). 
(i) Propriedade: Sejam 𝑍 ~ 𝑁(0, 1) e 𝑌 ~ 𝜒𝑛
2 v.a.i., então: 
𝑇 =
𝑍
√𝑌
𝑛
 ~ 𝑡𝑛 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
Temos que: �̅� ~ 𝑁 (𝜇, 𝜎
2
𝑛⁄ ) e 𝑋𝑛+1 ~ 𝑁(𝜇, 𝜎
2) e são independentes, a partir disso é possível encontrar a 
distribuição da v.a. �̅� − 𝑋𝑛+1 que vai ser normal, basta encontrar sua média e variância. 
𝐸[ �̅� − 𝑋𝑛+1] = 𝐸[�̅�] − 𝐸[𝑋𝑛+1] = 𝜇 − 𝜇 = 0 
e 
𝑉𝑎𝑟[ �̅� − 𝑋𝑛+1] =
𝜎2
𝑛
+ 𝜎2 =
(𝑛 + 1)
𝑛
𝜎2 
Então �̅� − 𝑋𝑛+1 ~ 𝑁 (0,
(𝑛+1)
𝑛
𝜎2), e também 
𝑍 =
�̅� − 𝑋𝑛+1
𝜎√ 
(𝑛 + 1)
𝑛
=
√𝑛(�̅� − 𝑋𝑛+1)
𝜎√𝑛 + 1
 ~ 𝑁(0, 1) 
Agora, sabe-se que 
𝑌 =
𝑛𝑆2
𝜎2
 ~ 𝜒𝑛−1
2 
Sendo assim, 
𝑇 =
𝑍
√ 𝑌
𝑛 − 1
=
√𝑛(�̅� − 𝑋𝑛+1)
𝜎√𝑛 + 1
√
𝑛𝑆2
𝜎2
𝑛 − 1
=
√𝑛(�̅� − 𝑋𝑛+1)
𝜎√𝑛 + 1
√𝑛𝑆
𝜎√𝑛 − 1
=
(�̅� − 𝑋𝑛+1)
√𝑛 + 1
𝑆
√𝑛 − 1
= (√
𝑛 − 1
𝑛 + 1
)
�̅� − 𝑋𝑛+1
𝑆
 ~ 𝑡𝑛−1 
Logo, 
𝑐 = √
𝑛 − 1
𝑛 + 1
 
(ii) Se 𝑛 = 8, então 
(√
8 − 1
8 + 1
)
�̅� − 𝑋8+1
𝑆
= (
√7
3
)
�̅� − 𝑋9
𝑆
~ 𝑡7 
Temos 
�̅� − 𝑘𝑆 ≤ 𝑋9 ≤ �̅� + 𝑘𝑆 ⇒ −𝑘 ≤
𝑋9 − �̅�
𝑆
≤ 𝑘 ⇒ −
√7
3
𝑘 ≤ (
√7
3
)
�̅� − 𝑋9
𝑆
≤
√7
3
𝑘 
⇒ 𝑃 [−
√7
3
𝑘 ≤ 𝑇 ≤
√7
3
𝑘] = 0,80 
Pela simetria da distribuição t, teremos 
𝑃 [𝑇 < −
√7
3
𝑘] = 𝑃 [𝑇 >
√7
3
𝑘] = 0,10 ⇒ 
√7
3
𝑘 = 1,415 ⇒ 𝑘 = 1,415 ×
3
√7
 ⇒ 𝑘 = 1,6 
> qt(0.1, 7, lower.tail = F) 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
[1] 1.414924 
CAPÍTULO 6 – TESTES DE HIPÓTESE 
6.1. ------------------------------------------------------------------------------------------------------------------------------------------- 
Temos 
𝑓(𝑥|𝜃) = 𝜃2𝑥𝑒−𝜃𝑥, 𝑥, 𝜃 > 0 
Ou seja: 𝑋 ~ 𝐺𝑎𝑚𝑎(2, 𝜃) 
Queremos testar: 𝐻0: 𝜃 = 1 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 = 2 
i) 𝑛 = 5 e 𝛼 = 0,05: 
Função de verossimilhança: 
𝐿(𝒙) =∏𝜃2𝑥𝑖𝑒
−𝜃𝑥𝑖
5
𝑖=1
= 𝜃10𝑒−𝜃∑ 𝑥𝑖
5
𝑖=1 ∏𝑥𝑖
5
𝑖=1
 
Sob 𝐻1 e 𝐻0 temos, respectivamente 
𝐿1(𝒙) = 2
10𝑒−2∑ 𝑥𝑖
5
𝑖=1 ∏𝑥𝑖
5
𝑖=1
 ; 𝐿0(𝒙) = 𝑒
−∑ 𝑥𝑖
5
𝑖=1 ∏𝑥𝑖
5
𝑖=1
 
Portanto, o teste MP rejeita 𝐻0 se 
𝐿1(𝒙)
𝐿0(𝒙)
≥ 𝑘: 
𝐿1(𝒙)
𝐿0(𝒙)
=
210𝑒−2∑ 𝑥𝑖
5
𝑖=1 ∏ 𝑥𝑖
5
𝑖=1
𝑒−∑ 𝑥𝑖
5
𝑖=1 ∏ 𝑥𝑖
5
𝑖=1
= 210𝑒−∑ 𝑥𝑖
5
𝑖=1 ≥ 𝑘 ⇒∑𝑥𝑖
5
𝑖=1
≤ −ln (
𝑘
210
) = 𝑐 
Portanto a RC do teste MP é dada por: 𝑅𝐶 = {∑ 𝑋𝑖
5
𝑖=1 ≤ 𝑐} 
Assim, teremos 
0,05 = 𝑃𝐻0 (∑𝑋𝑖
5
𝑖=1
≤ 𝑐) 
Nota: Para 𝑋𝑖 ~ 𝐺𝑎𝑚𝑎(𝛼; 𝜃), 𝑖 = 1,… , 𝑛, teremos que ∑ 𝑋𝑖
𝑛
𝑖=1 ~ 𝐺𝑎𝑚𝑎(𝑛𝛼; 𝜃). 
Sob 𝐻0: 𝜃 = 1, temos que ∑ 𝑋𝑖
5
𝑖=1 ~ 𝐺𝑎𝑚𝑎(10; 1), logo 
0,05 = 𝑃𝐻0 (∑𝑋𝑖
5
𝑖=1
≤ 𝑐) ⇒ 𝑐 = 5,425 
Código R: 
> qgamma(0.05, 10, 1) # Para obter c 
[1] 5.425406 
Portanto, chegamos que a região crítica é dada por: 𝑹𝑪 = {∑ 𝑿𝒊
𝟓
𝒊=𝟏 ≤ 𝟓, 𝟒𝟐𝟓} 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
b) 𝑛 = 1 
O teste que minimiza 𝛼 + 𝛽, possui a seguinte região crítica: 
𝑅𝐶 = {𝑥: 
𝐿1(𝑥)
𝐿0(𝑥)
≥ 1} 
Temos, 
𝐿1(𝑥) = 4𝑥𝑒
−2𝑥 𝑒 𝐿0(𝑥) = 𝑥𝑒
−𝑥 
Com isso, 
𝐿1(𝑥)
𝐿0(𝑥)
=
4𝑥𝑒−2𝑥
𝑥𝑒−𝑥
= 4𝑒−𝑥 ≥ 1 ⇒ 𝑒−𝑥 ≥
1
4
⇒ −𝑥 ≥ ln (
1
4
) ⇒ 𝑥 ≤ ln(4) = 1,39 
Portanto, o teste minimiza 𝛼 + 𝛽 consiste em rejeitar 𝐻0 se 𝑋 ≤ 1,39. Isto é: 𝑅𝐶 = {𝑋 ≤ 1,39}. 
O valor de 𝛼 + 𝛽: 
Temos, 
𝛼 = 𝑃(𝑋 ≤ 1,39 | 𝑋~𝐺𝑎𝑚𝑎(2,1)) = 0,405 e 𝛽 = 𝑃(𝑋 > 1,39 | 𝑋~𝐺𝑎𝑚𝑎(2,2)) = 0,235 
Então: 𝜶 + 𝜷 = 𝟎, 𝟒𝟎𝟓 + 𝟎, 𝟐𝟑𝟓 = 𝟎, 𝟔𝟒 
Código R para obter 𝛼 + 𝛽: 
> pgamma(1.39, 2, 1) + pgamma(1.39, 2, 2, lower.tail = F) 
[1] 0.6392156 
6.2. ------------------------------------------------------------------------------------------------------------------------------------------- 
𝑋 ~ 𝑁(𝜇, 1) 
𝐻0: 𝜇 = 0 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜇 = 1 
Foi visto no exemplo do slide 12 (Aula-10) que a RC do teste MP para esse problema é dada por: 
𝑅𝐶 = {∑𝑋𝑖 ≥ 𝑐
𝑛
𝑖=1
} 
𝛼 = 𝛽 = 0,05. 
Sob 𝐻0: 𝜇 = 0, temos que ∑ 𝑋𝑖 ~ 𝑁(0, 𝑛)
𝑛
𝑖=1 , então 
𝛼 = 0,05 = 𝑃(∑ ≥ 𝑐𝑛𝑖=1 | ∑ 𝑋𝑖 ~ 𝑁(0, 𝑛)
𝑛
𝑖=1 ) = 𝑃 (𝑍 ≥
𝑐
√𝑛
) ⇒
𝑐
√𝑛
= 1,64 ⇒ 𝑐 = 1,64√𝑛 
Sob 𝐻1: 𝜇 = 1, temos que ∑ 𝑋𝑖 ~ 𝑁(𝑛, 𝑛)
𝑛
𝑖=1 , então 
𝛽 = 0,05 = 𝑃(∑ 𝑋𝑖 < 𝑐
𝑛
𝑖=1 | ∑ 𝑋𝑖 ~ 𝑁(𝑛, 𝑛)
𝑛
𝑖=1 ) = 𝑃 (𝑍 <
𝑐 − 𝑛
√𝑛
) ⇒
𝑐 − 𝑛
√𝑛
= −1,64 ⇒ 𝑐 = −1,64√𝑛 + 𝑛 
Agora, 
1,64√𝑛 = −1,64√𝑛 + 𝑛 ⇒ 3,28√𝑛 = 𝑛 ⇒ 
𝑛
√𝑛
= 3,28 ⇒ √𝑛 = 3,28 ⇒ 𝑛 = 10,7584 ⇒ 𝑛 = 11 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
6.3. ------------------------------------------------------------------------------------------------------------------------------------------- 
Densidade: 
𝑓(𝑥|𝜃) = 𝜃𝑥𝜃−1, 0 < 𝑥 < 1, 𝜃 > 0 
Equivalentemente: 𝑋 ~ 𝐺𝑎𝑚𝑎(𝜃, 1) 
i) Teste: 𝐻0: 𝜃 = 1 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 = 2. A função de verossimilhança é calculada de tal forma: 
𝐿(𝜃; 𝒙) =∏𝜃𝑥𝑖
𝜃−1 =
𝑛
𝑖=1
𝜃𝑛 (∏𝑥𝑖
𝑛
𝑖=1
)
𝜃−1
 
Sob 𝐻1 e 𝐻0, respectivamente, teremos: 
𝐿1(𝒙) = 2
𝑛∏𝑥𝑖
𝑛
𝑖=1
 𝑒 𝐿0(𝒙) = 1
𝑛 (∏𝑥𝑖
𝑛
𝑖=1
)
0
= 1 
Com isso, 
𝐿1(𝒙)
𝐿0(𝒙)
= 2𝑛∏𝑥𝑖
𝑛
𝑖=1
≥ 𝑘 ⇒ ∏𝑥𝑖
𝑛
𝑖=1
≥
𝑘
2𝑛
 ⇒ log∏𝑥𝑖
𝑛
𝑖=1
≥ log
𝑘
2𝑛
 ⇒ ∑ log 𝑥𝑖
𝑛
𝑖=1
≥ log
𝑘
2𝑛
 
Agora, multiplicando em ambos os lados da desigualdade por −1, teremos 
∑−log𝑥𝑖
𝑛
𝑖=1
≤ log
2𝑛
𝑘
= 𝑎 ∎ 
ii) 𝑛 = 2 e 𝛼 = (1 − log 2)/2 
Sob 𝐻0, temos 𝑋 ~ 𝐺𝑎𝑚𝑎(1, 1) ≡ 𝑈(0, 1). 
Propriedade: Seja 𝑋𝑖 ~ 𝑈(0, 1), 𝑖 = 1, . . 𝑛, então ∑ − log𝑋𝑖
𝑛
𝑖=1 ~ 𝐺𝑎𝑚𝑎(𝑛, 1). 
Assim, ainda sob 𝐻0, teremos ∑ − log𝑋𝑖
2
𝑖=1 ~ 𝐺𝑎𝑚𝑎(2, 1). Então, 
1 − log 2
2
= 𝑃𝐻0 (∑− log𝑋𝑖
𝑛
𝑖=1
≤ 𝑎) ⇒ 𝑎 = 0,693 
Logo, a região crítica é dada por: 𝑅𝐶 = {∑ − log 𝑋𝑖
𝑛
𝑖=1 ≤ 0,693}. 
6.4. ------------------------------------------------------------------------------------------------------------------------------------------- 
𝑋 é uma única observação da função densidade dada por: 
𝑓(𝑥|𝜃) = (2𝜃𝑥 + 1 − 𝜃)𝐼(0,1)(𝑥) 
Queremos testar: 
𝐻0: 𝜃 = 0 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 = 1 
i) Para tal procedimento, é necessário calcularmos a função de verossimilhança. Como temos uma única 
observação da função densidade 𝑓(𝑥|𝜃), então a função de verossimilhança será dada por: 
𝐿(𝜃; 𝑥) = 𝑓(𝑥|𝜃) = (2𝜃𝑥 + 1 − 𝜃)𝐼(0,1)(𝑥) 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
Sob 𝐻1: 𝜃 = 1 e 𝐻0: 𝜃 = 0 temos, respectivamente: 
𝐿1(𝑥) = 2𝑥 𝑒 𝐿0(𝑥) = 1 
Ambas funções definidas para 0 < 𝑥 < 1. Caso 𝑥 ∉ (0,1) as funções são nulas. 
Portanto, o teste MP rejeita a hipótese nula se 
𝐿1(𝑥)
𝐿0(𝑥)
≥ 𝑘: 
𝐿1(𝑥)
𝐿0(𝑥)
=
2𝑥
1
= 2𝑥 ≥ 𝑘 ⇒ 𝑥 ≥
𝑘
2
= 𝑐 
Sendo assim, a RC do teste MP é dada por: 𝑅𝐶 = {𝑥 ≥ 𝑐}. 
Agora, para um nível de significância 𝛼, teremos:𝛼 = 𝑃𝐻0(𝑋 ∈ 𝑅𝐶) = 𝑃(𝑋 ≥ 𝑐 | 𝜃 = 0) 
Sob 𝐻0, teremos: 
𝑓(𝑥|0) = (2 ∙ 0 ∙ 𝑥 + 1 − 0)𝐼(0,1)(𝑥) = 𝐼(0,1)(𝑥) 
Ou seja, sob 𝐻0, 𝑋 ~ 𝑈(0,1). Portanto, 
𝛼 = 𝑃(𝑋 ≥ 𝑐 | 𝑋 ~ 𝑈(0,1)) = ∫ 𝑑𝑥
1
𝑐
= 1 − 𝑐 ⇒ 𝛼 = 1 − 𝑐 ⟹ 𝑐 = 1 − 𝛼 
Portanto, o teste MP consiste em rejeitar 𝐻0 se 𝑥 ≥ 1 − 𝛼, isto é: 𝑅𝐶 = {𝑥 ≥ 1 − 𝛼}. 
ii) Dados: 𝛼 = 0,05 e 𝑥 = 0,8. 
Temos que 
1 − 𝛼 = 1 − 0,05 = 0,95 ∴ 𝑥 < 1 − 𝛼 
Logo, 𝑥 ∉ 𝑅𝐶. Assim, não rejeitamos, ao nível de 5%, a hipótese 𝐻0: 𝜃 = 0. 
Poder do Teste: 
𝜋 = 𝑃(𝑟𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻0 | 𝐻0 é 𝑓𝑎𝑙𝑠𝑎) = 𝑃(𝑋 ≥ 0,95 | 𝜃 = 1) 
Pois, como 𝛼 = 0,05, então 𝑅𝐶 = {𝑥 ≥ 0,95}. 
Sob 𝐻1, teremos: 
𝑓(𝑥|1) = (2𝑥 + 1 − 1)𝐼(0,1)(𝑥) = 2𝑥𝐼(0,1)(𝑥) 
Portanto, 
𝜋 = 𝑃(𝑋 ≥ 0,95 | 𝜃 = 1) = ∫ 2𝑥
1
0,95
𝑑𝑥 = 𝑥2|
1
0,95
= 1 − 0,952 = 0,0975 
Poder do teste: 𝜋 = 0,0975. 
6.5. ------------------------------------------------------------------------------------------------------------------------------------------- 
𝑋1, … , 𝑋𝑛 representa uma a.a. da v.a. 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃), 𝜃 > 0. 
Função de verossimilhança: 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
𝐿(𝜃; 𝑥) =∏
𝜃𝑥𝑖𝑒−𝜃
𝑥𝑖 !
𝑛
𝑖=1
= 𝑒−𝑛𝜃𝜃∑ 𝑥𝑖
𝑛
𝑖=1 (∏𝑥𝑖!
𝑛
𝑖=1
)
−1
 
Com 𝑥𝑖 = 0, 1, 2,…, ∀ 𝑖 = 1, 2,… , 𝑛. 
i) Queremos encontrar o teste UMP para testar: 
𝐻0: 𝜃 = 𝜃0 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 > 𝜃0 
Inicialmente, vamos obter o teste MP para testar 𝐻0: 𝜃 = 𝜃0 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 = 𝜃1 (𝜃1 > 𝜃0) . Assim, segundo o 
Lema de Neyman-Pearson, o teste MP rejeita a hipótese nula se 
𝐿1(𝑥)
𝐿0(𝑥)
≥ 𝑘. 
Sob 𝐻1: 𝜃 = 𝜃1 e sob 𝐻0: 𝜃 = 𝜃0 temos, respectivamente: 
𝐿1(𝑥) = 𝑒
−𝑛𝜃1𝜃1
∑ 𝑥𝑖
𝑛
𝑖=1 (∏𝑥𝑖 !
𝑛
𝑖=1
)
−1
 𝑒 𝐿0(𝑥) = 𝑒
−𝑛𝜃0𝜃0
∑ 𝑥𝑖
𝑛
𝑖=1 (∏𝑥𝑖!
𝑛
𝑖=1
)
−1
 
Assim, 
 
𝐿1(𝑥)
𝐿0(𝑥)
=
𝑒−𝑛𝜃1𝜃1
∑ 𝑥𝑖
𝑛
𝑖=1 (∏ 𝑥𝑖 !
𝑛
𝑖=1 )
−1
𝑒−𝑛𝜃0𝜃0
∑ 𝑥𝑖
𝑛
𝑖=1 (∏ 𝑥𝑖!
𝑛
𝑖=1 )
−1 = (
𝜃1
𝜃0
)
∑ 𝑥𝑖
𝑛
𝑖=1
𝑒−𝑛(𝜃1−𝜃0) ≥ 𝑘 ⇒ (
𝜃1
𝜃0
)
∑ 𝑥𝑖
𝑛
𝑖=1
≥ 𝑘𝑒𝑛(𝜃1−𝜃0) 
Aplicando logaritmo: 
∑𝑥𝑖
𝑛
𝑖=1
ln (
𝜃1
𝜃0
) ≥ ln(𝑘𝑒𝑛(𝜃1−𝜃0)) ⇒ ∑𝑥𝑖
𝑛
𝑖=1
≥
ln(𝑘𝑒𝑛(𝜃1−𝜃0))
ln (
𝜃1
𝜃0
)
= 𝑐 
Na última passagem a desigualdade não muda, pois: 
𝜃1 > 𝜃0 ⇒ 
𝜃1
𝜃0
> 1 ⇒ ln (
𝜃1
𝜃0
) > 0 
Agora, como a região crítica do teste MP não depende do particular 𝜃1 especificado em 𝐻1, ela também será 
a RC do teste UMP para testar 𝐻0: 𝜃 = 𝜃0 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 > 𝜃0, ou seja: 
𝑅𝐶 = {∑𝑋𝑖 ≥ 𝑐
𝑛
𝑖=1
} 
ii) Tem-se: 𝛼 = 0,05, 𝑛 = 25 e 𝜃0 = 1. 
𝐻0: 𝜃 = 1 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 > 1 
Vamos obter o valor de 𝑐 para 𝛼 = 0,05: 
𝛼 = 0,05 = 𝑃(𝑟𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻0 | 𝐻0 é 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑖𝑟𝑎) = 𝑃 (∑ 𝑋𝑖 ≥ 𝑐
25
𝑖=1 | 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(1)) 
Como 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(1), então 𝐸(𝑋𝑖) = 1 e 𝑉𝑎𝑟(𝑋𝑖) = 1, para 𝑖 = 1, 2,… , 25. Segundo o Teorema Central do 
Limite, teremos 
𝑍 =
∑ 𝑋𝑖 −∑ 1
25
𝑖=1
25
𝑖=1
√∑ 125𝑖=1
=
∑ 𝑋𝑖 − 25
25
𝑖=1
5
 ~ 𝑁(0, 1) 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
Sendo assim, 
𝛼 = 0,05 = 𝑃 (𝑍 ≥
𝑐 − 25
5
) ⇒ 
𝑐 − 25
5
= 1,64 ⇒ 𝑐 = 1,64 ∙ 5 + 25 ⇒ 𝑐 = 33,2 
Código R: 
> qnorm(0.05, lower.tail = F) 
[1] 1.644854 
Então, 
𝑅𝐶 = {∑𝑋𝑖 ≥ 33,2
25
𝑖=1
} 
A função poder do teste é dada por: 
𝜋(𝜃) = 𝑃(𝑟𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻0 | 𝐻0 é 𝑓𝑎𝑙𝑠𝑎) = 𝑃(∑ 𝑋𝑖 ≥ 33,2
25
𝑖=1 | 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃), 𝜃 > 1) 
Novamente, pelo Teorema Central do Limite, 
𝑍′ =
∑ 𝑋𝑖 −∑ 𝜃
25
𝑖=1
25
𝑖=1
√∑ 𝜃25𝑖=1
=
∑ 𝑋𝑖 − 25𝜃
25
𝑖=1
5√𝜃
 ~ 𝑁(0, 1) 
Portanto, 
𝜋(𝜃) = 𝑃(∑ 𝑋𝑖 ≥ 33,2
25
𝑖=1 | 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃), 𝜃 > 1) = 𝑃 (𝑍
′ ≥
33,2 − 25𝜃
5√𝜃
) 
Equivalentemente, para 𝜃 > 1, teremos 
𝜋(𝜃) = 1 −Φ(
33,2 − 25𝜃
5√𝜃
) 
Plotando o gráfico da função poder do teste no R: 
Código R: 
> theta = seq(1, 2.5, l=50) 
> z = (33.2-25*theta)/(5*sqrt(theta)) 
> poder = 1 - pnorm(z) 
> plot(theta, poder, type = "l", xlab = expression(theta), ylab = expression(pi(theta))) 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
 
6.6. ------------------------------------------------------------------------------------------------------------------------------------------- 
Temos: 𝑋 ~ 𝑁(𝜇𝑋 , 1) e 𝑌 ~ 𝑁(𝜇𝑦, 4) 
i) Queremos testar: 𝐻0: 𝜇𝑋 = 𝜇𝑌 = 0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜇𝑋 = 𝜇𝑌 = 1 
Nesse caso 
Θ0 = {(𝜇𝑋 , 𝜇𝑌): 𝜇𝑋 = 𝜇𝑌 = 0} e Θ = {(𝜇𝑋 , 𝜇𝑌):−∞ < 𝜇𝑋 < ∞,−∞ < 𝜇𝑌 < ∞} 
Fazendo 𝜃 = (𝜇𝑋 , 𝜇𝑌) a função de verossimilhança será dada por: 
𝐿(𝜃; 𝒙; 𝒚) = (2𝜋)−
𝑛
2𝑒−
1
2
∑ (𝑥𝑖−𝜇𝑋)
2𝑛
𝑖=1 × (8𝜋)−
𝑚
2 𝑒−
1
8
∑ (𝑦𝑖−𝜇𝑌)
2𝑚
𝑖=1 
⇒ 𝐿(𝜃; 𝒙; 𝒚) = (2𝜋)−
𝑛
2(8𝜋)−
𝑚
2 𝑒−
1
2
∑ (𝑥𝑖−𝜇𝑋)
2𝑛
𝑖=1 −
1
8
∑ (𝑦𝑖−𝜇𝑌)
2𝑚
𝑖=1 
Sob 𝐻1, temos: 
𝐿1(𝒙; 𝒚) = (2𝜋)
−
𝑛
2(8𝜋)−
𝑚
2 𝑒−
1
2
∑ (𝑥𝑖−1)
2𝑛
𝑖=1 −
1
8
∑ (𝑦𝑖−1)
2𝑚
𝑖=1 
Sob 𝐻0, temos: 
𝐿0(𝒙; 𝒚) = (2𝜋)
−
𝑛
2(8𝜋)−
𝑚
2 𝑒−
1
2
∑ 𝑥𝑖
2𝑛
𝑖=1 −
1
8
∑ 𝑦𝑖
2𝑚
𝑖=1 
Segundo o Lema de Neyman-Pearson, o teste MP rejeita a hipótese nula se 
𝐿1(𝒙;𝒚)
𝐿0(𝒙;𝒚)
≥ 𝑘: 
𝐿1(𝒙; 𝒚)
𝐿0(𝒙; 𝒚)
=
𝑒−
1
2
∑ (𝑥𝑖−1)
2𝑛
𝑖=1 −
1
8
∑ (𝑦𝑖−1)
2𝑚
𝑖=1
𝑒−
1
2
∑ 𝑥𝑖2
𝑛
𝑖=1 −
1
8
∑ 𝑦𝑖2
𝑚
𝑖=1
= 𝑒
∑ 𝑥𝑖−
𝑛
2+
1
4
∑ 𝑦𝑖−
𝑚
8
𝑚
𝑖=1
𝑛
𝑖=1 ≥ 𝑘 
⇒ ∑𝑥𝑖 −
𝑛
2
+
1
4
∑𝑦𝑖 −
𝑚
8
𝑚
𝑖=1
𝑛
𝑖=1
≥ log 𝑘 ⇒ 𝑛�̅� +
𝑚
4
�̅� ≥ log 𝑘 +
𝑛
2
+
𝑚
8
= 𝑐 
Então, a RC do teste MP é dada por: 𝑅𝐶 = {𝑛�̅� +
𝑚
4
�̅� ≥ 𝑐}. 
Encontrando a distribuição de 𝑇 = 𝑛�̅� +
𝑚
4
�̅�: 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
A estatística 𝑛�̅� +
𝑚
4
�̅� terá distribuição normal, agora basta descobrir a sua média e variância. Temos, 
�̅� ~ 𝑁 (𝜇𝑋 ,
1
𝑛
) e �̅� ~ 𝑁 (𝜇𝑌,
4
𝑚
) 
Assim, 
𝐸 [𝑛�̅� +
𝑚
4
�̅�] = 𝑛𝜇𝑋 +
𝑚
4
𝜇𝑌 e 𝑉𝑎𝑟 [𝑛�̅� +
𝑚
4
�̅�] = 𝑛2
1
𝑛
+
𝑚2
42
4
𝑚
= 𝑛 +
𝑚
4
 
Portanto, 
𝑇 = 𝑛�̅� +
𝑚
4
�̅� ~ 𝑁 (𝑛𝜇𝑋 +
𝑚
4
𝜇𝑌 , 𝑛 +
𝑚
4
 ) 
ii) 𝑛 = 9,∑ 𝑥𝑖 = 3,95;𝑚 = 4; ∑ 𝑦𝑖 = 2,03. 
Tem-se: 𝑇 = 9�̅� + �̅� ~ 𝑁(9𝜇𝑋 + 𝜇𝑌, 10 ) 
Sob 𝐻0: 𝑇 ~ 𝑁(0, 10) 
Para 𝛼 = 0,05, teremos: 
0,05 = 𝑃(𝑇 ≥ 𝑐 | 𝑇 ~ 𝑁(0, 10)) ⇒ 𝑐 = 5,201 
Portanto, rejeita-se 𝐻0 se 𝑇 ≥ 5,201. 
Agora, 
𝑇𝑜 = 3,95 +
2,03
4
= 4,4575 ∉ 𝑅𝐶 
Portanto, não rejeitamos a hipótese nula ao nível de 5%. 
Poder do Teste: 
Sob 𝐻1: 𝑇 ~ 𝑁(10, 10). Assim, o poder do teste é dado por 
𝜋 = 𝑃( 𝑇 ≥ 5,201 | 𝑇 ~ 𝑁(10, 10)) = 0,9354 
6.7. ------------------------------------------------------------------------------------------------------------------------------------------- 
𝑋 é uma v.a. com f.d.p. dada por 
𝑓(𝑥|𝜃) =
1
𝜃
𝑥(1−𝜃)/𝜃, 0 < 𝑥 < 1, 𝜃 > 0 
Ou seja, 𝑋 ~ 𝐵𝑒𝑡𝑎 (
1
𝜃
, 1). Então, 𝑋 pertence à família exponencial. 
Queremos testar 𝐻0: 𝜃 ≤ 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 > 𝜃0. 
i) 
O teste UMP para testar 𝐻0: 𝜃 = 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 > 𝜃0 é também UMP para testar 𝐻0: 𝜃 ≤
𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 > 𝜃0, pois a v.a. populacional pertence à família exponencial. Agora, o teste UMP para testar 
𝐻0: 𝜃 = 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 > 𝜃0 é também o teste MP para testar 𝐻0: 𝜃 = 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 = 𝜃1 (𝜃1 > 𝜃0). 
Segundo o Lema de Neyman-Pearson, rejeitamos a hipótese nula se 
𝐿1(𝑥)
𝐿0(𝑥)
≥ 𝑘: 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
𝐿(𝜃; 𝒙) =∏
1
𝜃
𝑥𝑖
(1−𝜃)/𝜃
𝑛
𝑖=1
= 𝜃−𝑛 (∏𝑥𝑖
𝑛
𝑖=1
)
(1−𝜃)/𝜃
 
𝐿1(𝒙)
𝐿0(𝒙)
=
𝜃1
−𝑛(∏ 𝑥𝑖
𝑛
𝑖=1 )
(1−𝜃1)/𝜃1
𝜃0
−𝑛(∏ 𝑥𝑖
𝑛
𝑖=1 )
(1−𝜃0)/𝜃0
= (
𝜃0
𝜃1
)
𝑛
(∏𝑥𝑖
𝑛
𝑖=1
)
1
𝜃0
−
1
𝜃1
≥ 𝑘 ⇒ (∏𝑥𝑖
𝑛
𝑖=1
)
1
𝜃0
−
1
𝜃1
≥ (
𝜃1
𝜃0
)
𝑛
𝑘 
⇒ (
1
𝜃0
−
1
𝜃1
)
⏟ 
<0
log∏𝑥𝑖
𝑛
𝑖=1
≥ log [(
𝜃1
𝜃0
)
𝑛
𝑘] ⇒ log∏𝑥𝑖
𝑛
𝑖=1
≤
log [(
𝜃1
𝜃0
)
𝑛
𝑘]
(
1
𝜃0
−
1
𝜃1
)
 
⇒ −∑log𝑥𝑖
𝑛
𝑖=1
≥
log [(
𝜃1
𝜃0
)
𝑛
𝑘]
(
1
𝜃1
−
1
𝜃0
)
= 𝑐 
Então, 𝑅𝐶= {−∑ log𝑋𝑖
𝑛
𝑖=1 ≥ 𝑐} é a região crítica do teste UMP para testar 𝐻0: 𝜃 ≤ 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 > 𝜃0. 
Descobrindo a distribuição da v.a. 𝑇 = −∑ log 𝑋𝑖
𝑛
𝑖=1 = ∑ − log𝑋𝑖⏟ 
𝑌
𝑛
𝑖=1 = ∑ 𝑌𝑖
𝑛
𝑖=1 . 
Podemos encontrar a distribuição de 𝑌1 pelo método do Jacobiano. O resultado é: 𝑌𝑖 ~ 𝐸𝑥𝑝 (
1
𝜃
) , 𝑖 = 1,… , 𝑛. 
Agora, a soma de variáveis independentes exponencias terá distribuição Gama: 𝑇 = ∑ 𝑌𝑖
𝑛
𝑖=1 ~ 𝐺𝑎𝑚𝑎 (𝑛,
1
𝜃
). 
Assim: 𝑅𝐶 = {−∑ log𝑋𝑖
𝑛
𝑖=1 ≥ 𝑐 | 𝑇 = −∑ log 𝑋𝑖
𝑛
𝑖=1 ~ 𝐺𝑎𝑚𝑎 (𝑛,
1
𝜃0
)} 
ii) 𝑛 = 2, 𝜃0 = 1 e 𝛼 = 0,05 
0,05 = 𝑃(𝑇 ≥ 𝑐 | 𝑇 ~ 𝐺𝑎𝑚𝑎(2, 1)) ⇒ ∫ 𝑥𝑒−𝑥𝑑𝑥 = 0,05
∞
𝑐
 ⇒ 𝑐 = 4,744 
𝑅𝐶 = {−∑log𝑋𝑖
𝑛
𝑖=1
≥ 4,744} 
6.8. ------------------------------------------------------------------------------------------------------------------------------------------- 
𝑋 ~ 𝑁(0, 𝜎2) 
i) 
𝐻0: 𝜎
2 = 𝜎0
2 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜎
2 > 𝜎0
2 
Vamos encontrar o teste MP para testar 𝐻0: 𝜎
2 = 𝜎0
2 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜎
2 = 𝜗 (𝜗 > 𝜎0
2). 
𝐿(𝜎2; 𝒙) =∏(2𝜋𝜎2)−
1
2
𝑛
𝑖=1
𝑒
−
𝑥𝑖
2
2𝜎2 = (2𝜋)−
𝑛
2(𝜎2)−
𝑛
2 exp(−
1
2𝜎2
∑𝑥𝑖
2
𝑛
𝑖=1
) 
𝐿1(𝒙)
𝐿0(𝒙)
=
(2𝜋)−
𝑛
2𝜗−
𝑛
2 exp (−
1
2𝜗
∑ 𝑥𝑖
2𝑛
𝑖=1 )
(2𝜋)−
𝑛
2(𝜎0
2)−
𝑛
2 exp (−
1
2𝜎0
2 ∑ 𝑥𝑖
2𝑛
𝑖=1 )
= (
𝜎0
2
𝜗
)
𝑛
2
⏟ 
>0
exp
(
 
 
(
1
2𝜎0
2 −
1
2𝜗⏟ 
>0
)∑𝑥𝑖
2
𝑛
𝑖=1
)
 
 
≥ 𝑘 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
⇒ exp((
1
2𝜎0
2 −
1
2𝜗
)∑𝑥𝑖
2
𝑛
𝑖=1
) ≥
𝑘
(
𝜎0
2
𝜗
)
𝑛
2
 ⇒ (
1
2𝜎0
2 −
1
2𝜗
)∑𝑥𝑖
2
𝑛
𝑖=1
≥ log
[
 
 
 
 
𝑘
(
𝜎0
2
𝜗
)
𝑛
2
]
 
 
 
 
 
⇒∑𝑥𝑖
2
𝑛
𝑖=1
≥ log
[
 
 
 
 
𝑘
(
𝜎0
2
𝜗
)
𝑛
2
]
 
 
 
 
 (
1
2𝜎0
2 −
1
2𝜗
)⁄ = 𝑐 
Portanto, a RC do teste UMP para testar 𝐻0: 𝜎
2 = 𝜎0
2 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜎
2 > 𝜎0
2 será dada por 
𝑅𝐶 = {∑𝑋𝑖
2
𝑛
𝑖=1
≥ 𝑐} 
ii) 𝛼 = 0,05, 𝑛 = 9 e 𝜎0
2 = 9. 
Hipóteses: 𝐻0: 𝜎
2 = 9 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜎
2 > 9. 
Sob 𝐻0: 𝜎
2 = 9, teremos: 𝑋 ~ 𝑁(0, 9). Portanto, 
𝛼 = 0,05 = 𝑃 (∑ 𝑋𝑖
29
𝑖=1 ≥ 𝑐|𝑋𝑖 ~ 𝑁(0, 9)) = 𝑃 (∑ (
𝑋𝑖
3
)
2
9
𝑖=1 ≥
𝑐
9
 | ∑ (
𝑋𝑖
3
)
2
9
𝑖=1 ~ 𝜒9
2) 
𝑐
9
= 16,919 ⇒ 𝑐 = 152,271 
Nota: 
𝑋𝑖
3
 ~ 𝑁(0, 1), 𝑖 = 1,… ,9 ⇒ ∑ (
𝑋𝑖
3
)
2
9
𝑖=1 ~ 𝜒9
2. 
Logo, a RC do teste será dada por 
𝑅𝐶 = {∑𝑋𝑖
2
𝑛
𝑖=1
≥ 152,271} 
Poder do Teste: 
𝜋(𝜎0
2) = 𝑃(∑ 𝑋𝑖
29
𝑖=1 ≥ 152,271| 𝑋𝑖 ~ 𝑁(0, 𝜎0
2 ), 𝜎2 > 9) 
 
Código R: 
> sigma2 = seq(9, 64, l=128) 
> df = 9 
> q = 152.271 / sigma2 
> poder = pchisq(q, df, lower.tail = F) 
> plot(sigma2, poder, type="l") 
 
 
 
6.9. ------------------------------------------------------------------------------------------------------------------------------------------- 
𝑋 ~ 𝐸𝑥𝑝(𝜃) ⇒ 𝑓(𝑥|𝜃) = 𝜃𝑒−𝜃𝑥𝐼(0,∞)(𝑥), 𝜃 > 0 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
i) Queremos testar: 𝐻0: 𝜃 = 1 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 ≠ 1. 
Neste caso, teremos 
Θ = {𝜃: 𝜃 > 0} e Θ0 = {𝜃: 𝜃 = 1} 
No Exemplo 3.2.3. é verificado que o EMV para este caso é dado por 𝜃 =
1
�̅�
. 
Função de Verossimilhança: 𝐿(𝜃; 𝒙) = 𝜃𝑛𝑒−𝜃∑ 𝑥𝑖
𝑛
𝑖=1 = 𝜃𝑛𝑒−𝜃𝑛�̅�. 
Como 𝐻0: 𝜃 = 1, o numerador de 𝜆(𝒙) será dado por 𝐿(1, 𝒙) = 𝑒
−𝑛�̅�. Então, temos 
𝜆(𝒙) =
𝑒−𝑛�̅�
(1 �̅�⁄ )
𝑛
𝑒−𝑛
= �̅�𝑛𝑒𝑛(1−�̅�) ≤ 𝑐 
Nota-se que se 𝑔(𝑦) = 𝑦𝑛𝑒𝑛(1−𝑦), 𝑦 > 0, então teremos a função log 𝑔(𝑦) = 𝑛 log 𝑦 + 𝑛(1 − 𝑦). É possível 
verificar, usando técnicas do cálculo, que a função log𝑔(𝑦) (𝑔(𝑦) também) será crescente para 𝑦 < 1 e 
decrescente para 𝑦 > 1, com máximo em 𝑦 = 1. Logo, 𝑔(𝑦) ≤ 𝑐 se, e somente se, 𝑦 ≤ 𝑐1 ou 𝑦 ≥ 𝑐2, com 
𝑔(𝑐1) = 𝑔(𝑐2). 
Portanto o TRVG é equivalente a rejeitar 𝐻0 quando 
�̅� ≤ 𝑐1 ou �̅� ≥ 𝑐2 
Isto é: 𝑅𝐶 = {�̅� ≤ 𝑐1 𝑜𝑢 �̅� ≥ 𝑐2}. Neste caso, onde 𝑋 ~ 𝐸𝑥𝑝(𝜃), teremos que �̅� ~ 𝐺𝑎𝑚𝑎(𝑛, 𝑛𝜃). 
ii) 𝑛 = 5, 𝛼 = 0,05: 
Sob 𝐻0: 𝜃 = 1, temos: �̅� ~ 𝐺𝑎𝑚𝑎(5; 5). Com isso, 
0,05 = 𝑃𝐻0(�̅� ≤ 𝑐1 𝑜𝑢 �̅� ≥ 𝑐2) ⇒ 𝑐1 = 0,325 𝑒 𝑐2 = 2,048 
Portanto, temos: 𝑅𝐶 = {𝒙; �̅� ≤ 0,325 𝑜𝑢 �̅� ≥ 2,048}. 
Valor observado: 
�̅�𝑜𝑏𝑠 =
0,8 + 1 + 1 + 0,9 + 1
5
= 0,94 ∉ 𝑅𝐶 
Portanto, não rejeitamos a hipótese nula ao nível de 5%. 
6.10. ----------------------------------------------------------------------------------------------------------------------------- ------------ 
𝑋 ~ 𝑁(𝜇𝑋 , 9) e 𝑌 ~ 𝑁(𝜇𝑌, 25) 
i) 𝐻0: 𝜇𝑋 = 𝜇𝑌 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜇𝑋 ≠ 𝜇𝑌 
Nesse caso 
Θ0 = {(𝜇𝑋 , 𝜇𝑌): 𝜇𝑋 = 𝜇𝑌 = 𝜇, −∞ < 𝜇𝑋 < ∞,−∞ < 𝜇𝑌 < ∞} 
e 
Θ = {(𝜇𝑋 , 𝜇𝑌) : − ∞ < 𝜇𝑋 < ∞,−∞ < 𝜇𝑌 < ∞} 
Em Θ os EMV são dados por 
�̂�𝑋 = �̅� e �̂�𝑌 = �̅�, 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
enquanto que em Θ0 será dado por 
�̂� =
∑ 𝑋𝑖
𝑛
𝑖=1 + ∑ 𝑌𝑖
𝑚
𝑖=1
𝑛 +𝑚
=
𝑛�̅� + 𝑚�̅�
𝑛 +𝑚
 
Temos 
𝑓𝑋(𝑥|𝜇𝑋) =
1
3√2𝜋
𝑒−
1
18
(𝑥−𝜇𝑋)
2
 
⇒ 𝐿𝑋(𝜇𝑋; 𝒙) =∏
1
3√2𝜋
𝑒−
1
18
(𝑥𝑖−𝜇𝑋)
2
𝑛
𝑖=1
= (3√2𝜋)
−𝑛
exp [−
1
18
∑(𝑥𝑖 − 𝜇𝑋)
2
𝑛
𝑖=1
] 
e 
𝑓𝑌(𝑦|𝜇𝑌) =
1
5√2𝜋
𝑒−
1
50
(𝑦−𝜇𝑌)
2
 
⇒ 𝐿𝑌(𝜇𝑌; 𝒚) =∏
1
5√2𝜋
𝑒−
1
50
(𝑦𝑖−𝜇𝑌)
2
𝑚
𝑖=1
= (5√2𝜋)
−𝑚
exp [−
1
50
∑(𝑦𝑖 − 𝜇𝑦)
2
𝑚
𝑖=1
] 
Assim, 
𝐿𝑋,𝑌(𝜇𝑋 , 𝜇𝑌; 𝒙, 𝒚) = (3√2𝜋)
−𝑛
(5√2𝜋)
−𝑚
exp [−
1
18
∑(𝑥𝑖 − 𝜇𝑋)
2
𝑛
𝑖=1
−
1
50
∑(𝑦𝑖 − 𝜇𝑦)
2
𝑚
𝑖=1
]
⏟ 
𝐿𝑋×𝐿𝑌
 
Logo a estatística do TRVG é dada por 
𝜆(𝒙, 𝒚) =
exp [−
1
18
∑ (𝑥𝑖 − �̂�)
2𝑛
𝑖=1 −
1
50
∑ (𝑦𝑖 − �̂�)
2𝑚
𝑖=1 ]
exp [−
1
18
∑ (𝑥𝑖 − �̅�)
2𝑛
𝑖=1 −
1
50
∑ (𝑦𝑖 − �̅�)
2𝑚
𝑖=1 ]
 
Desenvolvendo 𝜆(𝒙, 𝒚): 
⇒ 𝜆(𝒙, 𝒚) = exp [−
1
18
∑(𝑥𝑖 − �̂�)
2
𝑛
𝑖=1
−
1
50
∑(𝑦𝑖 − �̂�)
2
𝑚
𝑖=1
+
1
18
∑(𝑥𝑖 − �̅�)
2
𝑛
𝑖=1
+
1
50
∑(𝑦𝑖 − �̅�)
2
𝑚
𝑖=1
] 
⇒ 𝜆(𝒙, 𝒚) = exp
{
 
 
 
 
1
18
[
 
 
 
 
∑(𝑥𝑖 − �̅�)
2
𝑛
𝑖=1⏟ 
𝐴
−∑(𝑥𝑖 − �̂�)
2
𝑛
𝑖=1⏟ 
𝐵 ]
 
 
 
 
+
1
50
[∑(𝑦𝑖 − �̅�)
2
𝑚
𝑖=1
−∑(𝑦𝑖 − �̂�)
2
𝑚
𝑖=1
]
⏟ 
D }
 
 
 
 
 
Simplificando 𝐴 − 𝐵: 
𝐴 =∑(𝑥𝑖
2 − 2𝑥𝑖 �̅� + �̅�
2) =∑𝑥𝑖
2 − 2�̅�∑𝑥𝑖 +∑�̅�
2 =∑𝑥𝑖
2 − 2𝑛�̅�2 + 𝑛 �̅�2 =∑𝑥𝑖
2 − 𝑛�̅�2 
 
𝐵 =∑(𝑥𝑖
2 − 2𝑥𝑖�̂� + �̂�
2) =∑𝑥𝑖
2 − 2�̂�∑𝑥𝑖 +∑�̂�
2 =∑𝑥𝑖
2 − 2𝑛�̅��̂� + 𝑛 �̂�2 
Então, 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
𝐴 − 𝐵 = −𝑛�̅�2 + 2𝑛�̅��̂� − 𝑛�̂�2 = −𝑛(�̅� − �̂�)2 
O mesmo cálculo é feito para simplificar 𝐷, onde obtém-se 
𝐷 = −𝑚(�̅� − �̂�)2 
Assim, teremos 
𝜆(𝒙, 𝒚) = exp{− [
𝑛
18
(�̅� − �̂�)2
⏟ 
Δ
+
𝑚
50
(�̅� − �̂�)2
⏟ 
Λ
]} 
Desenvolvendo Δ + Λ: 
Δ =
𝑛
18
(�̅� −
𝑛�̅� + 𝑚�̅�
𝑛 +𝑚
)
2
=
𝑛
18
(
𝑛�̅� + 𝑚�̅� − 𝑛�̅� − 𝑚�̅�
𝑛 +𝑚
)
2
=
𝑛
18
[
𝑚(�̅� − �̅�)
𝑛 +𝑚
]
2
=
𝑛𝑚2
18(𝑛 +𝑚)2
(�̅� − �̅�)2 
Com o mesmo procedimento para simplificar Δ pode simplificar Λ, assim 
Λ =
𝑚𝑛2
50(𝑛 + 𝑚)2
(�̅� − �̅�)2 
Agora, para Δ + Λ, tem-se 
Δ + Λ = (�̅� − �̅�)2 [
𝑛𝑚2
18(𝑛 +𝑚)2
+
𝑚𝑛2
50(𝑛 + 𝑚)2
] 
Com isso, a região crítica é tal que 
𝜆(𝒙, 𝒚) = exp{−(�̅� − �̅�)2 [
𝑛𝑚2
18(𝑛 +𝑚)2
+
𝑚𝑛2
50(𝑛 + 𝑚)2
]} ≤ 𝑐 
Desenvolvendo a desigualdade acima: 
(�̅� − �̅�)2 [
𝑛𝑚2
18(𝑛 +𝑚)2
+
𝑚𝑛2
50(𝑛 + 𝑚)2
] ≥ − log 𝑐⏟ 
= log(
1
𝑐)
 ⇒ (�̅� − �̅�)2 ≥
log (
1
𝑐
)
𝑛𝑚2
18(𝑛 + 𝑚)2
+
𝑚𝑛2
50(𝑛 +𝑚)2
 
Equivalentemente, tem-se 
|�̅� − �̅�| ≥ √
log (
1
𝑐
)
𝑛𝑚2
18(𝑛 +𝑚)2
+
𝑚𝑛2
50(𝑛 +𝑚)2
= 𝑎 
Ou seja, rejeita-se 𝐻0 se 
�̅� − �̅� ≤ −𝑎 ou �̅� − �̅� ≥ 𝑎 
Isto é: 𝑅𝐶 = {|�̅� − �̅�| ≥ 𝑎} 
Temos: �̅� ~ 𝑁 (𝜇𝑋 ,
9
𝑛
) e �̅� ~ 𝑁 (𝜇𝑌 ,
25
𝑚
) 
Então, 
�̅� − �̅� ~ 𝑁 (𝜇𝑋 − 𝜇𝑌; 
9
𝑛
+
25
𝑚
) 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
A RC também pode ser dada por: 
𝑅𝐶 =
{
 
 
||
�̅� − �̅�
√9
𝑛
+
25
𝑚
|| ≥ 𝑘
}
 
 
 
Onde,nesse caso, teríamos 
�̅� − �̅�
√9
𝑛
+
25
𝑚
 ~ 𝑁(𝜇𝑋 − 𝜇𝑌, 1) 
E, sob 𝐻0: 
�̅� − �̅�
√9
𝑛
+
25
𝑚
 ~ 𝑁(0,1) 
Conclusão: Portanto a região crítica do TRVG, para testar 𝐻0: 𝜇𝑋 = 𝜇𝑌 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜇𝑋 ≠ 𝜇𝑌, é dada por 
𝑅𝐶 =
{
 
 
||
�̅� − �̅�
√9
𝑛
+
25
𝑚
|| ≥ 𝑧𝛼
2⁄
}
 
 
 
ii) 𝑛 = 9 ; ∑ 𝑥𝑖 = 3,4 ; 𝑚 = 16 ; ∑ 𝑦𝑖 = 4,3 ; 𝛼 = 0,05. 
Sob 𝐻0: 𝑍 =
�̅�−�̅�
√1+
25
16
 ~ 𝑁(0,1) 
Assim, 
0,05 = 𝑃𝐻0 (|𝑍| ≥ 𝑧𝛼 2⁄
) = 𝑃𝐻0 (𝑍 ≤ −𝑧𝛼 2⁄
 𝑜𝑢 𝑍 ≥ 𝑧𝛼
2⁄
) ⇒ 𝑧𝛼
2⁄
= 1,96 
Então, rejeita-se a hipótese nula se 
||
�̅� − �̅�
√1 +
25
16
|| ≥ 1,96 
O valor observado é dado por 
||
0,3778 − 0,2688
√1 +
25
16
|| = 0,068 < 1,96 
Ao nível de 5%, não se rejeita 𝐻0. 
6.11. ----------------------------------------------------------------------------------------------------------------------------- ------------ 
𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃1) e 𝑌 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃2) 
i) 𝐻0: 𝜃1 = 𝜃2 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃1 ≠ 𝜃2 
Nesse caso 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
Θ0 = {(𝜃1, 𝜃2): 𝜃1 = 𝜃2 = 𝜃, 𝜃 > 0} e Θ = {(𝜃1, 𝜃2): 𝜃1 ≠ 𝜃2, 𝜃1 > 0, 𝜃2 > 0} 
Em Θ os EMV são dados por 
𝜃1 = �̅� e 𝜃2 = �̅� 
Encontrando o EMV em Θ0: 
𝐿(𝜃; 𝒙; 𝒚) =
𝑒−𝑛𝜃𝜃∑ 𝑥𝑖
𝑛
𝑖=1
(∏ 𝑥𝑖 !
𝑛
𝑖=1 )
×
𝑒−𝑚𝜃𝜃∑ 𝑦𝑖
𝑚
𝑖=1
(∏ 𝑦𝑖!
𝑛
𝑖=1 )
=
𝑒−𝜃(𝑛+𝑚)𝜃∑ 𝑥𝑖
𝑛
𝑖=1 +∑ 𝑦𝑖
𝑚
𝑖=1
(∏ 𝑥𝑖!
𝑛
𝑖=1 )(∏ 𝑦𝑖!
𝑛
𝑖=1 )
 
Tomando o logaritmo da verossimilhança, teremos 
𝑙(𝜃; 𝒙; 𝒚) = −𝜃(𝑛 +𝑚) + (∑𝑥𝑖
𝑛
𝑖=1
+∑𝑦𝑖
𝑚
𝑖=1
) log 𝜃 − log [(∏𝑥𝑖 !
𝑛
𝑖=1
)(∏𝑦𝑖!
𝑛
𝑖=1
)] 
Agora derivamos em relação a teta 
𝜕 𝑙(𝜃; 𝒙; 𝒚)
𝜕𝜃
= −(𝑛 +𝑚) +
1
𝜃
(∑𝑥𝑖
𝑛
𝑖=1
+∑𝑦𝑖
𝑚
𝑖=1
) =
1
𝜃
(∑𝑥𝑖
𝑛
𝑖=1
+∑𝑦𝑖
𝑚
𝑖=1
) − (𝑛 +𝑚) 
Igualamos a zero: 
1
𝜃
(∑𝑥𝑖
𝑛
𝑖=1
+∑𝑦𝑖
𝑚
𝑖=1
) = 𝑛 + 𝑚 ⇒ 
1
𝜃
=
𝑛 +𝑚
∑ 𝑥𝑖
𝑛
𝑖=1 + ∑ 𝑦𝑖
𝑚
𝑖=1
 
⇒ 𝜃 =
∑ 𝑋𝑖
𝑛
𝑖=1 +∑ 𝑌𝑖
𝑚
𝑖=1
𝑛 +𝑚
=
𝑛�̅� +𝑚�̅�
𝑛 +𝑚
 
Com isso, a estatística do TRVG será dada por 
𝜆(𝐱, 𝐲) =
𝑒−�̂�(𝑛+𝑚)𝜃∑ 𝑥𝑖
𝑛
𝑖=1 +∑ 𝑦𝑖
𝑚
𝑖=1
𝑒−𝑛�̅��̅�∑ 𝑥𝑖
𝑛
𝑖=1 × 𝑒−𝑚�̅��̅�∑ 𝑦𝑖
𝑚
𝑖=1
=
𝑒−(𝑛�̅�+𝑚�̅�)𝜃∑ 𝑥𝑖
𝑛
𝑖=1 +∑ 𝑦𝑖
𝑚
𝑖=1
𝑒−(𝑛�̅�+𝑚�̅�)�̅�∑ 𝑥𝑖
𝑛
𝑖=1 �̅�∑ 𝑦𝑖
𝑚
𝑖=1
=
𝜃∑ 𝑥𝑖
𝑛
𝑖=1 +∑ 𝑦𝑖
𝑚
𝑖=1
�̅�∑ 𝑥𝑖
𝑛
𝑖=1 �̅�∑ 𝑦𝑖
𝑚
𝑖=1
 
Simplificando 𝜆(𝐱, 𝐲) chegamos em 
𝜆(𝐱, 𝐲) = (
𝜃
�̅�
)
∑ 𝑥𝑖
𝑛
𝑖=1
(
𝜃
�̅�
)
∑ 𝑦𝑖
𝑚
𝑖=1
 
Usando o teorema 6.5.1., temos que 
−2 log 𝜆(𝐱, 𝐲) = −2 [∑𝑥𝑖
𝑛
𝑖=1
log (
𝜃
�̅�
) +∑𝑦𝑖
𝑚
𝑖=1
log (
𝜃
�̅�
)] 
tem distribuição aproximadamente 𝜒1
2. 
Portanto a RC do TRVG é dada por 
𝑅𝐶 = {−2 [∑𝑥𝑖
𝑛
𝑖=1
log (
𝜃
�̅�
) +∑𝑦𝑖
𝑚
𝑖=1
log (
𝜃
�̅�
)] ≥ 𝑐} 
ii) 𝑛 = 5; ∑ 𝑥𝑖 = 3,8; 𝑚 = 8; ∑ 𝑦𝑖 = 4,8; 𝛼 = 0,05 
𝑃(𝜒1
2 ≥ 𝑐) = 0,05 ⇒ 𝑐 = 3,841 
 
Resolução do Livro “Introdução à Inferência Estatística” 
 
 
Assim: 𝑅𝐶 = {−2 [∑ 𝑥𝑖
𝑛
𝑖=1 log (
�̂�
�̅�
) +∑ 𝑦𝑖
𝑚
𝑖=1 log (
�̂�
�̅�
)] ≥ 3,841} 
Temos 
𝜃 =
3,8 + 4,8
5 + 8
= 0,662; �̅� =
3,8
5
= 0,76; �̅� =
4,8
8
= 0,6 
Então, 
−2 log 𝜆(𝐱, 𝐲) = −2 [3,8 log (
0,662
0,76
) +4,8 log (
0,662
0,6
)] = 0,105 
Portanto não rejeitamos 𝐻0 ao nível de 5%.

Continue navegando