Baixe o app para aproveitar ainda mais
Prévia do material em texto
Resolução do Livro “Introdução à Inferência Estatística” CAPÍTULO 2 – ESTIMADORES EFICIENTES E ESTATÍSTICAS SUFICIENTES 2.3. ------------------------------------------------------------------------------------------------------------------------------------------- Seja (𝑋1, … , 𝑋2) uma a.a. da v.a. 𝑋 com função densidade de probabilidade dada por 𝑓(𝑥|𝜃) = 𝜃𝑥𝜃−1, 0 < 𝑥 < 1, 𝜃 > 0 Isto é: 𝑋 ~ 𝐵𝑒𝑡𝑎(𝜃, 1) (i) Podemos escrever a f.d.p. da v.a. 𝑋 como 𝑓(𝑥|𝜃) = exp[ln(𝜃𝑥𝜃−1)] = exp[ln 𝜃 + (𝜃 − 1) ln 𝑥] = exp[𝜃 ln 𝑥 + ln 𝜃 − ln 𝑥] Portanto a distribuição de 𝑋 pertence à família exponencial unidimensional com 𝑐(𝜃) = 𝜃, 𝑇(𝑥) = ln 𝑥 , 𝑑(𝜃) = ln 𝜃 , 𝑆(𝑥) = − ln 𝑥 e 𝐴 = {𝑥: 0 < 𝑥 < 1} (ii) Tomando o logaritmo da densidade: log 𝑓(𝑥|𝜃) = 𝜃 log 𝑥 + log 𝜃 − log 𝑥 Derivadas parciais: 𝜕 log 𝑓(𝑥|𝜃) 𝜕𝜃 = log 𝑥 + 1 𝜃 ⇒ 𝜕2 log 𝑓(𝑥|𝜃) 𝜕𝜃2 = − 1 𝜃2 Então a Informação de Fisher de 𝜃 é dada por 𝐼𝐹(𝜃) = −𝐸 [− 1 𝜃2 ] = 1 𝜃2 Com isso, o limite inferior da variância dos estimadores não viciados de 𝜃 é 𝐿𝐼(𝜃) = 𝜃2 𝑛 (iii) Como a distribuição da v.a. 𝑋 pertence à família exponencial, então uma estatística suficiente equivalente para 𝜃 será 𝑇(𝑿) =∑−ln𝑋𝑖 𝑛 𝑖=1 Onde: 𝑇(𝑿) = ∑ − ln𝑋𝑖 𝑛 𝑖=1 ~ 𝐺𝑎𝑚𝑎(𝑛; 𝜃). (iv) Como 𝑇 = ∑ −ln𝑋𝑖 𝑛 𝑖=1 ~ 𝐺𝑎𝑚𝑎(𝑛, 𝜃), então 𝐸[∑ −ln𝑋𝑖 𝑛 𝑖=1 ] = 𝑛 𝜃 . Agora, 𝐸 [ 1 𝑇 ] = ∫ 1 𝑡 ∞ 0 𝜃𝑛 Γ(𝑛) 𝑡𝑛−1𝑒−𝜃𝑡𝑑𝑡 = 𝜃𝑛 Γ(𝑛) ∫ 𝑡𝑛−2 ∞ 0 𝑒−𝜃𝑡𝑑𝑡 Fazendo uma mudança de variável na integral: 𝑢 = 𝜃𝑡 ⇒ 𝑑𝑡 = 𝑑𝑢 𝜃 ; 𝑢 > 0. Resolução do Livro “Introdução à Inferência Estatística” 𝐸 [ 1 𝑇 ] = 𝜃𝑛 Γ(𝑛) ∫ ( 𝑢 𝜃 ) 𝑛−2∞ 0 𝑒−𝑢 𝑑𝑢 𝜃 = 𝜃𝑛 Γ(𝑛) 1 𝜃𝑛−1 ∫ 𝑢𝑛−2 ∞ 0 𝑒−𝑢𝑑𝑢 = 𝜃 Γ(𝑛) ∫ 𝑢𝑛−2 ∞ 0 𝑒−𝑢𝑑𝑢 Ora, ∫ 𝑢𝑛−2 ∞ 0 𝑒−𝑢 = Γ(𝑛 − 1). Logo, 𝐸 [ 1 𝑇 ] = 𝜃 Γ(𝑛 − 1) Γ(𝑛) = 𝜃 (𝑛 − 2)! (𝑛 − 1)! = 𝜃 𝑛 − 1 . Então um estimador não viciado para o parâmetro 𝜃 é dado por 𝜃 = 𝑛 − 1 ∑ −ln𝑋𝑖 𝑛 𝑖=1 , pois 𝐸[𝜃] = 𝐸 [ 𝑛 − 1 ∑ −ln𝑋𝑖 𝑛 𝑖=1 ] = (𝑛 − 1)𝐸 [ 1 ∑ − ln𝑋𝑖 𝑛 𝑖=1 ] = (𝑛 − 1) 𝜃 𝑛 − 1 = 𝜃. Verificando eficiência de 𝜃: 𝑉𝑎𝑟[𝜃] = 𝑉𝑎𝑟 [ 𝑛 − 1 ∑ −ln𝑋𝑖 𝑛 𝑖=1 ] = (𝑛 − 1)2𝑉𝑎𝑟 [ 1 ∑ −ln𝑋𝑖 𝑛 𝑖=1 ] Tem-se: 1 ∑ − ln𝑋𝑖 𝑛 𝑖=1 ~ 𝐼𝑛𝑣 − 𝐺𝑎𝑚𝑎(𝑛, 1/𝜃), então 𝑉𝑎𝑟 [ 1 ∑ − ln𝑋𝑖 𝑛 𝑖=1 ] = 𝜃2 (𝑛 − 1)2(𝑛 − 2) Portanto, 𝑉𝑎𝑟[𝜃] = (𝑛 − 1)2 𝜃2 (𝑛 − 1)2(𝑛 − 2) = 𝜃2 𝑛 − 2 Como 𝑉𝑎𝑟[𝜃] ≠ 𝐿𝐼(𝜃), então 𝜃 = 𝑛−1 ∑ −ln𝑋𝑖 𝑛 𝑖=1 é não eficiente para 𝜃. CAPÍTULO 5 – ESTIMAÇÃO POR INTERVALO 5.4. ------------------------------------------------------------------------------------------------------------------------------------------- (i) 𝑄(𝑿, 𝜃) = −𝜃 log 𝑋 = 𝑔(𝑋) Pelo método do Jacobiano, teremos: 𝑓𝑄(𝑞) = 𝑓𝑋(𝑔 −1(𝑞)) | 𝑑𝑔−1(𝑞) 𝑑𝑞 | 𝑄 = 𝑔(𝑋) = −𝜃 log 𝑋 ⇒ 𝑔−1(𝑄) = 𝑒− 𝑄 𝜃⁄ Resolução do Livro “Introdução à Inferência Estatística” Percebe-se que 𝑞 > 0. Então, 𝑓𝑋(𝑔 −1(𝑄)) | 𝑑𝑔−1(𝑞) 𝑑𝑞 | = 𝜃 (𝑒− 𝑞 𝜃⁄ ) 𝜃−1 | 𝑑 𝑑𝑞 (𝑒− 𝑞 𝜃⁄ )| = 𝜃𝑒− 𝑞(𝜃−1) 𝜃 |− 1 𝜃 𝑒− 𝑞 𝜃⁄ | = 𝑒− 𝑞(𝜃−1) 𝜃 − 𝑞 𝜃 Com isso, chega-se que 𝑓𝑄(𝑞) = 𝑒 −𝑞, 𝑞 > 0 Portanto, 𝑄(𝑿, 𝜃) = −𝜃 log𝑋 é uma quantidade pivotal para 𝜃. Construindo um intervalo de confiança com 𝛾 = 1 − 𝛼: 𝑃[𝜆1 ≤ −𝜃 log𝑋 ≤ 𝜆2] = 1 − 𝛼 𝜆1 ≤ −𝜃 log 𝑋 ≤ 𝜆2 ⇒ 𝜆1 log𝑋 ≥ −𝜃 ≥ 𝜆2 log 𝑋 ⇒ − 𝜆1 log𝑋 ≤ 𝜃 ≤ − 𝜆2 log 𝑋 𝑃 [− 𝜆1 log 𝑋 ≤ 𝜃 ≤ − 𝜆2 log𝑋 ] = 1 − 𝛼 Então, o intervalo de confiança, com 𝛾 = 1 − 𝛼, é dado por: [− 𝜆1 log𝑋 ≤ 𝜃 ≤ − 𝜆2 log𝑋 ] (ii) 𝑌 = (− log𝑋)−1 = − 1 log 𝑋 𝑃 [ 𝑌 2 ≤ 𝜃 ≤ 𝑌] = 𝑃 [− 1 2log 𝑋 ≤ 𝜃 ≤ − 1 log𝑋 ] = 𝑃 [ 1 2 ≤ −𝜃 log𝑋 ≤ 1] = 𝑃 [ 1 2 ≤ 𝑄 ≤ 1] = 𝛾 𝑃 [ 1 2 ≤ 𝑄 ≤ 1] = ∫ 𝑒−𝑞𝑑𝑞 1 1 2 = √𝑒 − 1 𝑒 ⇒ 𝛾 = √𝑒 − 1 𝑒 5.5. ------------------------------------------------------------------------------------------------------------------------------------------- Temos 𝑋 ~ 𝑁(𝜃, 𝜃) Ora, 𝑄(𝑿, 𝜃) = �̅� − 𝜃 𝑆 √𝑛 ⁄ = √𝑛(�̅� − 𝜃) 𝑆 ~ 𝑡𝑛−1 então 𝑄(𝑿, 𝜃) é uma quantidade pivotal para 𝜃. 𝑃 [−𝑡 ≤ √𝑛(�̅� − 𝜃) 𝑆 ≤ 𝑡] = 1 − 𝛼 Agora, Resolução do Livro “Introdução à Inferência Estatística” 𝑡 ≤ √𝑛(�̅� − 𝜃) 𝑆 ≤ 𝑡 ⇒ −𝑡 𝑆 √𝑛 ≤ �̅� − 𝜃 ≤ 𝑡 𝑆 √𝑛 ⇒ �̅� − 𝑡 𝑆 √𝑛 ≤ 𝜃 ≤ �̅� + 𝑡 𝑆 √𝑛 Assim, 𝑃 [�̅� − 𝑡 𝑆 √𝑛 ≤ 𝜃 ≤ �̅� + 𝑡 𝑆 √𝑛 ] = 1 − 𝛼 Logo, [�̅� − 𝑡 𝑆 √𝑛 ; �̅� + 𝑡 𝑆 √𝑛 ] é um intervalo de confiança para o parâmetro 𝜃. 5.6. ------------------------------------------------------------------------------------------------------------------------ Temos que a f.d.p. da v.a. 𝑋 é dada por 𝑓(𝑥|𝜃) = 𝐼(𝜃−1 2⁄ ,𝜃+1 2⁄ )(𝑥) Seja [𝑋(1); 𝑋(𝑛)] um intervalo de confiança para 𝜃, então 𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 𝛾 Agora, 𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 𝑃[𝜃 ∈ (𝑋(1), 𝑋(𝑛))] = 1 − 𝑃[𝜃 ∉ (𝑋(1), 𝑋(𝑛))] Nota-se que: 𝜃 ∉ (𝑋(1), 𝑋(𝑛)) ⟺ 𝜃 < 𝑋(1) ou 𝜃 > 𝑋(𝑛). Equivalentemente, tem-se [(𝑋(1) > 𝜃) ∪ (𝑋(𝑛) < 𝜃)] e é mais fácil de ser calculado, pois (𝑋(1) > 𝜃) e (𝑋(𝑛) < 𝜃) são eventos disjuntos, isto é 𝑃[(𝑋(1) > 𝜃) ∪ (𝑋(𝑛) < 𝜃)] = 𝑃[𝑋(1) > 𝜃] + 𝑃[𝑋(𝑛) < 𝜃] Calculando 𝑃[𝑋(1) > 𝜃]: 𝑃[𝑋(1) > 𝜃] = 𝑃[𝑋1 > 𝜃] × 𝑃[𝑋2 > 𝜃] × …× 𝑃[𝑋𝑛 > 𝜃] = {𝑃[𝑋 > 𝜃]} 𝑛 ⇒ 𝑃[𝑋(1) > 𝜃] = (∫ 𝑑𝑥 𝜃+ 1 2 𝜃 ) 𝑛 = ( 1 2 ) 𝑛 = 1 2𝑛 Calculando 𝑃[𝑋(𝑛) < 𝜃]: 𝑃[𝑋(𝑛) < 𝜃] = 𝑃[𝑋1 < 𝜃, 𝑋2 < 𝜃,… , 𝑋𝑛 < 𝜃] = {𝑃[𝑋 < 𝜃]} 𝑛 ⇒ 𝑃[𝑋(𝑛) < 𝜃] = (∫ 𝑑𝑥 𝜃 𝜃− 1 2 ) 𝑛 = ( 1 2 ) 𝑛 = 1 2𝑛 Com isso, temos 𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 1 − ( 1 2𝑛 + 1 2𝑛 ) = 1 − 2 2𝑛 = 1 − 21−𝑛 = 𝛾 Logo, o coeficiente de confiança para 𝜃 com intervalo dado por [𝑋(1); 𝑋(𝑛)], é 𝛾 = 1 − 2 1−𝑛. Dada uma distribuição simétrica em torno de 𝜃, teremos que Resolução do Livro “Introdução à Inferência Estatística” 𝑃[𝑋 ≥ 𝜃] = 𝑃[𝑋 < 𝜃]⏟ 𝐹𝑋(𝜃) = 1 2 Agora 𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 𝛾, onde foi visto que 𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 1 − {𝑃[𝑋(1) > 𝜃] + 𝑃[𝑋(𝑛) < 𝜃]} ou, equivalentemente, usando as funções de distribuições, 𝑃[𝑋(1) ≤ 𝜃 ≤ 𝑋(𝑛)] = 1 − {[1 − 𝐹𝑋(1)(𝜃)] + 𝐹𝑋(𝑛)(𝜃)} = 𝐹𝑋(1)(𝜃) − 𝐹𝑋(𝑛)(𝜃) É possível verificar que para qualquer v.a. 𝑋 tem-se 𝐹𝑋(1)(𝑢) = 1 − [1 − 𝐹𝑋(𝑢)] 𝑛 e 𝐹𝑋(𝑛)(𝑢) = [𝐹𝑋(𝑢)] 𝑛 Calculando 𝐹𝑋(1)(𝜃): 𝐹𝑋(1)(𝜃) = 1 − [1 − 𝐹𝑋(𝜃)⏟ 𝑃[𝑋≥𝜃] ] 𝑛 = 1 − ( 1 2 ) 𝑛 = 1 − 1 2𝑛 Calculando 𝐹𝑋(𝑛)(𝜃): 𝐹𝑋(𝑛)(𝜃) = [𝐹𝑋(𝜃)] 𝑛 = ( 1 2 ) 𝑛 = 1 2𝑛 Então, tem-se 𝛾 = 1 − 1 2𝑛 − 1 2𝑛 = 1 − 21−𝑛 ∎ Portanto, para qualquer distribuição simétrica em torno de 𝜃 o intervalo de confiança [𝑋(1); 𝑋(𝑛)] para 𝜃 terá coeficiente de confiança 𝛾 = 1 − 21−𝑛. 5.7. ------------------------------------------------------------------------------------------------------------------------------------------- Temos que a f.d.p. da v.a. 𝑋 é dada por 𝑓(𝑥|𝜃) = 𝜃𝑒−𝜃𝑥 , 𝑥 > 0, 𝜃 > 0 Ou seja: 𝑋 ~ 𝐸𝑥𝑝(𝜃). Então, 𝐸[𝑋] = 1 𝜃 e 𝑉𝑎𝑟[𝑋] = 1 𝜃2 Para 𝐸[𝑋]: Foi visto no Exemplo 5.2.1. que 𝑄(𝑿; 𝜃) = 2𝜃 ∑ 𝑋𝑖 𝑛 𝑖=1 ~ 𝜒2𝑛 2 , ou seja, 𝑄(𝑿; 𝜃) pode ser considerada uma quantidade pivotal para 𝜃 e, consequentemente, para 𝐸[𝑋] = 1/𝜃 também. Dado 𝛾 = 1 − 𝛼, tem-se 𝜆1 e 𝜆2 na tabela da distribuição 𝜒2𝑛 2 , de modo que 𝑃 [𝜆1 ≤ 2𝜃∑𝑋𝑖 𝑛 𝑖=1 ≤ 𝜆2] = 𝛾. Ora, Resolução do Livro “Introdução à Inferência Estatística” 𝜆1 ≤ 2𝜃∑𝑋𝑖 𝑛 𝑖=1 ≤ 𝜆2 ⇒ 2 ∑ 𝑋𝑖 𝑛 𝑖=1 𝜆2 ≤ 1 𝜃 ≤ 2∑ 𝑋𝑖 𝑛 𝑖=1 𝜆1 Portanto, um IC para 𝐸[𝑋] = 1 𝜃 com coeficiente de confiança 𝛾 = 1 − 𝛼 é dado por [ 2∑ 𝑋𝑖 𝑛 𝑖=1 𝜆2 ; 2∑ 𝑋𝑖 𝑛 𝑖=1𝜆1 ] De modo que 𝑃( 𝜒2𝑛 2 < 𝜆1) = 𝑃( 𝜒2𝑛 2 > 𝜆2) = 𝛼/2. Para 𝑉𝑎𝑟(𝑋): Encontremos um intervalor de confiança aproximado para 𝑔(𝜃) = 1/𝜃2. Para grandes amostras, e sendo 𝜃 o EMV de 𝜃, temos 𝑔(𝜃) − 𝑔(𝜃) √ (𝑔′(𝜃)) 2 𝑛𝐼𝐹(𝜃) ⁄ 𝑎 ~ 𝑁(0, 1) 𝜃 = �̅�−1 é o EMV do parâmetro 𝜃. Agora, 𝑔(𝜃) = �̅�2 ; 𝑔′(𝜃) = −2(�̅�−1)−3 = −2�̅�3 ; 𝐼𝐹(𝜃) = 𝜃 −2 ⇒ 𝐼𝐹(𝜃) = �̅� 2 Assim, �̅�2 − 1/𝜃2 √(−2�̅� 3)2 𝑛�̅�2 ⁄ = �̅�2 − 1/𝜃2 2�̅�3 �̅�√𝑛 ⁄ = �̅�2 − 1/𝜃2 2�̅�2 √𝑛 ⁄ = √𝑛(�̅�2 − 1/𝜃2) 2�̅�2 𝑎 ~ 𝑁(0, 1) Agora, −𝑧𝛼 2⁄ ≤ �̅�2 − 1 𝜃2 2�̅�2 √𝑛 ⁄ ≤ 𝑧𝛼 2⁄ ⇒ −𝑧𝛼 2⁄ 2�̅�2 √𝑛 ≤ �̅�2 − 1 𝜃2 ≤ 𝑧𝛼 2⁄ 2�̅�2 √𝑛 ⇒ �̅�2 − 𝑧𝛼 2⁄ 2�̅�2 √𝑛 ≤ 1 𝜃2 ≤ �̅�2 + 𝑧𝛼 2⁄ 2�̅�2 √𝑛 Logo, um intervalo de confiança para 𝑉𝑎𝑟(𝑋) é dado por [�̅�2 − 𝑧𝛼 2⁄ 2�̅�2 √𝑛 ; �̅�2 + 𝑧𝛼 2⁄ 2�̅�2 √𝑛 ] onde 𝑃(𝑋 > 𝑧𝛼 2⁄ ) = 𝛼/2. 5.9. ------------------------------------------------------------------------------------------------------------------------------------------- Sejam 𝑋1, … , 𝑋𝑛+1 uma a.a. de tamanho 𝑛 + 1 (𝑛 > 1) da distribuição 𝑁(𝜇, 𝜎 2). (i) Propriedade: Sejam 𝑍 ~ 𝑁(0, 1) e 𝑌 ~ 𝜒𝑛 2 v.a.i., então: 𝑇 = 𝑍 √𝑌 𝑛 ~ 𝑡𝑛 Resolução do Livro “Introdução à Inferência Estatística” Temos que: �̅� ~ 𝑁 (𝜇, 𝜎 2 𝑛⁄ ) e 𝑋𝑛+1 ~ 𝑁(𝜇, 𝜎 2) e são independentes, a partir disso é possível encontrar a distribuição da v.a. �̅� − 𝑋𝑛+1 que vai ser normal, basta encontrar sua média e variância. 𝐸[ �̅� − 𝑋𝑛+1] = 𝐸[�̅�] − 𝐸[𝑋𝑛+1] = 𝜇 − 𝜇 = 0 e 𝑉𝑎𝑟[ �̅� − 𝑋𝑛+1] = 𝜎2 𝑛 + 𝜎2 = (𝑛 + 1) 𝑛 𝜎2 Então �̅� − 𝑋𝑛+1 ~ 𝑁 (0, (𝑛+1) 𝑛 𝜎2), e também 𝑍 = �̅� − 𝑋𝑛+1 𝜎√ (𝑛 + 1) 𝑛 = √𝑛(�̅� − 𝑋𝑛+1) 𝜎√𝑛 + 1 ~ 𝑁(0, 1) Agora, sabe-se que 𝑌 = 𝑛𝑆2 𝜎2 ~ 𝜒𝑛−1 2 Sendo assim, 𝑇 = 𝑍 √ 𝑌 𝑛 − 1 = √𝑛(�̅� − 𝑋𝑛+1) 𝜎√𝑛 + 1 √ 𝑛𝑆2 𝜎2 𝑛 − 1 = √𝑛(�̅� − 𝑋𝑛+1) 𝜎√𝑛 + 1 √𝑛𝑆 𝜎√𝑛 − 1 = (�̅� − 𝑋𝑛+1) √𝑛 + 1 𝑆 √𝑛 − 1 = (√ 𝑛 − 1 𝑛 + 1 ) �̅� − 𝑋𝑛+1 𝑆 ~ 𝑡𝑛−1 Logo, 𝑐 = √ 𝑛 − 1 𝑛 + 1 (ii) Se 𝑛 = 8, então (√ 8 − 1 8 + 1 ) �̅� − 𝑋8+1 𝑆 = ( √7 3 ) �̅� − 𝑋9 𝑆 ~ 𝑡7 Temos �̅� − 𝑘𝑆 ≤ 𝑋9 ≤ �̅� + 𝑘𝑆 ⇒ −𝑘 ≤ 𝑋9 − �̅� 𝑆 ≤ 𝑘 ⇒ − √7 3 𝑘 ≤ ( √7 3 ) �̅� − 𝑋9 𝑆 ≤ √7 3 𝑘 ⇒ 𝑃 [− √7 3 𝑘 ≤ 𝑇 ≤ √7 3 𝑘] = 0,80 Pela simetria da distribuição t, teremos 𝑃 [𝑇 < − √7 3 𝑘] = 𝑃 [𝑇 > √7 3 𝑘] = 0,10 ⇒ √7 3 𝑘 = 1,415 ⇒ 𝑘 = 1,415 × 3 √7 ⇒ 𝑘 = 1,6 > qt(0.1, 7, lower.tail = F) Resolução do Livro “Introdução à Inferência Estatística” [1] 1.414924 CAPÍTULO 6 – TESTES DE HIPÓTESE 6.1. ------------------------------------------------------------------------------------------------------------------------------------------- Temos 𝑓(𝑥|𝜃) = 𝜃2𝑥𝑒−𝜃𝑥, 𝑥, 𝜃 > 0 Ou seja: 𝑋 ~ 𝐺𝑎𝑚𝑎(2, 𝜃) Queremos testar: 𝐻0: 𝜃 = 1 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 = 2 i) 𝑛 = 5 e 𝛼 = 0,05: Função de verossimilhança: 𝐿(𝒙) =∏𝜃2𝑥𝑖𝑒 −𝜃𝑥𝑖 5 𝑖=1 = 𝜃10𝑒−𝜃∑ 𝑥𝑖 5 𝑖=1 ∏𝑥𝑖 5 𝑖=1 Sob 𝐻1 e 𝐻0 temos, respectivamente 𝐿1(𝒙) = 2 10𝑒−2∑ 𝑥𝑖 5 𝑖=1 ∏𝑥𝑖 5 𝑖=1 ; 𝐿0(𝒙) = 𝑒 −∑ 𝑥𝑖 5 𝑖=1 ∏𝑥𝑖 5 𝑖=1 Portanto, o teste MP rejeita 𝐻0 se 𝐿1(𝒙) 𝐿0(𝒙) ≥ 𝑘: 𝐿1(𝒙) 𝐿0(𝒙) = 210𝑒−2∑ 𝑥𝑖 5 𝑖=1 ∏ 𝑥𝑖 5 𝑖=1 𝑒−∑ 𝑥𝑖 5 𝑖=1 ∏ 𝑥𝑖 5 𝑖=1 = 210𝑒−∑ 𝑥𝑖 5 𝑖=1 ≥ 𝑘 ⇒∑𝑥𝑖 5 𝑖=1 ≤ −ln ( 𝑘 210 ) = 𝑐 Portanto a RC do teste MP é dada por: 𝑅𝐶 = {∑ 𝑋𝑖 5 𝑖=1 ≤ 𝑐} Assim, teremos 0,05 = 𝑃𝐻0 (∑𝑋𝑖 5 𝑖=1 ≤ 𝑐) Nota: Para 𝑋𝑖 ~ 𝐺𝑎𝑚𝑎(𝛼; 𝜃), 𝑖 = 1,… , 𝑛, teremos que ∑ 𝑋𝑖 𝑛 𝑖=1 ~ 𝐺𝑎𝑚𝑎(𝑛𝛼; 𝜃). Sob 𝐻0: 𝜃 = 1, temos que ∑ 𝑋𝑖 5 𝑖=1 ~ 𝐺𝑎𝑚𝑎(10; 1), logo 0,05 = 𝑃𝐻0 (∑𝑋𝑖 5 𝑖=1 ≤ 𝑐) ⇒ 𝑐 = 5,425 Código R: > qgamma(0.05, 10, 1) # Para obter c [1] 5.425406 Portanto, chegamos que a região crítica é dada por: 𝑹𝑪 = {∑ 𝑿𝒊 𝟓 𝒊=𝟏 ≤ 𝟓, 𝟒𝟐𝟓} Resolução do Livro “Introdução à Inferência Estatística” b) 𝑛 = 1 O teste que minimiza 𝛼 + 𝛽, possui a seguinte região crítica: 𝑅𝐶 = {𝑥: 𝐿1(𝑥) 𝐿0(𝑥) ≥ 1} Temos, 𝐿1(𝑥) = 4𝑥𝑒 −2𝑥 𝑒 𝐿0(𝑥) = 𝑥𝑒 −𝑥 Com isso, 𝐿1(𝑥) 𝐿0(𝑥) = 4𝑥𝑒−2𝑥 𝑥𝑒−𝑥 = 4𝑒−𝑥 ≥ 1 ⇒ 𝑒−𝑥 ≥ 1 4 ⇒ −𝑥 ≥ ln ( 1 4 ) ⇒ 𝑥 ≤ ln(4) = 1,39 Portanto, o teste minimiza 𝛼 + 𝛽 consiste em rejeitar 𝐻0 se 𝑋 ≤ 1,39. Isto é: 𝑅𝐶 = {𝑋 ≤ 1,39}. O valor de 𝛼 + 𝛽: Temos, 𝛼 = 𝑃(𝑋 ≤ 1,39 | 𝑋~𝐺𝑎𝑚𝑎(2,1)) = 0,405 e 𝛽 = 𝑃(𝑋 > 1,39 | 𝑋~𝐺𝑎𝑚𝑎(2,2)) = 0,235 Então: 𝜶 + 𝜷 = 𝟎, 𝟒𝟎𝟓 + 𝟎, 𝟐𝟑𝟓 = 𝟎, 𝟔𝟒 Código R para obter 𝛼 + 𝛽: > pgamma(1.39, 2, 1) + pgamma(1.39, 2, 2, lower.tail = F) [1] 0.6392156 6.2. ------------------------------------------------------------------------------------------------------------------------------------------- 𝑋 ~ 𝑁(𝜇, 1) 𝐻0: 𝜇 = 0 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜇 = 1 Foi visto no exemplo do slide 12 (Aula-10) que a RC do teste MP para esse problema é dada por: 𝑅𝐶 = {∑𝑋𝑖 ≥ 𝑐 𝑛 𝑖=1 } 𝛼 = 𝛽 = 0,05. Sob 𝐻0: 𝜇 = 0, temos que ∑ 𝑋𝑖 ~ 𝑁(0, 𝑛) 𝑛 𝑖=1 , então 𝛼 = 0,05 = 𝑃(∑ ≥ 𝑐𝑛𝑖=1 | ∑ 𝑋𝑖 ~ 𝑁(0, 𝑛) 𝑛 𝑖=1 ) = 𝑃 (𝑍 ≥ 𝑐 √𝑛 ) ⇒ 𝑐 √𝑛 = 1,64 ⇒ 𝑐 = 1,64√𝑛 Sob 𝐻1: 𝜇 = 1, temos que ∑ 𝑋𝑖 ~ 𝑁(𝑛, 𝑛) 𝑛 𝑖=1 , então 𝛽 = 0,05 = 𝑃(∑ 𝑋𝑖 < 𝑐 𝑛 𝑖=1 | ∑ 𝑋𝑖 ~ 𝑁(𝑛, 𝑛) 𝑛 𝑖=1 ) = 𝑃 (𝑍 < 𝑐 − 𝑛 √𝑛 ) ⇒ 𝑐 − 𝑛 √𝑛 = −1,64 ⇒ 𝑐 = −1,64√𝑛 + 𝑛 Agora, 1,64√𝑛 = −1,64√𝑛 + 𝑛 ⇒ 3,28√𝑛 = 𝑛 ⇒ 𝑛 √𝑛 = 3,28 ⇒ √𝑛 = 3,28 ⇒ 𝑛 = 10,7584 ⇒ 𝑛 = 11 Resolução do Livro “Introdução à Inferência Estatística” 6.3. ------------------------------------------------------------------------------------------------------------------------------------------- Densidade: 𝑓(𝑥|𝜃) = 𝜃𝑥𝜃−1, 0 < 𝑥 < 1, 𝜃 > 0 Equivalentemente: 𝑋 ~ 𝐺𝑎𝑚𝑎(𝜃, 1) i) Teste: 𝐻0: 𝜃 = 1 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 = 2. A função de verossimilhança é calculada de tal forma: 𝐿(𝜃; 𝒙) =∏𝜃𝑥𝑖 𝜃−1 = 𝑛 𝑖=1 𝜃𝑛 (∏𝑥𝑖 𝑛 𝑖=1 ) 𝜃−1 Sob 𝐻1 e 𝐻0, respectivamente, teremos: 𝐿1(𝒙) = 2 𝑛∏𝑥𝑖 𝑛 𝑖=1 𝑒 𝐿0(𝒙) = 1 𝑛 (∏𝑥𝑖 𝑛 𝑖=1 ) 0 = 1 Com isso, 𝐿1(𝒙) 𝐿0(𝒙) = 2𝑛∏𝑥𝑖 𝑛 𝑖=1 ≥ 𝑘 ⇒ ∏𝑥𝑖 𝑛 𝑖=1 ≥ 𝑘 2𝑛 ⇒ log∏𝑥𝑖 𝑛 𝑖=1 ≥ log 𝑘 2𝑛 ⇒ ∑ log 𝑥𝑖 𝑛 𝑖=1 ≥ log 𝑘 2𝑛 Agora, multiplicando em ambos os lados da desigualdade por −1, teremos ∑−log𝑥𝑖 𝑛 𝑖=1 ≤ log 2𝑛 𝑘 = 𝑎 ∎ ii) 𝑛 = 2 e 𝛼 = (1 − log 2)/2 Sob 𝐻0, temos 𝑋 ~ 𝐺𝑎𝑚𝑎(1, 1) ≡ 𝑈(0, 1). Propriedade: Seja 𝑋𝑖 ~ 𝑈(0, 1), 𝑖 = 1, . . 𝑛, então ∑ − log𝑋𝑖 𝑛 𝑖=1 ~ 𝐺𝑎𝑚𝑎(𝑛, 1). Assim, ainda sob 𝐻0, teremos ∑ − log𝑋𝑖 2 𝑖=1 ~ 𝐺𝑎𝑚𝑎(2, 1). Então, 1 − log 2 2 = 𝑃𝐻0 (∑− log𝑋𝑖 𝑛 𝑖=1 ≤ 𝑎) ⇒ 𝑎 = 0,693 Logo, a região crítica é dada por: 𝑅𝐶 = {∑ − log 𝑋𝑖 𝑛 𝑖=1 ≤ 0,693}. 6.4. ------------------------------------------------------------------------------------------------------------------------------------------- 𝑋 é uma única observação da função densidade dada por: 𝑓(𝑥|𝜃) = (2𝜃𝑥 + 1 − 𝜃)𝐼(0,1)(𝑥) Queremos testar: 𝐻0: 𝜃 = 0 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 = 1 i) Para tal procedimento, é necessário calcularmos a função de verossimilhança. Como temos uma única observação da função densidade 𝑓(𝑥|𝜃), então a função de verossimilhança será dada por: 𝐿(𝜃; 𝑥) = 𝑓(𝑥|𝜃) = (2𝜃𝑥 + 1 − 𝜃)𝐼(0,1)(𝑥) Resolução do Livro “Introdução à Inferência Estatística” Sob 𝐻1: 𝜃 = 1 e 𝐻0: 𝜃 = 0 temos, respectivamente: 𝐿1(𝑥) = 2𝑥 𝑒 𝐿0(𝑥) = 1 Ambas funções definidas para 0 < 𝑥 < 1. Caso 𝑥 ∉ (0,1) as funções são nulas. Portanto, o teste MP rejeita a hipótese nula se 𝐿1(𝑥) 𝐿0(𝑥) ≥ 𝑘: 𝐿1(𝑥) 𝐿0(𝑥) = 2𝑥 1 = 2𝑥 ≥ 𝑘 ⇒ 𝑥 ≥ 𝑘 2 = 𝑐 Sendo assim, a RC do teste MP é dada por: 𝑅𝐶 = {𝑥 ≥ 𝑐}. Agora, para um nível de significância 𝛼, teremos:𝛼 = 𝑃𝐻0(𝑋 ∈ 𝑅𝐶) = 𝑃(𝑋 ≥ 𝑐 | 𝜃 = 0) Sob 𝐻0, teremos: 𝑓(𝑥|0) = (2 ∙ 0 ∙ 𝑥 + 1 − 0)𝐼(0,1)(𝑥) = 𝐼(0,1)(𝑥) Ou seja, sob 𝐻0, 𝑋 ~ 𝑈(0,1). Portanto, 𝛼 = 𝑃(𝑋 ≥ 𝑐 | 𝑋 ~ 𝑈(0,1)) = ∫ 𝑑𝑥 1 𝑐 = 1 − 𝑐 ⇒ 𝛼 = 1 − 𝑐 ⟹ 𝑐 = 1 − 𝛼 Portanto, o teste MP consiste em rejeitar 𝐻0 se 𝑥 ≥ 1 − 𝛼, isto é: 𝑅𝐶 = {𝑥 ≥ 1 − 𝛼}. ii) Dados: 𝛼 = 0,05 e 𝑥 = 0,8. Temos que 1 − 𝛼 = 1 − 0,05 = 0,95 ∴ 𝑥 < 1 − 𝛼 Logo, 𝑥 ∉ 𝑅𝐶. Assim, não rejeitamos, ao nível de 5%, a hipótese 𝐻0: 𝜃 = 0. Poder do Teste: 𝜋 = 𝑃(𝑟𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻0 | 𝐻0 é 𝑓𝑎𝑙𝑠𝑎) = 𝑃(𝑋 ≥ 0,95 | 𝜃 = 1) Pois, como 𝛼 = 0,05, então 𝑅𝐶 = {𝑥 ≥ 0,95}. Sob 𝐻1, teremos: 𝑓(𝑥|1) = (2𝑥 + 1 − 1)𝐼(0,1)(𝑥) = 2𝑥𝐼(0,1)(𝑥) Portanto, 𝜋 = 𝑃(𝑋 ≥ 0,95 | 𝜃 = 1) = ∫ 2𝑥 1 0,95 𝑑𝑥 = 𝑥2| 1 0,95 = 1 − 0,952 = 0,0975 Poder do teste: 𝜋 = 0,0975. 6.5. ------------------------------------------------------------------------------------------------------------------------------------------- 𝑋1, … , 𝑋𝑛 representa uma a.a. da v.a. 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃), 𝜃 > 0. Função de verossimilhança: Resolução do Livro “Introdução à Inferência Estatística” 𝐿(𝜃; 𝑥) =∏ 𝜃𝑥𝑖𝑒−𝜃 𝑥𝑖 ! 𝑛 𝑖=1 = 𝑒−𝑛𝜃𝜃∑ 𝑥𝑖 𝑛 𝑖=1 (∏𝑥𝑖! 𝑛 𝑖=1 ) −1 Com 𝑥𝑖 = 0, 1, 2,…, ∀ 𝑖 = 1, 2,… , 𝑛. i) Queremos encontrar o teste UMP para testar: 𝐻0: 𝜃 = 𝜃0 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 > 𝜃0 Inicialmente, vamos obter o teste MP para testar 𝐻0: 𝜃 = 𝜃0 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 = 𝜃1 (𝜃1 > 𝜃0) . Assim, segundo o Lema de Neyman-Pearson, o teste MP rejeita a hipótese nula se 𝐿1(𝑥) 𝐿0(𝑥) ≥ 𝑘. Sob 𝐻1: 𝜃 = 𝜃1 e sob 𝐻0: 𝜃 = 𝜃0 temos, respectivamente: 𝐿1(𝑥) = 𝑒 −𝑛𝜃1𝜃1 ∑ 𝑥𝑖 𝑛 𝑖=1 (∏𝑥𝑖 ! 𝑛 𝑖=1 ) −1 𝑒 𝐿0(𝑥) = 𝑒 −𝑛𝜃0𝜃0 ∑ 𝑥𝑖 𝑛 𝑖=1 (∏𝑥𝑖! 𝑛 𝑖=1 ) −1 Assim, 𝐿1(𝑥) 𝐿0(𝑥) = 𝑒−𝑛𝜃1𝜃1 ∑ 𝑥𝑖 𝑛 𝑖=1 (∏ 𝑥𝑖 ! 𝑛 𝑖=1 ) −1 𝑒−𝑛𝜃0𝜃0 ∑ 𝑥𝑖 𝑛 𝑖=1 (∏ 𝑥𝑖! 𝑛 𝑖=1 ) −1 = ( 𝜃1 𝜃0 ) ∑ 𝑥𝑖 𝑛 𝑖=1 𝑒−𝑛(𝜃1−𝜃0) ≥ 𝑘 ⇒ ( 𝜃1 𝜃0 ) ∑ 𝑥𝑖 𝑛 𝑖=1 ≥ 𝑘𝑒𝑛(𝜃1−𝜃0) Aplicando logaritmo: ∑𝑥𝑖 𝑛 𝑖=1 ln ( 𝜃1 𝜃0 ) ≥ ln(𝑘𝑒𝑛(𝜃1−𝜃0)) ⇒ ∑𝑥𝑖 𝑛 𝑖=1 ≥ ln(𝑘𝑒𝑛(𝜃1−𝜃0)) ln ( 𝜃1 𝜃0 ) = 𝑐 Na última passagem a desigualdade não muda, pois: 𝜃1 > 𝜃0 ⇒ 𝜃1 𝜃0 > 1 ⇒ ln ( 𝜃1 𝜃0 ) > 0 Agora, como a região crítica do teste MP não depende do particular 𝜃1 especificado em 𝐻1, ela também será a RC do teste UMP para testar 𝐻0: 𝜃 = 𝜃0 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 > 𝜃0, ou seja: 𝑅𝐶 = {∑𝑋𝑖 ≥ 𝑐 𝑛 𝑖=1 } ii) Tem-se: 𝛼 = 0,05, 𝑛 = 25 e 𝜃0 = 1. 𝐻0: 𝜃 = 1 𝑐𝑜𝑛𝑡𝑟𝑎 𝐻1: 𝜃 > 1 Vamos obter o valor de 𝑐 para 𝛼 = 0,05: 𝛼 = 0,05 = 𝑃(𝑟𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻0 | 𝐻0 é 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑖𝑟𝑎) = 𝑃 (∑ 𝑋𝑖 ≥ 𝑐 25 𝑖=1 | 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(1)) Como 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(1), então 𝐸(𝑋𝑖) = 1 e 𝑉𝑎𝑟(𝑋𝑖) = 1, para 𝑖 = 1, 2,… , 25. Segundo o Teorema Central do Limite, teremos 𝑍 = ∑ 𝑋𝑖 −∑ 1 25 𝑖=1 25 𝑖=1 √∑ 125𝑖=1 = ∑ 𝑋𝑖 − 25 25 𝑖=1 5 ~ 𝑁(0, 1) Resolução do Livro “Introdução à Inferência Estatística” Sendo assim, 𝛼 = 0,05 = 𝑃 (𝑍 ≥ 𝑐 − 25 5 ) ⇒ 𝑐 − 25 5 = 1,64 ⇒ 𝑐 = 1,64 ∙ 5 + 25 ⇒ 𝑐 = 33,2 Código R: > qnorm(0.05, lower.tail = F) [1] 1.644854 Então, 𝑅𝐶 = {∑𝑋𝑖 ≥ 33,2 25 𝑖=1 } A função poder do teste é dada por: 𝜋(𝜃) = 𝑃(𝑟𝑒𝑗𝑒𝑖𝑡𝑎𝑟 𝐻0 | 𝐻0 é 𝑓𝑎𝑙𝑠𝑎) = 𝑃(∑ 𝑋𝑖 ≥ 33,2 25 𝑖=1 | 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃), 𝜃 > 1) Novamente, pelo Teorema Central do Limite, 𝑍′ = ∑ 𝑋𝑖 −∑ 𝜃 25 𝑖=1 25 𝑖=1 √∑ 𝜃25𝑖=1 = ∑ 𝑋𝑖 − 25𝜃 25 𝑖=1 5√𝜃 ~ 𝑁(0, 1) Portanto, 𝜋(𝜃) = 𝑃(∑ 𝑋𝑖 ≥ 33,2 25 𝑖=1 | 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃), 𝜃 > 1) = 𝑃 (𝑍 ′ ≥ 33,2 − 25𝜃 5√𝜃 ) Equivalentemente, para 𝜃 > 1, teremos 𝜋(𝜃) = 1 −Φ( 33,2 − 25𝜃 5√𝜃 ) Plotando o gráfico da função poder do teste no R: Código R: > theta = seq(1, 2.5, l=50) > z = (33.2-25*theta)/(5*sqrt(theta)) > poder = 1 - pnorm(z) > plot(theta, poder, type = "l", xlab = expression(theta), ylab = expression(pi(theta))) Resolução do Livro “Introdução à Inferência Estatística” 6.6. ------------------------------------------------------------------------------------------------------------------------------------------- Temos: 𝑋 ~ 𝑁(𝜇𝑋 , 1) e 𝑌 ~ 𝑁(𝜇𝑦, 4) i) Queremos testar: 𝐻0: 𝜇𝑋 = 𝜇𝑌 = 0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜇𝑋 = 𝜇𝑌 = 1 Nesse caso Θ0 = {(𝜇𝑋 , 𝜇𝑌): 𝜇𝑋 = 𝜇𝑌 = 0} e Θ = {(𝜇𝑋 , 𝜇𝑌):−∞ < 𝜇𝑋 < ∞,−∞ < 𝜇𝑌 < ∞} Fazendo 𝜃 = (𝜇𝑋 , 𝜇𝑌) a função de verossimilhança será dada por: 𝐿(𝜃; 𝒙; 𝒚) = (2𝜋)− 𝑛 2𝑒− 1 2 ∑ (𝑥𝑖−𝜇𝑋) 2𝑛 𝑖=1 × (8𝜋)− 𝑚 2 𝑒− 1 8 ∑ (𝑦𝑖−𝜇𝑌) 2𝑚 𝑖=1 ⇒ 𝐿(𝜃; 𝒙; 𝒚) = (2𝜋)− 𝑛 2(8𝜋)− 𝑚 2 𝑒− 1 2 ∑ (𝑥𝑖−𝜇𝑋) 2𝑛 𝑖=1 − 1 8 ∑ (𝑦𝑖−𝜇𝑌) 2𝑚 𝑖=1 Sob 𝐻1, temos: 𝐿1(𝒙; 𝒚) = (2𝜋) − 𝑛 2(8𝜋)− 𝑚 2 𝑒− 1 2 ∑ (𝑥𝑖−1) 2𝑛 𝑖=1 − 1 8 ∑ (𝑦𝑖−1) 2𝑚 𝑖=1 Sob 𝐻0, temos: 𝐿0(𝒙; 𝒚) = (2𝜋) − 𝑛 2(8𝜋)− 𝑚 2 𝑒− 1 2 ∑ 𝑥𝑖 2𝑛 𝑖=1 − 1 8 ∑ 𝑦𝑖 2𝑚 𝑖=1 Segundo o Lema de Neyman-Pearson, o teste MP rejeita a hipótese nula se 𝐿1(𝒙;𝒚) 𝐿0(𝒙;𝒚) ≥ 𝑘: 𝐿1(𝒙; 𝒚) 𝐿0(𝒙; 𝒚) = 𝑒− 1 2 ∑ (𝑥𝑖−1) 2𝑛 𝑖=1 − 1 8 ∑ (𝑦𝑖−1) 2𝑚 𝑖=1 𝑒− 1 2 ∑ 𝑥𝑖2 𝑛 𝑖=1 − 1 8 ∑ 𝑦𝑖2 𝑚 𝑖=1 = 𝑒 ∑ 𝑥𝑖− 𝑛 2+ 1 4 ∑ 𝑦𝑖− 𝑚 8 𝑚 𝑖=1 𝑛 𝑖=1 ≥ 𝑘 ⇒ ∑𝑥𝑖 − 𝑛 2 + 1 4 ∑𝑦𝑖 − 𝑚 8 𝑚 𝑖=1 𝑛 𝑖=1 ≥ log 𝑘 ⇒ 𝑛�̅� + 𝑚 4 �̅� ≥ log 𝑘 + 𝑛 2 + 𝑚 8 = 𝑐 Então, a RC do teste MP é dada por: 𝑅𝐶 = {𝑛�̅� + 𝑚 4 �̅� ≥ 𝑐}. Encontrando a distribuição de 𝑇 = 𝑛�̅� + 𝑚 4 �̅�: Resolução do Livro “Introdução à Inferência Estatística” A estatística 𝑛�̅� + 𝑚 4 �̅� terá distribuição normal, agora basta descobrir a sua média e variância. Temos, �̅� ~ 𝑁 (𝜇𝑋 , 1 𝑛 ) e �̅� ~ 𝑁 (𝜇𝑌, 4 𝑚 ) Assim, 𝐸 [𝑛�̅� + 𝑚 4 �̅�] = 𝑛𝜇𝑋 + 𝑚 4 𝜇𝑌 e 𝑉𝑎𝑟 [𝑛�̅� + 𝑚 4 �̅�] = 𝑛2 1 𝑛 + 𝑚2 42 4 𝑚 = 𝑛 + 𝑚 4 Portanto, 𝑇 = 𝑛�̅� + 𝑚 4 �̅� ~ 𝑁 (𝑛𝜇𝑋 + 𝑚 4 𝜇𝑌 , 𝑛 + 𝑚 4 ) ii) 𝑛 = 9,∑ 𝑥𝑖 = 3,95;𝑚 = 4; ∑ 𝑦𝑖 = 2,03. Tem-se: 𝑇 = 9�̅� + �̅� ~ 𝑁(9𝜇𝑋 + 𝜇𝑌, 10 ) Sob 𝐻0: 𝑇 ~ 𝑁(0, 10) Para 𝛼 = 0,05, teremos: 0,05 = 𝑃(𝑇 ≥ 𝑐 | 𝑇 ~ 𝑁(0, 10)) ⇒ 𝑐 = 5,201 Portanto, rejeita-se 𝐻0 se 𝑇 ≥ 5,201. Agora, 𝑇𝑜 = 3,95 + 2,03 4 = 4,4575 ∉ 𝑅𝐶 Portanto, não rejeitamos a hipótese nula ao nível de 5%. Poder do Teste: Sob 𝐻1: 𝑇 ~ 𝑁(10, 10). Assim, o poder do teste é dado por 𝜋 = 𝑃( 𝑇 ≥ 5,201 | 𝑇 ~ 𝑁(10, 10)) = 0,9354 6.7. ------------------------------------------------------------------------------------------------------------------------------------------- 𝑋 é uma v.a. com f.d.p. dada por 𝑓(𝑥|𝜃) = 1 𝜃 𝑥(1−𝜃)/𝜃, 0 < 𝑥 < 1, 𝜃 > 0 Ou seja, 𝑋 ~ 𝐵𝑒𝑡𝑎 ( 1 𝜃 , 1). Então, 𝑋 pertence à família exponencial. Queremos testar 𝐻0: 𝜃 ≤ 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 > 𝜃0. i) O teste UMP para testar 𝐻0: 𝜃 = 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 > 𝜃0 é também UMP para testar 𝐻0: 𝜃 ≤ 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 > 𝜃0, pois a v.a. populacional pertence à família exponencial. Agora, o teste UMP para testar 𝐻0: 𝜃 = 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 > 𝜃0 é também o teste MP para testar 𝐻0: 𝜃 = 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 = 𝜃1 (𝜃1 > 𝜃0). Segundo o Lema de Neyman-Pearson, rejeitamos a hipótese nula se 𝐿1(𝑥) 𝐿0(𝑥) ≥ 𝑘: Resolução do Livro “Introdução à Inferência Estatística” 𝐿(𝜃; 𝒙) =∏ 1 𝜃 𝑥𝑖 (1−𝜃)/𝜃 𝑛 𝑖=1 = 𝜃−𝑛 (∏𝑥𝑖 𝑛 𝑖=1 ) (1−𝜃)/𝜃 𝐿1(𝒙) 𝐿0(𝒙) = 𝜃1 −𝑛(∏ 𝑥𝑖 𝑛 𝑖=1 ) (1−𝜃1)/𝜃1 𝜃0 −𝑛(∏ 𝑥𝑖 𝑛 𝑖=1 ) (1−𝜃0)/𝜃0 = ( 𝜃0 𝜃1 ) 𝑛 (∏𝑥𝑖 𝑛 𝑖=1 ) 1 𝜃0 − 1 𝜃1 ≥ 𝑘 ⇒ (∏𝑥𝑖 𝑛 𝑖=1 ) 1 𝜃0 − 1 𝜃1 ≥ ( 𝜃1 𝜃0 ) 𝑛 𝑘 ⇒ ( 1 𝜃0 − 1 𝜃1 ) ⏟ <0 log∏𝑥𝑖 𝑛 𝑖=1 ≥ log [( 𝜃1 𝜃0 ) 𝑛 𝑘] ⇒ log∏𝑥𝑖 𝑛 𝑖=1 ≤ log [( 𝜃1 𝜃0 ) 𝑛 𝑘] ( 1 𝜃0 − 1 𝜃1 ) ⇒ −∑log𝑥𝑖 𝑛 𝑖=1 ≥ log [( 𝜃1 𝜃0 ) 𝑛 𝑘] ( 1 𝜃1 − 1 𝜃0 ) = 𝑐 Então, 𝑅𝐶= {−∑ log𝑋𝑖 𝑛 𝑖=1 ≥ 𝑐} é a região crítica do teste UMP para testar 𝐻0: 𝜃 ≤ 𝜃0 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 > 𝜃0. Descobrindo a distribuição da v.a. 𝑇 = −∑ log 𝑋𝑖 𝑛 𝑖=1 = ∑ − log𝑋𝑖⏟ 𝑌 𝑛 𝑖=1 = ∑ 𝑌𝑖 𝑛 𝑖=1 . Podemos encontrar a distribuição de 𝑌1 pelo método do Jacobiano. O resultado é: 𝑌𝑖 ~ 𝐸𝑥𝑝 ( 1 𝜃 ) , 𝑖 = 1,… , 𝑛. Agora, a soma de variáveis independentes exponencias terá distribuição Gama: 𝑇 = ∑ 𝑌𝑖 𝑛 𝑖=1 ~ 𝐺𝑎𝑚𝑎 (𝑛, 1 𝜃 ). Assim: 𝑅𝐶 = {−∑ log𝑋𝑖 𝑛 𝑖=1 ≥ 𝑐 | 𝑇 = −∑ log 𝑋𝑖 𝑛 𝑖=1 ~ 𝐺𝑎𝑚𝑎 (𝑛, 1 𝜃0 )} ii) 𝑛 = 2, 𝜃0 = 1 e 𝛼 = 0,05 0,05 = 𝑃(𝑇 ≥ 𝑐 | 𝑇 ~ 𝐺𝑎𝑚𝑎(2, 1)) ⇒ ∫ 𝑥𝑒−𝑥𝑑𝑥 = 0,05 ∞ 𝑐 ⇒ 𝑐 = 4,744 𝑅𝐶 = {−∑log𝑋𝑖 𝑛 𝑖=1 ≥ 4,744} 6.8. ------------------------------------------------------------------------------------------------------------------------------------------- 𝑋 ~ 𝑁(0, 𝜎2) i) 𝐻0: 𝜎 2 = 𝜎0 2 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜎 2 > 𝜎0 2 Vamos encontrar o teste MP para testar 𝐻0: 𝜎 2 = 𝜎0 2 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜎 2 = 𝜗 (𝜗 > 𝜎0 2). 𝐿(𝜎2; 𝒙) =∏(2𝜋𝜎2)− 1 2 𝑛 𝑖=1 𝑒 − 𝑥𝑖 2 2𝜎2 = (2𝜋)− 𝑛 2(𝜎2)− 𝑛 2 exp(− 1 2𝜎2 ∑𝑥𝑖 2 𝑛 𝑖=1 ) 𝐿1(𝒙) 𝐿0(𝒙) = (2𝜋)− 𝑛 2𝜗− 𝑛 2 exp (− 1 2𝜗 ∑ 𝑥𝑖 2𝑛 𝑖=1 ) (2𝜋)− 𝑛 2(𝜎0 2)− 𝑛 2 exp (− 1 2𝜎0 2 ∑ 𝑥𝑖 2𝑛 𝑖=1 ) = ( 𝜎0 2 𝜗 ) 𝑛 2 ⏟ >0 exp ( ( 1 2𝜎0 2 − 1 2𝜗⏟ >0 )∑𝑥𝑖 2 𝑛 𝑖=1 ) ≥ 𝑘 Resolução do Livro “Introdução à Inferência Estatística” ⇒ exp(( 1 2𝜎0 2 − 1 2𝜗 )∑𝑥𝑖 2 𝑛 𝑖=1 ) ≥ 𝑘 ( 𝜎0 2 𝜗 ) 𝑛 2 ⇒ ( 1 2𝜎0 2 − 1 2𝜗 )∑𝑥𝑖 2 𝑛 𝑖=1 ≥ log [ 𝑘 ( 𝜎0 2 𝜗 ) 𝑛 2 ] ⇒∑𝑥𝑖 2 𝑛 𝑖=1 ≥ log [ 𝑘 ( 𝜎0 2 𝜗 ) 𝑛 2 ] ( 1 2𝜎0 2 − 1 2𝜗 )⁄ = 𝑐 Portanto, a RC do teste UMP para testar 𝐻0: 𝜎 2 = 𝜎0 2 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜎 2 > 𝜎0 2 será dada por 𝑅𝐶 = {∑𝑋𝑖 2 𝑛 𝑖=1 ≥ 𝑐} ii) 𝛼 = 0,05, 𝑛 = 9 e 𝜎0 2 = 9. Hipóteses: 𝐻0: 𝜎 2 = 9 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜎 2 > 9. Sob 𝐻0: 𝜎 2 = 9, teremos: 𝑋 ~ 𝑁(0, 9). Portanto, 𝛼 = 0,05 = 𝑃 (∑ 𝑋𝑖 29 𝑖=1 ≥ 𝑐|𝑋𝑖 ~ 𝑁(0, 9)) = 𝑃 (∑ ( 𝑋𝑖 3 ) 2 9 𝑖=1 ≥ 𝑐 9 | ∑ ( 𝑋𝑖 3 ) 2 9 𝑖=1 ~ 𝜒9 2) 𝑐 9 = 16,919 ⇒ 𝑐 = 152,271 Nota: 𝑋𝑖 3 ~ 𝑁(0, 1), 𝑖 = 1,… ,9 ⇒ ∑ ( 𝑋𝑖 3 ) 2 9 𝑖=1 ~ 𝜒9 2. Logo, a RC do teste será dada por 𝑅𝐶 = {∑𝑋𝑖 2 𝑛 𝑖=1 ≥ 152,271} Poder do Teste: 𝜋(𝜎0 2) = 𝑃(∑ 𝑋𝑖 29 𝑖=1 ≥ 152,271| 𝑋𝑖 ~ 𝑁(0, 𝜎0 2 ), 𝜎2 > 9) Código R: > sigma2 = seq(9, 64, l=128) > df = 9 > q = 152.271 / sigma2 > poder = pchisq(q, df, lower.tail = F) > plot(sigma2, poder, type="l") 6.9. ------------------------------------------------------------------------------------------------------------------------------------------- 𝑋 ~ 𝐸𝑥𝑝(𝜃) ⇒ 𝑓(𝑥|𝜃) = 𝜃𝑒−𝜃𝑥𝐼(0,∞)(𝑥), 𝜃 > 0 Resolução do Livro “Introdução à Inferência Estatística” i) Queremos testar: 𝐻0: 𝜃 = 1 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃 ≠ 1. Neste caso, teremos Θ = {𝜃: 𝜃 > 0} e Θ0 = {𝜃: 𝜃 = 1} No Exemplo 3.2.3. é verificado que o EMV para este caso é dado por 𝜃 = 1 �̅� . Função de Verossimilhança: 𝐿(𝜃; 𝒙) = 𝜃𝑛𝑒−𝜃∑ 𝑥𝑖 𝑛 𝑖=1 = 𝜃𝑛𝑒−𝜃𝑛�̅�. Como 𝐻0: 𝜃 = 1, o numerador de 𝜆(𝒙) será dado por 𝐿(1, 𝒙) = 𝑒 −𝑛�̅�. Então, temos 𝜆(𝒙) = 𝑒−𝑛�̅� (1 �̅�⁄ ) 𝑛 𝑒−𝑛 = �̅�𝑛𝑒𝑛(1−�̅�) ≤ 𝑐 Nota-se que se 𝑔(𝑦) = 𝑦𝑛𝑒𝑛(1−𝑦), 𝑦 > 0, então teremos a função log 𝑔(𝑦) = 𝑛 log 𝑦 + 𝑛(1 − 𝑦). É possível verificar, usando técnicas do cálculo, que a função log𝑔(𝑦) (𝑔(𝑦) também) será crescente para 𝑦 < 1 e decrescente para 𝑦 > 1, com máximo em 𝑦 = 1. Logo, 𝑔(𝑦) ≤ 𝑐 se, e somente se, 𝑦 ≤ 𝑐1 ou 𝑦 ≥ 𝑐2, com 𝑔(𝑐1) = 𝑔(𝑐2). Portanto o TRVG é equivalente a rejeitar 𝐻0 quando �̅� ≤ 𝑐1 ou �̅� ≥ 𝑐2 Isto é: 𝑅𝐶 = {�̅� ≤ 𝑐1 𝑜𝑢 �̅� ≥ 𝑐2}. Neste caso, onde 𝑋 ~ 𝐸𝑥𝑝(𝜃), teremos que �̅� ~ 𝐺𝑎𝑚𝑎(𝑛, 𝑛𝜃). ii) 𝑛 = 5, 𝛼 = 0,05: Sob 𝐻0: 𝜃 = 1, temos: �̅� ~ 𝐺𝑎𝑚𝑎(5; 5). Com isso, 0,05 = 𝑃𝐻0(�̅� ≤ 𝑐1 𝑜𝑢 �̅� ≥ 𝑐2) ⇒ 𝑐1 = 0,325 𝑒 𝑐2 = 2,048 Portanto, temos: 𝑅𝐶 = {𝒙; �̅� ≤ 0,325 𝑜𝑢 �̅� ≥ 2,048}. Valor observado: �̅�𝑜𝑏𝑠 = 0,8 + 1 + 1 + 0,9 + 1 5 = 0,94 ∉ 𝑅𝐶 Portanto, não rejeitamos a hipótese nula ao nível de 5%. 6.10. ----------------------------------------------------------------------------------------------------------------------------- ------------ 𝑋 ~ 𝑁(𝜇𝑋 , 9) e 𝑌 ~ 𝑁(𝜇𝑌, 25) i) 𝐻0: 𝜇𝑋 = 𝜇𝑌 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜇𝑋 ≠ 𝜇𝑌 Nesse caso Θ0 = {(𝜇𝑋 , 𝜇𝑌): 𝜇𝑋 = 𝜇𝑌 = 𝜇, −∞ < 𝜇𝑋 < ∞,−∞ < 𝜇𝑌 < ∞} e Θ = {(𝜇𝑋 , 𝜇𝑌) : − ∞ < 𝜇𝑋 < ∞,−∞ < 𝜇𝑌 < ∞} Em Θ os EMV são dados por �̂�𝑋 = �̅� e �̂�𝑌 = �̅�, Resolução do Livro “Introdução à Inferência Estatística” enquanto que em Θ0 será dado por �̂� = ∑ 𝑋𝑖 𝑛 𝑖=1 + ∑ 𝑌𝑖 𝑚 𝑖=1 𝑛 +𝑚 = 𝑛�̅� + 𝑚�̅� 𝑛 +𝑚 Temos 𝑓𝑋(𝑥|𝜇𝑋) = 1 3√2𝜋 𝑒− 1 18 (𝑥−𝜇𝑋) 2 ⇒ 𝐿𝑋(𝜇𝑋; 𝒙) =∏ 1 3√2𝜋 𝑒− 1 18 (𝑥𝑖−𝜇𝑋) 2 𝑛 𝑖=1 = (3√2𝜋) −𝑛 exp [− 1 18 ∑(𝑥𝑖 − 𝜇𝑋) 2 𝑛 𝑖=1 ] e 𝑓𝑌(𝑦|𝜇𝑌) = 1 5√2𝜋 𝑒− 1 50 (𝑦−𝜇𝑌) 2 ⇒ 𝐿𝑌(𝜇𝑌; 𝒚) =∏ 1 5√2𝜋 𝑒− 1 50 (𝑦𝑖−𝜇𝑌) 2 𝑚 𝑖=1 = (5√2𝜋) −𝑚 exp [− 1 50 ∑(𝑦𝑖 − 𝜇𝑦) 2 𝑚 𝑖=1 ] Assim, 𝐿𝑋,𝑌(𝜇𝑋 , 𝜇𝑌; 𝒙, 𝒚) = (3√2𝜋) −𝑛 (5√2𝜋) −𝑚 exp [− 1 18 ∑(𝑥𝑖 − 𝜇𝑋) 2 𝑛 𝑖=1 − 1 50 ∑(𝑦𝑖 − 𝜇𝑦) 2 𝑚 𝑖=1 ] ⏟ 𝐿𝑋×𝐿𝑌 Logo a estatística do TRVG é dada por 𝜆(𝒙, 𝒚) = exp [− 1 18 ∑ (𝑥𝑖 − �̂�) 2𝑛 𝑖=1 − 1 50 ∑ (𝑦𝑖 − �̂�) 2𝑚 𝑖=1 ] exp [− 1 18 ∑ (𝑥𝑖 − �̅�) 2𝑛 𝑖=1 − 1 50 ∑ (𝑦𝑖 − �̅�) 2𝑚 𝑖=1 ] Desenvolvendo 𝜆(𝒙, 𝒚): ⇒ 𝜆(𝒙, 𝒚) = exp [− 1 18 ∑(𝑥𝑖 − �̂�) 2 𝑛 𝑖=1 − 1 50 ∑(𝑦𝑖 − �̂�) 2 𝑚 𝑖=1 + 1 18 ∑(𝑥𝑖 − �̅�) 2 𝑛 𝑖=1 + 1 50 ∑(𝑦𝑖 − �̅�) 2 𝑚 𝑖=1 ] ⇒ 𝜆(𝒙, 𝒚) = exp { 1 18 [ ∑(𝑥𝑖 − �̅�) 2 𝑛 𝑖=1⏟ 𝐴 −∑(𝑥𝑖 − �̂�) 2 𝑛 𝑖=1⏟ 𝐵 ] + 1 50 [∑(𝑦𝑖 − �̅�) 2 𝑚 𝑖=1 −∑(𝑦𝑖 − �̂�) 2 𝑚 𝑖=1 ] ⏟ D } Simplificando 𝐴 − 𝐵: 𝐴 =∑(𝑥𝑖 2 − 2𝑥𝑖 �̅� + �̅� 2) =∑𝑥𝑖 2 − 2�̅�∑𝑥𝑖 +∑�̅� 2 =∑𝑥𝑖 2 − 2𝑛�̅�2 + 𝑛 �̅�2 =∑𝑥𝑖 2 − 𝑛�̅�2 𝐵 =∑(𝑥𝑖 2 − 2𝑥𝑖�̂� + �̂� 2) =∑𝑥𝑖 2 − 2�̂�∑𝑥𝑖 +∑�̂� 2 =∑𝑥𝑖 2 − 2𝑛�̅��̂� + 𝑛 �̂�2 Então, Resolução do Livro “Introdução à Inferência Estatística” 𝐴 − 𝐵 = −𝑛�̅�2 + 2𝑛�̅��̂� − 𝑛�̂�2 = −𝑛(�̅� − �̂�)2 O mesmo cálculo é feito para simplificar 𝐷, onde obtém-se 𝐷 = −𝑚(�̅� − �̂�)2 Assim, teremos 𝜆(𝒙, 𝒚) = exp{− [ 𝑛 18 (�̅� − �̂�)2 ⏟ Δ + 𝑚 50 (�̅� − �̂�)2 ⏟ Λ ]} Desenvolvendo Δ + Λ: Δ = 𝑛 18 (�̅� − 𝑛�̅� + 𝑚�̅� 𝑛 +𝑚 ) 2 = 𝑛 18 ( 𝑛�̅� + 𝑚�̅� − 𝑛�̅� − 𝑚�̅� 𝑛 +𝑚 ) 2 = 𝑛 18 [ 𝑚(�̅� − �̅�) 𝑛 +𝑚 ] 2 = 𝑛𝑚2 18(𝑛 +𝑚)2 (�̅� − �̅�)2 Com o mesmo procedimento para simplificar Δ pode simplificar Λ, assim Λ = 𝑚𝑛2 50(𝑛 + 𝑚)2 (�̅� − �̅�)2 Agora, para Δ + Λ, tem-se Δ + Λ = (�̅� − �̅�)2 [ 𝑛𝑚2 18(𝑛 +𝑚)2 + 𝑚𝑛2 50(𝑛 + 𝑚)2 ] Com isso, a região crítica é tal que 𝜆(𝒙, 𝒚) = exp{−(�̅� − �̅�)2 [ 𝑛𝑚2 18(𝑛 +𝑚)2 + 𝑚𝑛2 50(𝑛 + 𝑚)2 ]} ≤ 𝑐 Desenvolvendo a desigualdade acima: (�̅� − �̅�)2 [ 𝑛𝑚2 18(𝑛 +𝑚)2 + 𝑚𝑛2 50(𝑛 + 𝑚)2 ] ≥ − log 𝑐⏟ = log( 1 𝑐) ⇒ (�̅� − �̅�)2 ≥ log ( 1 𝑐 ) 𝑛𝑚2 18(𝑛 + 𝑚)2 + 𝑚𝑛2 50(𝑛 +𝑚)2 Equivalentemente, tem-se |�̅� − �̅�| ≥ √ log ( 1 𝑐 ) 𝑛𝑚2 18(𝑛 +𝑚)2 + 𝑚𝑛2 50(𝑛 +𝑚)2 = 𝑎 Ou seja, rejeita-se 𝐻0 se �̅� − �̅� ≤ −𝑎 ou �̅� − �̅� ≥ 𝑎 Isto é: 𝑅𝐶 = {|�̅� − �̅�| ≥ 𝑎} Temos: �̅� ~ 𝑁 (𝜇𝑋 , 9 𝑛 ) e �̅� ~ 𝑁 (𝜇𝑌 , 25 𝑚 ) Então, �̅� − �̅� ~ 𝑁 (𝜇𝑋 − 𝜇𝑌; 9 𝑛 + 25 𝑚 ) Resolução do Livro “Introdução à Inferência Estatística” A RC também pode ser dada por: 𝑅𝐶 = { || �̅� − �̅� √9 𝑛 + 25 𝑚 || ≥ 𝑘 } Onde,nesse caso, teríamos �̅� − �̅� √9 𝑛 + 25 𝑚 ~ 𝑁(𝜇𝑋 − 𝜇𝑌, 1) E, sob 𝐻0: �̅� − �̅� √9 𝑛 + 25 𝑚 ~ 𝑁(0,1) Conclusão: Portanto a região crítica do TRVG, para testar 𝐻0: 𝜇𝑋 = 𝜇𝑌 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜇𝑋 ≠ 𝜇𝑌, é dada por 𝑅𝐶 = { || �̅� − �̅� √9 𝑛 + 25 𝑚 || ≥ 𝑧𝛼 2⁄ } ii) 𝑛 = 9 ; ∑ 𝑥𝑖 = 3,4 ; 𝑚 = 16 ; ∑ 𝑦𝑖 = 4,3 ; 𝛼 = 0,05. Sob 𝐻0: 𝑍 = �̅�−�̅� √1+ 25 16 ~ 𝑁(0,1) Assim, 0,05 = 𝑃𝐻0 (|𝑍| ≥ 𝑧𝛼 2⁄ ) = 𝑃𝐻0 (𝑍 ≤ −𝑧𝛼 2⁄ 𝑜𝑢 𝑍 ≥ 𝑧𝛼 2⁄ ) ⇒ 𝑧𝛼 2⁄ = 1,96 Então, rejeita-se a hipótese nula se || �̅� − �̅� √1 + 25 16 || ≥ 1,96 O valor observado é dado por || 0,3778 − 0,2688 √1 + 25 16 || = 0,068 < 1,96 Ao nível de 5%, não se rejeita 𝐻0. 6.11. ----------------------------------------------------------------------------------------------------------------------------- ------------ 𝑋 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃1) e 𝑌 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜃2) i) 𝐻0: 𝜃1 = 𝜃2 𝑣𝑒𝑟𝑠𝑢𝑠 𝐻1: 𝜃1 ≠ 𝜃2 Nesse caso Resolução do Livro “Introdução à Inferência Estatística” Θ0 = {(𝜃1, 𝜃2): 𝜃1 = 𝜃2 = 𝜃, 𝜃 > 0} e Θ = {(𝜃1, 𝜃2): 𝜃1 ≠ 𝜃2, 𝜃1 > 0, 𝜃2 > 0} Em Θ os EMV são dados por 𝜃1 = �̅� e 𝜃2 = �̅� Encontrando o EMV em Θ0: 𝐿(𝜃; 𝒙; 𝒚) = 𝑒−𝑛𝜃𝜃∑ 𝑥𝑖 𝑛 𝑖=1 (∏ 𝑥𝑖 ! 𝑛 𝑖=1 ) × 𝑒−𝑚𝜃𝜃∑ 𝑦𝑖 𝑚 𝑖=1 (∏ 𝑦𝑖! 𝑛 𝑖=1 ) = 𝑒−𝜃(𝑛+𝑚)𝜃∑ 𝑥𝑖 𝑛 𝑖=1 +∑ 𝑦𝑖 𝑚 𝑖=1 (∏ 𝑥𝑖! 𝑛 𝑖=1 )(∏ 𝑦𝑖! 𝑛 𝑖=1 ) Tomando o logaritmo da verossimilhança, teremos 𝑙(𝜃; 𝒙; 𝒚) = −𝜃(𝑛 +𝑚) + (∑𝑥𝑖 𝑛 𝑖=1 +∑𝑦𝑖 𝑚 𝑖=1 ) log 𝜃 − log [(∏𝑥𝑖 ! 𝑛 𝑖=1 )(∏𝑦𝑖! 𝑛 𝑖=1 )] Agora derivamos em relação a teta 𝜕 𝑙(𝜃; 𝒙; 𝒚) 𝜕𝜃 = −(𝑛 +𝑚) + 1 𝜃 (∑𝑥𝑖 𝑛 𝑖=1 +∑𝑦𝑖 𝑚 𝑖=1 ) = 1 𝜃 (∑𝑥𝑖 𝑛 𝑖=1 +∑𝑦𝑖 𝑚 𝑖=1 ) − (𝑛 +𝑚) Igualamos a zero: 1 𝜃 (∑𝑥𝑖 𝑛 𝑖=1 +∑𝑦𝑖 𝑚 𝑖=1 ) = 𝑛 + 𝑚 ⇒ 1 𝜃 = 𝑛 +𝑚 ∑ 𝑥𝑖 𝑛 𝑖=1 + ∑ 𝑦𝑖 𝑚 𝑖=1 ⇒ 𝜃 = ∑ 𝑋𝑖 𝑛 𝑖=1 +∑ 𝑌𝑖 𝑚 𝑖=1 𝑛 +𝑚 = 𝑛�̅� +𝑚�̅� 𝑛 +𝑚 Com isso, a estatística do TRVG será dada por 𝜆(𝐱, 𝐲) = 𝑒−�̂�(𝑛+𝑚)𝜃∑ 𝑥𝑖 𝑛 𝑖=1 +∑ 𝑦𝑖 𝑚 𝑖=1 𝑒−𝑛�̅��̅�∑ 𝑥𝑖 𝑛 𝑖=1 × 𝑒−𝑚�̅��̅�∑ 𝑦𝑖 𝑚 𝑖=1 = 𝑒−(𝑛�̅�+𝑚�̅�)𝜃∑ 𝑥𝑖 𝑛 𝑖=1 +∑ 𝑦𝑖 𝑚 𝑖=1 𝑒−(𝑛�̅�+𝑚�̅�)�̅�∑ 𝑥𝑖 𝑛 𝑖=1 �̅�∑ 𝑦𝑖 𝑚 𝑖=1 = 𝜃∑ 𝑥𝑖 𝑛 𝑖=1 +∑ 𝑦𝑖 𝑚 𝑖=1 �̅�∑ 𝑥𝑖 𝑛 𝑖=1 �̅�∑ 𝑦𝑖 𝑚 𝑖=1 Simplificando 𝜆(𝐱, 𝐲) chegamos em 𝜆(𝐱, 𝐲) = ( 𝜃 �̅� ) ∑ 𝑥𝑖 𝑛 𝑖=1 ( 𝜃 �̅� ) ∑ 𝑦𝑖 𝑚 𝑖=1 Usando o teorema 6.5.1., temos que −2 log 𝜆(𝐱, 𝐲) = −2 [∑𝑥𝑖 𝑛 𝑖=1 log ( 𝜃 �̅� ) +∑𝑦𝑖 𝑚 𝑖=1 log ( 𝜃 �̅� )] tem distribuição aproximadamente 𝜒1 2. Portanto a RC do TRVG é dada por 𝑅𝐶 = {−2 [∑𝑥𝑖 𝑛 𝑖=1 log ( 𝜃 �̅� ) +∑𝑦𝑖 𝑚 𝑖=1 log ( 𝜃 �̅� )] ≥ 𝑐} ii) 𝑛 = 5; ∑ 𝑥𝑖 = 3,8; 𝑚 = 8; ∑ 𝑦𝑖 = 4,8; 𝛼 = 0,05 𝑃(𝜒1 2 ≥ 𝑐) = 0,05 ⇒ 𝑐 = 3,841 Resolução do Livro “Introdução à Inferência Estatística” Assim: 𝑅𝐶 = {−2 [∑ 𝑥𝑖 𝑛 𝑖=1 log ( �̂� �̅� ) +∑ 𝑦𝑖 𝑚 𝑖=1 log ( �̂� �̅� )] ≥ 3,841} Temos 𝜃 = 3,8 + 4,8 5 + 8 = 0,662; �̅� = 3,8 5 = 0,76; �̅� = 4,8 8 = 0,6 Então, −2 log 𝜆(𝐱, 𝐲) = −2 [3,8 log ( 0,662 0,76 ) +4,8 log ( 0,662 0,6 )] = 0,105 Portanto não rejeitamos 𝐻0 ao nível de 5%.
Compartilhar