inferencia estatistica 2
48 pág.

inferencia estatistica 2


DisciplinaInferencia Estatistica192 materiais2.758 seguidores
Pré-visualização10 páginas
minimize
\u3b1 e \u3b2 simultaneamente mas pode-se construir testes que minimizam combinac¸o\u2dces
lineares destas probabilidades. Assim, para constantes positivas a e b queremos
encontrar um teste \u3b4 para o qual a\u3b1(\u3b4) + b\u3b2(\u3b4) seja m\u131´nima.
Teorema 2.1 (Teste O´timo) Seja X1, . . . , Xn uma amostra aleato´ria de uma
distribuic¸a\u2dco com func¸a\u2dco de (densidade) de probabilidade p(x|\u3b8) e defina pi =
p(x|\u3b8i). Se um teste \u3b4\u2217 rejeita H0 quando p0/p1 < k, aceita H0 quando p0/p1 > k
e nada decide se p0/p1 = k, enta\u2dco qualquer outro teste \u3b4 e´ tal que
a\u3b1(\u3b4\u2217) + b\u3b2(\u3b4\u2217) \u2264 a\u3b1(\u3b4) + b\u3b2(\u3b4)
A raza\u2dco p0/p1 e´ chamada raza\u2dco de verossimilhanc¸as (RV). O teorema estabe-
lece enta\u2dco que um teste o´timo, no sentido de minimizar a\u3b1(\u3b4) + b\u3b2(\u3b4), rejeita H0
quando a raza\u2dco de verossimilhanc¸as e´ pequena e aceita H0 quando esta raza\u2dco e´
grande.
Outro resultado vem do fato de que a hipo´tese H0 e o erro tipo I sa\u2dco em geral
privilegiados em problemas pra´ticos. Assim, e´ usual considerar testes tais que
\u3b1(\u3b4) na\u2dco seja maior do que um n´\u131vel especificado, digamos \u3b10, e tentar minimizar
\u3b2(\u3b1).
Lema 2.1 (Neyman-Pearson) Seja X1, . . . , Xn uma amostra aleato´ria de uma
distribuic¸a\u2dco com func¸a\u2dco de (densidade) de probabilidade p(x|\u3b8) e defina pi =
p(x|\u3b8i). Se um teste \u3b4\u2217 rejeita H0 quando p0/p1 < k, aceita H0 quando p0/p1 > k
e nada decide se p0/p1 = k, enta\u2dco para qualquer outro teste \u3b4 tal que \u3b1(\u3b4) \u2264 \u3b1(\u3b4\u2217),
\u3b2(\u3b4) \u2265 \u3b2(\u3b4\u2217). E tambe´m, \u3b1(\u3b4) < \u3b1(\u3b4\u2217) implica em \u3b2(\u3b4) > \u3b2(\u3b4\u2217).
Exemplo 2.4 : Seja X1, . . . , Xn uma amostra aleato´ria da distribuic¸a\u2dco N(\u3b8, 1) e
queremos testar H0 : \u3b8 = 0 × H1 : \u3b8 = 1. Neste caso a raza\u2dco de verossimilhanc¸as
e´ dada por
p0
p1
=
(2pi)\u2212n/2 exp(\u2212(1/2)\u2211ni=1 x2i )
(2pi)\u2212n/2 exp(\u2212(1/2)\u2211ni=1(xi \u2212 1)2)
= exp
{
\u22121
2
[
n\u2211
i=1
x2i \u2212
n\u2211
i=1
(xi \u2212 1)2
]}
= exp
[
\u2212n
(
x\u2212 1
2
)]
.
2.2. TESTANDO HIPO´TESES SIMPLES 25
Portanto rejeitar H0 quando p0/p1 < k e´ equivalente a rejeitar H0 quando x >
(1/2)\u2212 (1/n) log k = c. Na\u2dco e´ dif´\u131cil obter o valor da constante c tal que
P (X > c | \u3b8 = 0) = P (Z > c\u221an) = \u3b1 onde Z \u223c N(0, 1)
Por exemplo para \u3b1 = 0, 05 obtemos da tabela da normal padronizada que c
\u221a
n =
1, 645 e o teste o´timo (que minimiza \u3b2) consiste em rejeitar H0 se X > 1, 645/
\u221a
n.
Exemplo 2.5 : Seja X1, . . . , Xn uma amostra aleato´ria da distribuic¸a\u2dco exponen-
cial com para\u2c6metro \u3b8 e queremos testar H0 : \u3b8 = \u3b80 × H1 : \u3b8 = \u3b81. A raza\u2dco de
verossimilhanc¸as e´ dada por
p0
p1
=
(
\u3b80
\u3b81
)n
exp
[
\u2212(\u3b80 \u2212 \u3b81)
n\u2211
i=1
xi
]
enta\u2dco, pelo lema de Neyman-Pearson, o teste mais poderoso (teste o´timo) rejeita
H0 se p0/p1 < k ou equivalentemente se
n\u2211
i=1
xi >
1
\u3b80 \u2212 \u3b81 log
[
k
(
\u3b81
\u3b80
)n]
= c
A constante c e´ obtida fixando-se o valor de \u3b1, i.e. \u3b1 = P (
\u2211n
i=1Xi > c | \u3b8 = \u3b80)
e onde
\u2211n
i=1Xi \u223c Gama(n, \u3b80).
2.2.1 Probabilidade de significa\u2c6ncia (P -valor)
Vimos que a escolha do n´\u131vel de significa\u2c6ncia do teste e´ completamente arbitra´ria.
Ale´m disso, quando a distribuic¸a\u2dco da estat´\u131stica de teste e´ discreta, como no
exemplo da binomial, o n´\u131vel escolhido pode nem mesmo ser atingido. Por outro
lado, a decisa\u2dco de aceitar ou rejeitar H0 claramente depende desta escolha. Na
maioria das aplicac¸o\u2dces pra´ticas o valor escolhido e´ 0,05 ou 0,01 mas na\u2dco ha´ nada
que justifique formalmente o uso destes valores em particular.
Um enfoque alternativo consiste em calcular o menor n´\u131vel de significa\u2c6ncia
para o qual H0 e´ rejeitada, para o valor observado da estat´\u131stica de teste. Esta
quantidade e´ chamada n´\u131vel critico, probabilidade de significa\u2c6ncia ou p-valor. A
ide´ia e´ que, apo´s calcular o p-valor o pesquisador pode escolher o seu pro´prio n´\u131vel
de significa\u2c6ncia como sendo a probabilidade ma´xima tolera´vel para um erro tipo
I. Em geral, se T e´ uma estat´\u131stica de teste e H0 e´ rejeitada por exemplo para
T > c enta\u2dco o p-valor e´ a probabilidade P (T > t | H0) onde t e´ o valor observado
de T .
26 CAPI´TULO 2. TESTES DE HIPO´TESES
Exemplo 2.6 : No exemplo 2.1 suponha que o nu´mero observado de questo\u2dces
certas foi X = 9. Enta\u2dco o p-valor sera´
P (X \u2265 9 | p = 1/2) =
(
10
9
)
0, 510 +
(
10
10
)
0, 510 = 0, 0107
e rejeitaremos H0 para todo n´\u131vel de significa\u2c6ncia maior do que este valor. Por
exemplo, rejeitaremos H0 para \u3b1 = 0, 025 ou \u3b1 = 0, 05.
Exemplo 2.7 : No exemplo 2.2 suponha que o nu´mero observado de na\u2dco defei-
tuosos foi X = 4. Neste caso o p-valor e´ dado por
P (X \u2264 4 | p = 0, 90) = 0, 000146
ou seja, rejeitaremos H0 para praticamente todos os n´\u131veis de significa\u2c6ncia usuais.
Portanto, o p-valor e´ a probabilidade de observar resultados ta\u2dco extremos
quanto os obtidos se a hipo´tese nula for verdadeira. A ide´ia e´ que se o p-
valor for grande ele fornece evide\u2c6ncia de que H0 e´ verdadeira, enquanto que um
p-valor pequeno indica que existe evide\u2c6ncia nos dados contra H0. As seguintes
interpretac¸o\u2dces de p-valores (P ) podem ser u´teis,
P \u2265 0, 10 Na\u2dco existe evide\u2c6ncia contra H0
P < 0, 10 Fraca evide\u2c6ncia contra H0
P < 0, 05 Evide\u2c6ncia significativa . . .
P < 0, 01 Evide\u2c6ncia altamente significativa . . .
P < 0, 001 Evide\u2c6ncia extremamente significativa . . .
2.3 Testes Uniformemente mais Poderosos
Na Sec¸a\u2dco 2.2 foram definidos testes o´timos para testar hipo´teses simples. Nesta
sec¸a\u2dco os resultados sera\u2dco generalizados para hipo´teses compostas. Considere
enta\u2dco um teste em que H0 pode ser uma hipo´tese simples ou composta e H1
e´ sempre uma hipo´tese composta.
Definic¸a\u2dco 2.1 Um teste \u3b4 de H0 : \u3b8 \u2208 \u3980×H1 : \u3b8 \u2208 \u3981 e´ dito ser uniformemente
mais poderoso (UMP) de tamanho \u3b1 se e somente se
sup
\u3b8\u2208\u3980
pi(\u3b8) = \u3b1
2.3. TESTES UNIFORMEMENTE MAIS PODEROSOS 27
e para qualquer outro teste \u3b4\u2217 que satisfac¸a esta igualdade
pi(\u3b8|\u3b4) \u2265 pi(\u3b8|\u3b4\u2217), \u2200 \u3b8 \u2208 \u3981.
Assim, de acordo com esta definic¸a\u2dco, precisamos especificar um teste cuja pro-
babilidade ma´xima de rejeitar H0 quando ela e´ verdadeira seja \u3b1 e que ao mesmo
tempo maximize a probabilidade de rejeitar H0 quando ela e´ falsa. Veremos a
seguir que os testes UMP so´ existem em situac¸o\u2dces especiais, por exemplo quando
a distribuic¸a\u2dco pertence a` fam\u131´lia exponencial.
A fam\u131´lia exponencial inclui muitas das distribuic¸o\u2dces de probabilidade mais
comumente utilizadas em Estat´\u131stica, tanto cont´\u131nuas quanto discretas. Uma
caracter´\u131stica essencial desta fam\u131´lia e´ que existe uma estat´\u131stica suficiente com
dimensa\u2dco fixa.
Definic¸a\u2dco 2.2 A fam\u131´lia de distribuic¸o\u2dces com func¸a\u2dco de (densidade) de probabi-
lidade p(x|\u3b8) pertence a` fam\u131´lia exponencial a um para\u2c6metro se podemos escrever
p(x|\u3b8) = a(x) exp{T (x)\u3c6(\u3b8) + b(\u3b8)}.
Note que pelo crite´rio de fatorac¸a\u2dco de Neyman T (x) e´ uma estat´\u131stica suficiente
para \u3b8.
Teorema 2.2 Se X1, . . . , Xn e´ uma amostra aleato´ria de um membro da fam\u131´lia
exponencial e \u3c6 for estritamente crescente em \u3b8 enta\u2dco o teste UMP de n´\u131vel \u3b1
para testar H0 : \u3b8 \u2264 \u3b80×H1 : \u3b8 > \u3b80 rejeita H0 se T (x) > c. Se as hipo´teses forem
invertidas ou \u3c6 for estritamente decrescente em \u3b8 enta\u2dco o teste UMP rejeita H0
se T (x) < c. Se ambas as condic¸o\u2dces ocorrerem o teste fica inalterado.
Um fato importante e´ que, em qualquer condic¸a\u2dco estes testes te\u2c6m func¸a\u2dco poder
crescente em \u3b8. Assim a constante c acima e´ obtida de modo que
P (rejeitar H0 | \u3b8 = \u3b80) \u2264 \u3b1, com igualdade no caso cont´\u131nuo.
Exemplo 2.8 : Seja X1, . . . , Xn uma amostra aleato´ria da distribuic¸a\u2dco de Ber-
noulli com para\u2c6metro \u3b8 e queremos testar H0 : \u3b8 \u2264 \u3b80 × H1 : \u3b8 > \u3b80. Enta\u2dco,
definindo t(x) =
\u2211n
i=1 xi
p(x|\u3b8) = \u3b8t(x)(1\u2212 \u3b8)n\u2212t(x) = exp[t(x) log \u3b8 + (n\u2212 t(x)) log(1\u2212 \u3b8)]
= exp
{
t(x) log
(
\u3b8
1\u2212 \u3b8
)
+ n log(1\u2212 \u3b8)
}
.
Logo, a distribuic¸a\u2dco pertence a` fam\u131´lia exponencial e \u3c6(\u3b8) = log(\u3b8/(1\u2212\u3b8)) e´ uma
func¸a\u2dco estritamente crescente de