Buscar

Livro de inferêcia Bolfarine - parte 1

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 94 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 94 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 94 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Heleno Bolfarine
Monica Carneiro Sandoval
~, . A • "
INTRODUc;AO A INFERENCIA
/
ESTATISTI.CA
PREF ACIo VIII
CAPITULO 1. ELEMENTOS BAsIC OS 1
1.1. Alguns Modelos Especiais _ 1
1.1.1. 0 modelo normal 1
1.1.2. 0 modelo exponencial 1
1.1.3. 0 modele binomial 2
1.1.4. 0 modelo de Poisson 2
1.1.5. 0 modelo uniforme 3
1.2. Tipos de Problemas 4
1.3. Amostras, Estatfsticas e Estimadores 4
1.4. Exercfcios 13
CAPITULO 2. ESTIMADORES EFICIENTES E ESTATISTICAS
SUFICIENTES 15
2.1. Estimadores Eficientes 15
2.2. Estatisticas Suficientes 20
2.3. Estatfsticas Conjuntamente Suficientes 23
2.4. Familias Exponenciais 25
2.5. Estimadores Baseados em Estatisticas Suficientes 29
2.6. Exercfcios 32
CAPITULO 3. METODOS DE ESTIMAQA.O 35
3.1. 0 Metodo de Maxima Verossimilhan<;a 35
3.2. Propriedades dos Estimadores de Maxima Verossimilhan<;a 42
3.2.1. Invariancia C 43
3.2.2. Distribui<;ao em grandes amostras ·.. 44',
3.3. Verossimilhan<;a para Amostras Independentes 45
3.4. 0 Caso Multiparametrico 46
3.5. Familia Exponencial e 0 Metodo de Maxima Verossimilhan<;a 49
3.6. 0 Metodo dos Momentos 50
3.7. Estimadores Consistentes 52
3.8. Exercfcios 52
CAPITULO 4. INTRODUQA.O A. TEORIA DAS DECISOES.
OS PRINCIPIOS MINIMAX E DE BAYES 57
4.1. Os Elementos Basicos 57
4.2. 0 Princfpio Minimax 60
4.3. 0 Principio de Bayes 61
4.4. Estimadores de Bayes com Perda Quadratica 63
CAPITULO 5. ESTIMA<;Ao POR INTERVALO 73
5.1. Amostras de Populac;6es Normais 73
5.2. 0 Metodo da Quantidade Pivotal 75
5.3. Intervalos para Populac;6es Normais 80
5.3.1. 0 caso de uma unica amostra 80
5.3.2. Duas amostras independentes 82
5.4. Intervalos de Confianc;a Aproximados 83
5.5. Intervalos de Confianc;a Bayesianos 85
5.6. Exercfcios 87
CAPITULO 6. TESTES DE HIPOTESES 91
6.1. Ideias Basicas 91
6.2. Formulac;ao Estatfstica' 92
6.3. Hip6tese Nula Simples contra Alternativa Simples.
Testes Mais Poderosos 94
6.4. Testes Uniformemente Mais Poderosos 100
6.4.1. Hip6tese nula simples contra alternativa composta 100
6.4.2. Hip6teses compostas 102
6.5. Testes da Razao de Verossimilhan<;as Generalizada 103
6.6. Testes Bayesianos 114
6.7. Exercfcios 115
REFERENCIAS : 119
INDICE REMISSIVO 121
o objetivo principal deste texto e propiciar aos estudantes urn material
basico para urn curso introdutario de Inferencia Estatishca usualmente mini-
strado em programas de bacharelado em Estatistica. Lecionando ha varios anos
a referida disciplina em cursos de bacharelado e de pas graduac;ao no Departa-
mento de Estatistica do Instituto de Matematica e Estatistica da Universidade
de Siio Paulo, experimentamos varias alternativas didaticas, mas sempre nos
ressentimos da ausencia de textos adequados em portugues e ate mesmo em
ingles para 0 nivel em questao. E foi pensando em preencher essa lacuna que
resolvemos elaborar este trabalho, destinado aos estudantes com conhecimentos
basicos de probabilidade e calculo.
o texto est a elaborado para urn curso de urn semestre com seis horas sema-
nais, duas das quais devem ser reservadas para exerdcios. E dividido em seis
capitulos, tendo no final de cada urn uma serie de exerdcios.
o Capitulo 1 e dedicado a descric;ao de alguns modelos comumente uti-
lizados em situac;oes praticas. Sao apresentados metodos de comparac;ao entre
estimadores, com enfase especial ao metodo do Erro Quadratico Medio minimo.
o Capitulo 2 apresenta a obtenc;ao de estirnadores eficientes, utilizando a
desigualdade da informac;ao, a partir da qual se obtem 0 limite inferior da
variancia dos estimadores nao viciados. Usando esses resultados em alguns
modelos importantes, e possivel a obtenc;ao de estimadores atimos, ou seja,
de menor variancia. Uma familia importante em que tais estimadores sao obti-
dos e a bem conhecida familia exponencial de distribuic;oes, apresentada no
texto com algum detalhe. A utilizac;ao de estatisticas suficientes, no sentido de
apresentarem urn resume dos dados sem perda de informac;ao, e tarnbem cons i-
derada nesse capitulo. Mostra-se tambem que estimadores que nao sao func;oes
de estatisticas suficientes podein ser melhorados por meio do conhecido Teore-
ma de Rao- Blackwell.
o Capitulo 3 e dedicaclo a tecnicas de obtenc;ao de estimadores, dEmtre
as quais destacamos os metodos de maxima verossimilhanc;a e dos momen-
tos. Propriedades dos estimadores de maxima verossimilhanc;a em grandes
amostras sao tambem consideradas. Essas propriedades permitem a realizac;ao
de inferencias em modelos mais complexos que sao comumente utilizados em
situac;oes praticas.
No Capitulo 4 consideramos as ideias basicas da teoria das decisoes, en-
fatizando a importancia da func;ao de risco como urn meio de obtenc;ao de
bons estimadores. A utilizac;ao da func;ao de risco permite a derivac;ao de es-
timadores do tipo minimax e tambem de estimadores de Bayes, incorporando
uma distribuic;ao a priori para descrever conhecimentos subjetivos a cere a dos
parametros de interesse.
A construc;ao de intervalos de confianc;a com coeficientes de confianc;a exa-
tos e aproximados e considerada no Capitulo 5. Urn metodo importante de
constrU<;ao de intervalos e 0 uso de quantidades pivotais. Tal enfoque propicia a
constrU<;ao de intervalos exatos para varios modelos importantes e aproximados
em situac;6es mais complexas. Intervalos Bayesianos baseados na distribuic;ao a
posteriori sao tambem considerados.
o Capftulo 6 e dedicado a construc;ao de testes de hip6teses. Testes 6timos
para 0 caso de hip6tese nula simples contra alternativa simples sao derivados
a partir do Lema de Neyman-Pearson. Algumas generalizac;6es para hip6teses
compostas sao tambem consideradas. Problemas mais complexos que podem
envolver hip6teses bilaterais sao tratados utilizando a estatfstica da razao de
verossimilhanc;as generalizada que, apesar de nao possuir propriedades 6timas,
leva em geral a bons procedimentos que nao apresentam muita dificuldade de
implementac;ao.
Nao inclufmos no texto tabelas estatfsticas, pois a enfase maior e dada
a problemas te6ricos. No caso de haver necessidade de utilizac;ao de tabelas,
sugerimos aos estudantes utilizar as tabelas em Bussab e Morettin (1987).
Agradecemos as colegas Elisete da Conceic;ao Quintaneiro Aubin, Marcia
D'Elia Branco e Silvia Lopes de Paula Ferrari que leram as vers6es preliminares
e contribufram com varias sugest6es. Agradecemos tambem a. aluna Jacqueline
Sant'Eufemia David pela elaborac;ao das figuras.
Nesta sec;ao consideramos alguns modelos probabilfsticos que sao comumente
utilizados na amilise de dados em problemas praticos. 0 modelo probabilisti-
co (ou estatistico) e de suma importancia para inferir resultados da amostra
para a populac;ao toda. E importante que, na selec;ao do modelo a ser utilizado,
o estatistico tenha em mente que 0 modelo deve representar, na medida do
possivel, a complexidade que envolve 0 mundo real da populac;ao em estudo.
Entre os modelos mais utilizados, temos
Dizemos que X tern distribuic;ao normal com media p e vanancia u2, que
denotamos por X ~ N(p, (2), se a func;ao de densidade de probabilidade de X
e dada por
1 (._,,)2
f(xlp,u2) = rr>= e-~, -00 < x < 00,
y 27fu
em que -00 < p < 00 e u2 > O.Nesse caso, p e u2 sao denominados parametros
da distribuic;ao e 0 suporte de X, isto e, A( x) = {x, f (x) > O}, e a reta6da.
Notemos tambem que
Situac;oes praticas em que 0 modelo normal e cornumente utilizado incluem
caracteristicas populacionais, tais como: peso, altura, pressao arterial, quociente
de inteligencia, etc.
Dizemos que X tern distribuic;ao exponencial com parametro B, que denotamos
por X ~ Exp(B), quando a func;ao de densidade de probabilidade de X e dada
por
f(xIB) = Be-ox, x> 0,
em que B > o. Nesse caso, A(x) = {x, x> O}. Notemos tambem que
E[X] = ~ 1e Var[X] = B2.
o modelo exponencial e comumente ernprOegadopara descrever tempo de vida
de equipamentos.Lembrernos que 0 rnodelo exponencial tern a bem conhecida
propriedade da falta de memoria, ou seja, se 0 tempo de vida de urn equipamen-
to segue a distribuir;ao exponencial, entao, em qualquer instante, 0 equiparnento
e como se fosse novo, nao importando 0 quanta ele ja tenha sido utilizado.
Dizemos que a variavel aleatoria X tern distribuir;ao binomial, com para-metros
neB, que denotamos por X ~ Binomial (n, B), se sua funr;ao de probabilidade
e dada por
f(xIB)= (:)BX(l_B)n-X, x=O,l, ... ,n,
em que 0 < B < 1. Nesse caso, 0 suporte de X e discreto e e dado por A(x) =
{x, x = 0, 1, ... , n}. Temos tambem que
Lembremos que, se X tern distribuir;ao Binomial(n, B), entao, podemos escre-
ver X = Y1+ ... + Yn, sendo Y1, . 0 • , Yn n variaveis aleatorias independentes e
de Bernoulli, ou seja, a funr;ao de probabilidade de Y,; e dada por
i = 1, ... , n. 0 modelo binomial (ou de Bernoulli) e comumente empregado em
situar;6es em que associamos a cada observar;ao da amostra dois tipos de respos-
ta (como, por exemplo, sim e nao, ou sucesso e fracasso) aos quais associamos
os valores 0 e 1. Tais situar;6es envolvem, por exemplo, pesquisas eleitorais,
em que os individuos na popular;ao sac ou nao favoraveis a determinado par-
tido ou candidato; proporr;ao de per;as defeituosas produzidas em uma linha de
produr;ao e assim por diante.
Urn outro modelo comumente empregado na pnitica e 0 modelo de Poisson.
Dizemos que a variavel aleatoria X tern distribuir;ao de Poisson com para-metro
B, que denotamos por X ~ Poisson(B), quando a fun<;ao de probabilidade e
dada por
e-8BX
f(xIB)=-,-, x=O,l, ... ,
x.
em que B > O.Nesse caso, 0 suporte de X eo conjunto A(x) = {x, x = 0,1, ... }.
Temos tambem que,
o modelo de Poisson e bastante utilizado para descrever situa<;6es que en-
volvem, par exemplo, 0 numero de chamadas que chegam a uma central
telefOnica, 0 numero de particulas a emitidas por uma fonte radioativa ou
o numero de pessoas que chegam a determinada fila, sempre em urn ilervalo
de tempo fixado. " "
~.;
o modelo uniforme e bastante importante do ponto de vista teorico. Dizemos
que X tern distribui<;ao uniforme no intervalo (0, B), que denotamos por X ~
U (0, B), se a fun<;ao de densidade de X e dada por
f(xIB) = { ~,
0,
0< x < B,
casQ contrario,
1
= 7/(O,8)(X),
0< x < B,
caso contrario,
ou seja, I(o,8)(x) e a funr;ao indicadora do intervalo (o,B). Notemos que, nesse'
caso, A(x) = {x,O < x < B}, ou seja, 0 suporte da variavel X (ou de f(xIB))
depende do parametro B. No caso dos modelos normal, exponencial, binomial
e de Poisson, isso nao acontece, ou seja, nesses casos, 0 suporte da distribui<;ao
de X e independente de B. Temos tambem que, se X ~ U(O, B), entao,
E[X] = ~ B
2
e Var[X] = 12'
No decorrer do texto, outros modelos parametricos, como por exemplo, 0 mo- ,
delo uniforme discreto e 0 modelo gama, serao apresentados. Veremos tambem
que os modelos normal, exponencial, binomial e de Poisson saG membros de
uma familia bastante geral de modelos, que e a familia exponencial.
No presente texto, vamos nos ater exclusivamente a problemas de estima<;ao e
de testes de hip6teses.
Definit;ao 1.2.1. Seja X uma variavel aleat6ria com funr;iio de densidade (ou
de probabilidade) que abreviamos por f.d.p. (f.p.) e que denotamos por f(xIB),
em que () e um parametro desconhecido. Chamamos de infereiicia estatistica 0
problema que consiste em especificar um ou mais valores para (), baseado em
um conjunto de valores observados de X.
Vamos assumir que a distribui<;ao da variavel aleat6ria X pertence a certa
familia de distribui<;oes em que urn particular elemento e especificado, quando
o valor do pariimetro B e especificado.
No caso de urn problema de estimat;ao, 0 objetivo e procurar, segun-
do algum criterio especificado, valores que representem adequadamente os
pariimetros desconhecidos. No caso de problemas de testes de hip6teses,
o objetivo e verificar a validade de afirma<;6es sobre urn valor (ou valores) do(s)
pariimetro(s) desconhecido(s). Por exemplo, quando 0 interesse e verificar se a
propor<;ao B de eleitores de determinado candidato e maior que 1/2 (ou 50%),
as hip6teses a serem testadas saD Ho : B ::; 1/2 versus H1 : B > 1/2. Quando
estamos interessados em verificar se 0 peso medio, f-L, de pacotes de urn quilogra-
ma empacotados por determinada maquina realmente e urn quilograma, entao,
as hip6teses a serem testadas podem ser representadas por Ho : f-L = 1 versus
HI: wI- 1.
Nesta se<;ao os conceitos de estatfstica e estimador saD introduzidos. Criterios
para a compara<;ao de estimadores SM tambem consider ados.
Definit;ao 1.3.1. 0 conjunto de valores de uma caracteristica (observavel)
associada a uma coler;iio de individuos ou objetos de interesse e dito ser uma
popular;iio.
Qualquer parte (ou subconjunto) de uma popula<;ao e denominada uma
amostra. De maneira mais formal, temos
Definic;ao 1.3.2. Uma sequencia Xl, ... ,X n de n variaveis aleat6rias indepen-
.dentes e identicamente distribuidas (i.i.d.) com funr;iio de densidade (f.d.p.) ou,
no caso discreto, funr;iio de probabilidade (f.p.) f(xIB) e dita ser uma amostra
aleat6ria de tamanho n da distribuir;iio de X. Nesse caso, temos,
f(XI, ... ,xnIO) = IIf(XiIO) = f(XIIO) .. ·f(xnIO).
i=l
Concluimos, a partir da Defini<;iio 1.3.2, que usamos a amostra Xl, ... , Xn
para obter informa<;ao sobre 0 parametro O. A fun<;ao de densidade (ou de
probabilidade) conjunta dada em (1.3.1) e denominada func;ao de verossimi-
Ihan<;a de 0, correspondente a amostra observada x = (Xl,"" Xn)' e sera
denotada por
n
L(O; x) = IIf(XiIO).
i=l
Definic;ao 1.3.3. Qualquer funf;iio da amostm que nao depende de paf*metros
desconhecidos e denominada uma estatistica. ~
No exemplo que apresentamos a seguir, consideramos varias estatfsticas que
serao utilizadas com frequ€mcia nos capftulos seguintes.
Exemplo 1.3.1. Sejam X I, ... , Xn uma amostra aleat6ria da variavel aleat6ria
X, com f.d.p. ou f.p. f(xIO). Exemplos de estatisticas sac
(i) X{1) = min(XI, ... ,Xn),
(ii) X(n) = max(XI,· .. ,Xn),
(iii) X = med(XI, ... , Xn),
. - 1 ~n
(IV) X = n 0i=1 Xi,
(V) 0-2 = .1. ",n (X _ X)2n L..n=l t •
Em (i), (ii) e (iii) acima, min(.), max(.) e med(.) denotam, respectivamente,
o minimo, 0 maximo e a mediana amostral observada. Por outro lade, X e 0-2
denotam, respectivamente, a media e a variancia amostrais.
Definic;ao 1.3.4 . .a conjunto 8 em que 0 toma valores e denominado espaf;o
pammetrico.
Exemplo 1.3.2. Sejam Xl, ... , Xn uma amostra aleatoria da variavel aleatoria
X,...., N(J-L,a2).
(i) Se a2 = 1, entao 0 = J-L e 0 parametro desconhecido e
(ii) Se J-L = 0, entao 0 = a2 e 0 parametro desconhecido e
8={a2, a2>0};
(iii) Se J-L e a2 SaDdesconhecidos entao B = (J-L, a2) e
e = {(J-L,a2), -00 < J-L< 00 e a2 > O}.
Defini~ao 1.3.5. Qualquer estatistica que assuma valores em e e um esti-
mador para B.
Em rnuitas situa<;oes, 0 interesse e estirnar urna fun<;ao g(B). Suponha, por
exernplo, que no caso (iii) do exernplo anterior, 0 objetivo e estirnar sornente
J.L, sendo a2 urn pararnetro de pertuba<;ao. Nesse caso, g(B) = J.L.
Defini~ao 1.3.6. Qualquer estatistica que assuma valores somente no conjunto
dos possiveis valores de g(B) e um estimador para g(B).
Urn dos grandes problemas da estatlstica e 0 de encontrar urn estimador
razoavel para 0 parametro desconhecido B ou para uma fun<;ao g(B). Urn dos
procedirnentos cornurnente utilizados para se avaliar 0 desempenho de urn es-
timador e 0 seu erro quadratico medio que e consider ado a seguir.
Defini~ao 1.3.7. 0 err-a quadnitico media (EQM) de um estimador II do
para metro B e dado par
e denominado 0 vicio do estimador fj. Dizemos que urn estimador fj e nao
viciado para B se
para todo BEe, ou seja B(fj) = 0, para todo BEe. Se limn-tooB(fj) = 0 para
to do BEe, dizemos que 0 estimador fj e assintoticamente naoviciado para
B. No caso em que fj e urn estimador nao viciado para B, temos 'que
ou seja, 0 erro quadratico medio de fj se reduz a sua variancia. Urn outro conceito
importante em grandes amostras (n -+ 00) e a propriedade de consistencia que
sera considerada na Se<;iio3.7.
Exemplo 1.3.3. Sejam Xl, ... , Xn Uma amostra aleatoriada variavel aleatoria
X com E[X] = J.L e Var[X] = a2• Temos, entao, que
In 2
- '" uVar[X] =2" ~ Var[Xi] =-.n n
i=l
Portanto X e urn estimador nao viciado para fJ-. Com relaC;ao a. variancia
amostral, temos
~2 1 ~ - 2 1 L:n - 2E[u ] = -E ~(Xi - X) = - E[(Xi - X) ]n n
i=l i=l
1~ - 2= - ~ E{[(Xi - fJ-) - (X - fJ-)] }
n i=l
(n - 1) 2= u.
n
Portanto (j2 e viciado para u2, mas e assintoticamente nao viciado, ou seja, a.
medida que 0 tamanho da amostra aumenta, 0 vfcio diminui.
o erro quadratico medio e comumente empregado na comparaC;ao de esti-
madores. Dizemos, entao, que 81 e melhor que 82 se
J
para todo e, com :S substitufdo por < pelo menos para um valor de e. Nesse
CasO, 0 estimador 82 e dito ser inadmissivel. Se existir um estimador 8* tal
que para todo estimador 8 de e com 8 i- 8*
para todo e com :S substitufdo por < para pelo menos urn e, entao 8* e dito
ser 6timo para e. Not~mos que, se em (1.3.5) os estimadores SaDnao viciados,
entao 8* e dito ser 0 estimador nao viciado de variancia uniformemente minima,
se
Var[8*] :S Var[8],
para to do e, com :S substitufdo por < para pelo menos um e.
Exemplo 1.3.4. Sejam Xl, X2, X3 uma amostra aleat6ria da variavel aleat6ria
X com E[X] = e e Var[X] = 1. Consideremos os estimadores
~ 1 1 1
e ()? = -Xl + -X2 + -X3.- 2 4 4
• • 1
E[t'h] = B e Var[Bd = 3'
Como {h e B2 sao ambos nao viciados, segue de (1.3.4) que X e melhor que B2,
pois Var[X] < Var[B2], para todo B.
Exemplo 1.3.5. Sejam Xl,.'" Xn uma amostra aleatoria da variavel aleatoria
X com E[X] = B e Var[X] = 0-2, em que 0-2 e conhecido. Consideramos agora
os estimadores lineares
XL = LiiXi'
i=l
o estimador XL com a condi<;ao (1.3.7) e entao uma combina<;ao linear con-
vexa de Xl, ... ,Xn. Notemos que B1 e B2 considerados no Exemplo 1.3.4 sao
combina<;oes lineares convexas de Xl, X 2, X 3. Temos tambem que
Var[XL] = L iTVar[Xi] = 0-2 LiT·
i=l i=l
Portanto 0 estimador XL, que e nao viciado e apresenta a men or variancia,
e obtido minimizando-se (1.3.8) sujeito a. condi<;ao (1.3.7). Para atingir tal
objetivo, sendo I = 2:7=1 idn = l/n a media dos ii'S, temos que
n n n
L(li - I)2 = LiT - nI2 = LiT - l/n,
i=l i=l i=l
n
Var[XL] = (J2L l;
i=l
Assim, a expressao (1.3.9) sera minima quando li = 1/n, ou seja 0 estimador
XL com menor variancla e a media amostral X. Portanto, dentre todos os
estimadores lineares nao viciados XL, 0 que apresenta a menor variancia e a
media amostral X. De (1.3.9) segue tambem que Var[X] = (J2 In. Vma outra
forma de minimizar a variiincia (1.3.8), sob a condi<;ao (1.3.7), e feita utilizando-
se de multiplicadores de Lagrange. Nesse caso, temos 0 "Lagrangea&'
. ~t
li = In,
i = 1, ... ,n. Sendo 2:~=1li = 1, segue que li
concluido acima.
Exemplo 1.3.6. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria
X ~ N(p,,(J2). Conforme visto no Exemplo 1.3.3, a-2 e um estimador viciado
para (J2. De (1.3.3) segue que
S2 = _n_a-2 = _1_ ~(Xi _ X)2
n-1 n-1L...t
i=l
e um estimador nao viciado para (J2. POl' outro lado, temos (vel' Exercicio 1.4)
que
EQM[a-2]= 2(J4 [1- (3n-1)].
(n - 1) 2n2
Notemos que a-2, apesar de viciado, apresenta urn EQ M menor que 0 EQ M
do estimador 52.
Exemplo 1.3.7. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da
variavel aleat6ria X, com distribui<;ao de Bernoulli com parametro B, ou seja
Binomial(l, B). Conforme visto no modelo binomial, Y = Xl + ... + Xn tern
distribui<;ao Binomial(n, B). Consideremos os estimadores
A _ Y
B1 =X =-n
EQM[8d = Var[X] = B(I- B).
n
E[B2] = E [Y + vn/2] = nB + vn/2 = n B+ vn/2 ,
n+vn n+vn n+vn n+vn
de modo que 82 e urn estimador viciado para B. Notemos que, na verdade, 0
vieio e uma fun<;ao linear de B. Portanto
(n +lFn)' E { [(Y - nO) + Fn G - B)n
(n +IvnF { Var[Y] + n (~ - B) 2}
n
4(n + vnF'
Urn fato importante a ser notado e que 0 EQM do estimador 82 e independente
de B. 0 EQM dos dois estimadores e representado graficamente na Figura 1.1,
para n = 9.
Temos, entao, que nenhum dos estimadores e melhor uniformemente, isto e,
para to do B. Para C1 < B < C2, EQM[82] < EQM[8d, ou seja, 82 e melhor que
81, Por outro lado, para B < C1 ou B > C2, temos que EQM[81] < EQM[82],
ou seja, 81 e melhor que 82. Para 0 calculo de C1 e C2, ver Exercfcio 1.5.
I
1/36 1
i
i
1/64 -
Exemplo 1.3.8. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleatoria
X ~ U(O, B). Vamos considerar B1 = X e B2 = X(n) como estimadores de B.
Como E[X] = B/2 e Var[X] = B2/12 (ver 0 modelo (1.1.4)), temos que
A _ e
E[ell = E[X] = 2'
Portanto 0 estimador BI e viciado para e. Combinando (1.3.12) e (1.3.13) em
(1.3.2), temos que
EQM[BI] = ~ + (~ _ e) 2 = (1+ 3n) e2.. 12n 2 12n
nxn-1
!xCn) (xle) =~, 0 < x < e,
n ne2
E[X(n)] = n + 1e e Var[X(n)] = (n + 1)2(n + 2)'
EQM[B ] = ne2 + e2 = 2e2
, 2 (n+1)2(n+2) (n+1)2 (n+1)(n+2)'
A Tabela 1.1 mostra 0 valor do EQM dos dois estimadores para varios va-
lores de n. Notemos tambem que, quando n -+ 00, EQM[B1] -+ ()2/4 e que
EQM[B2] -+ O.
n EQM[()d EQM[()2] EQM[()2]/ EQM[()lJ
3 58~/18 ()"L'j 10 0,27
5 4()2/15 ()2/21 0,12
10 31()2/120 ()2/662 0,04
20 6182/240 ()2/2312 0,01
Portanto X(n) e melhor que X para to do () en> 1.
Exemplo 1.3.9. Consideremos uma uma com N bolas identicas marcadas
com os numeros 1, ... ,N. 0 objetivo e a estima<;ao de N, 0 numero de bolas
numeradas na uma. Esse problema esta muitas vezes associado ao problema
da estima<;ao do numero N de taxis em uma cidade, em que os taxis estao
numerados de 1 aN. Portanto uma determinada quantidade (n) de bolas (taxis)
e observada, com reposi<;ao. Associada a i-esima observa<;ao, temos a variavel
aleat6ria
1
P[Xi = k] = N' k = 1, ... ,N.
Portanto a distribui<;ao de Xi e uniforme discreta, pois a distribui<;ao de Xi
associa a mesma probabilidade a todos os possfveis valores de Xi, i = 1, ... ,N.
Como possfveis estimadores de N, consideremos inicialmente Nl = X e N2 =
X(n)' Nao e diffcil verificar que
E[Nd = E[X] = N + 1
. 2'
(N,k)n _ (kN-l)n,P[X(n) = k] = P[X(n) :S k] - P[X(n) :S k - 1] =
n iN Nn+l
"'(k - l)n = In + ... + (N _l)n ~ yN dy = --,~ . n+1
k=l 0
E[Hz] = E[X(n)] ~ N-n [Nn+l _ Nn+1
1] = _n_N.
n+ n+1
- n + 1
N4 = --X(n),n
que e aproximadamente niio viciado. Se n = 8 bolas siio retiradas com reposi<;iio
da caixa e os numeros observados siio: 124, 212, 315, 628, 684, 712, 782, 926,
entiio, HI = X = 547,875, H3 = 2X - 1 = 1095, Hz = X(n) = 926, e
H4 = 1042. Podemos considerar tambem 0 estimador
Xn+l _ (X _ l)n+l lH _ (n) (n)
5 - X('n) - (X(n) - 1)n '
1.1. Verifique a validade da expressiio (1.3.2).
1.2. Verifique a validade da expressiio (1.3.3).
1.3. Verifique a validade da expressiio (1.3.6).
1.4. Verifique a validade das express6es (1.3.10) e (1.3.11).
1.5. Encontre CI e C2 na Figura 1.1. que siio os pontos de intersec<;iio dos err os
quadraticos medios de (h e 82.
1.6. Sejam Xl,'." Xn uma amostra aleat6ria da variavel aleat6ria X rv
U(O, B). Mostre que a fun<;iio de densidade de probabilidade de X(n) e como
dada em (1.3.14), com esperan<;a e variancia como dadas em (1.3.15).
1.8. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da distribuic;ao da
variavel aleatoria X, em que X ~ N(p" 1). Considere os estimadores ilt = X e
{.tz = 10. Encontre 0 EQM de {.tl e de {.t2 como func;ao de p,. Fac;a urn grafico
do EQM para n = 10.
1.9. Seja X uma unica variavel aleatoria com distribuic;ao de Bernoulli com
parametro e. Sejam el = X e e2 = 1/2 dois estimadores de e.
(i) Verifique se el e 82 saonao viciados para e.
(ii) Compare os EQMs. Fac;a urn grafico dos EQMs como func;ao de a.
1.10. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da distribuic;ao
da variavel aleatoria X com f.d.p. dada por
(i) Especifique 0 espac;o parametrico e 0 suporte associado a. distribuic;ao de X.
(ii) Verifique se el = X e ez = X(ll sao estimadores nao viciados para e.
(iii) Encontre e compare os EQ M s dos dois estimadores. Fac;a urn grafico como
func;ao de e.
1.11. Sejam Xl, ... ,Xn urn amostra aleatoria de tamanho n da distribuic;ao
da variavel aleatoria X com fd.p. dada por
2x
f(xla) = e2' 0 < x < a, a > o.
(i) Especifique 0 espac;o parametrico e 0 suporte associado a. distribuic;ao de X.
(ii) Verifique se el = X e e2 = X(n) sao nao viciados para a.
(iii) Encontree compare os EQMs dos dois estimadores. Fac;a urn grafico dos
EQMs como func;ao de a.
1.12. Sejam Xl,.'" Xn uma amostra aleatoria de tamanho n da distribuic;ao
de uma variavel aleatoria X ~ U(O,e). Considere os estimadores el = clX e
82 = C2X(n)'
(i) Encontre Cl e C2 que tornam os estimadores nao viciados.
(ii) Encontre e compare os EQMs dos dois estimadores.
1.13. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da distribuic;ao
da variavel aleatoria X N(O, (J"2). Seja 52 = L~=lXl- Considere os esti-
madores ~
·2 52
(J"c \.S::. ..
(i) Encontre 0 EQM do estimador acima.
(ii) Encontre 0 valor de C que minimiza 0 EQM em (i).
2. Estimadores Eficientes e Estatisticas
Suficientes
Neste capitulo sera apresentada a nOC;aode estimador eficiente, como sendo
aq~ele que atinge 0 limite inferior da variancia dos estimadores nao viciados.
Estimadores eficientes SM obtidos apenas para distribuic;6es que SaD3i-embros
de uma classe especial, que e a famma exponencial de distribuic;6es. ~eremos
tambem que to do estimador para ser otimo, segundo 0 criterio do menor erio
quadratico medio, deveser func;ao de uma estatistica suficiente. De modo in-
formal, estatisticas suficientes para urn parametro (ou para uma distribuic;ao)
sao aquelas que condensam os dados sem perder nenhuma informac;ao contida
nos mesmos. Ou seja, elas sao tao informativas para 0 parametro (ou para a
distribuic;ao) quanta a amostra toda.
Eficiencia de urn estimador {j de urn parametro e e definida a seguir.
Defini<;ao 2.1.1. Chamamos de eficiencia de um estimador (j, nao viciado para
o pariimetro e, a quociente
e({j) = LI(e! ,
Var[e]
onde LI (e) e 0 limite inferior da variiincia dos estimadores nao viciados de e.
Convem notar que:
(i) e({j) = 1 quando LI(e) = Var[{j], ou seja, quando a variancia de {j
coincide com 0 limite inferior da varian cia dos estimadores nao viciados de e.
Nesse caso, (j e dito ser eficiente;
. (ii) como veremos no teorema seguinte,
LI(e) = 1 ,
nE [( a log£VI8) ) 2]
(iii) as condic;6es de regularidade a que nos referimos no item (ii) sac basi-
camente duas, isto e, que 0 suporte A(x) = {x, f(xI8) > a} seja independente
de 8 e que seja possivel a troca das ordens das operac;6es de derivac;ao e de
integrac;ao sob a distribuic;ao da variavel aleat6ria X;
(iv) a nao ser que mencionado 0 contrario, to do logaritmo utilizado no texto
e calculado na base e.
Exemplo 2.1.1. Sejam Xl, ... , X n uma amostra aleat6ria da varia vel aleat6ria
X", N(p" 0-2), em que 0-2 e conhecido. Temos que
olog f(xlp,)
op,
_ 0-2
Var[X] = - = LI(p,),
n
\ Definic;ao 2.1.2. A quantidade
\
olog f(XI8)
08
o resultado (2.1.3) na verdade vale em geral quando valem as condi<;6es de
regularidade, ou seja,
pois para uma variavel aleat6ria X qualquer com E[X] = 0; Var[X] = E[X2].
Urn resultado importante (veja 0 Exercicio 2.6) estabelece que
E [(8l0gf(XI8))2] = -E [82l0gf(XI8)]
88 882.
Uma outra propriedade importante estabelece que para uma amostra aleat6ria,
Xl, ... , Xn, da variavel aleat6ria X com f.d.p (ou f.p.) f(xI8) e informa<;iio
de Fisher IF(8), a informa<;iio total de Fisher de 8 correspondente a amostra
observada e a soma da informa<;iio de Fisher das n observa<;6es da amostra, ou
seja, sendo
L(8;x) =f(Xl, ... ,xnI8) = IIf(xiI8),
i=l
= -E [~ 82 log f(Xil8)] = ~ E [_ 82 log f(Xil8)] = I (())(2.1.6) ~ 882 ~ 882 n F ,.
i=l i=l. o.
pois Xi, i = 1, ... ,n tem a mesma informaC;ao que X. Lembremos que, sendo
Xl,.' ., Xnuma amostra aleat6ria da variavel aleat6ria X, entao Xl,"" Xn
San independentes e identicamente distribufdas com a mesma distribuiC;ao que
X.
Teorema 2.1.1. Desigualdade da Informac;ao. Quando as condir;oes de
regularidade estiio satisfeitas, a variiincia de qualquer estimador niio viciado fJ
do pariimetro 8 satisfaz a desigualdade
• 1
Var[8J 2': n1p(8)"
Prova. Vamos considerar 0 caso em que X e uma variavel aleat6ria contfnua.
Sendo Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X, temos queI:...I:£(8; X)dXI ... dXn = 1,
onde £(8; x) e dada em (2.1.5). Desde que e e nao viciado, ou seja, E[e] = 8,
temos tambem que
I:···I: e£(8;X)dxI" .dxn = 8.
8 100 100 100 1008£(8; x)r:>8 . . . £(8; X)dXI ... dXn = . . . 88 dXl ... dXn = O.
u -00 -~ -00 -00
8 (00 (00. . (00 (00 .8£(8; x)
88 L
oo
'" J-oo 8£(8;x)dxI" .Xn = J-oo'" J-oo 8 88 dXI·· .dxn = 1.
8£(8; x)
. 88 = t(8; x)£(8; x),
(8, ) = 8log£(8;x)t ,x 88'
temos das express6es acima que
E[Bt(B; X)] = 1.
E[Bt(B; X)] - E[B]E[t(B; X)]
Pih = . '
VVar[BjV ar[t(B; X)]
onde POt denota 0 coeficiente de correla<;ao entre Bet, de tal forma que P~t :S 1,
temos que
. 1
Var[B] ~ Var[t(B;X))"
Como as variaveis Xl, ... ,Xn sac independentes e identicamente distribuidas
com densidade f(xIB), temos de (2.1.5) e de (2.1.6) que
[a log L(B; X)]Var[t(B;X)]=Var aB =nlp(B),
Exemplo 2.1.2. Sejam Xl, ... , Xn uma amostra aleat6ria de tamanho n da
variavel aleat6ria X ~ Poisson(B), com fun<;ao de probabilidade dada por
e-(}Bx
f(xIB) = -,-, x=O,I, ... ,x.
alogj(xIB) = ::. _ 1 .
. aB B'
E [
a210gf(XIB)] =_~
aB B·
LI(B) = ~.
n
Como Var[X] = Bin, concluimos que X e urn estimador eficiente para B.
Enfatizamos que a desigualdade da informa<;ao (inicialmente chamada de
Cramer-Rao) nao e urn metodo de constru<;ao de estimadores. Ela apenas possi-
bilita verificar se determinado estimador e ou nao eficiente. E entao importante
que sejam estabelecidos metodos para constru<;ao de estimadores que tenham
alguma propriedade interessante, ou que levem a estimadores com "boas" pro-
priedades. Contudo, antes de estabelecermos tais metodos (ou criterios), vamos
considerar estatisticas que reduzam (condensem) os dados sem que haja perda
de informa<;ao. Tais estatisticas sao conhecidas como estatisticas suficientes.
Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X com fun<;ao
de densidade ou de probabilidade f(xI8). Quando resumimos a informa<;ao que
os dados contem sobre 8, utilizando uma estatistica, e importante que nao ha-
ja perda de informa<;ao sobre 8. Ou seja, a estatistica a ser considerada deve,
dentro do possivel, conter toda a informa<;ao sobre 8 presente na amostra.
Em outras palavras, se pudermos usar uma estatistica T = T(Xl, ... , Xn)
para extrairmos toda informa<;ao que a amostra Xl, ... , X n contem sobre 8,
entao dizemos que T (que pode ser urn vetor) e suficiente para 8. Desse mo-
do, 0 conhecimento apenas de T (e nao necessariamente da amostra completa
Xl, ... ,Xn) e suficiente para que sejam feitas inferencias sobre 8. A seguir
apresentamos a defini<;ao formal.
Definic;ao 2.2.1. Dizemos que a estatistica T = T(Xl, ... ,Xn) e suficiente
pam 8, quando a distribtm;iio condicional de Xl, ... ,X n dado T for indepen-
dente de 8.
Os exemplos a seguir ilustram a obten<;ao de estatisticas suficientes pela
u tiliza<;ao da Defini<;ao 2.2.1.
Exemplo 2.2.1. Sejam Xl, ... ,Xn uma amostra aleat6ria da distribui<;ao·
Binomial(1,8), ou seja, de Bernoulli(8). Vamos verificar se a estatistica
T = 2:::7=1 Xi e suficiente para 8. De acordo com a Defini<;ao 2.2.1,T e su-
ficiente para 8, se a probabilidade condicional P[XI = Xl, ... ,Xn = xnlT = t]
for independente de 8. Temos, para Xl, ... , Xn = 0 ou 1 e t = 0, ... ,n,
2:::7=1 Xi i= t,
2:::~1Xi = t;
'. ] P[Xl=Xl, ... ,Xn=xn,T=t]
P[XI =Xl, .. ·,Xn=xnIT=t = P[T=t]
P[XI = Xl, ... , Xn = Xn] P[XI = Xl] ... P[Xn = Xn]
= (7)8t(1 - 8)n-t = __t1§!il - 8)n-t
8X1(1 - 8)1-Xl ... 8Xn (1 - 8)1-Xn _ 8t(1 - 8)n-t _ 1
= (7)8t(1 - 8)n-t - (7)8t(1 - 8)n-t - (7)'
pois sabemos que T ,...,Binomial(n, 8). Portanto
de modo que, pela Defini~iio 2.2.1, T = L:~=lXi e·suficiente para 8.
Exemplo 2.2.2. Consideremos novamente a situa~ao do Exemplo 2.2.1, com
n = 3 e T = Xl + 2X2 + X3. Vamos verificar se T e suficiente. Notemos que
para Xl = 1,X2 = 0, X3 = 1, temos que T = 2. Logo
P[XI = 1,X2 = 0,X3 = 1]
P[XI = 1,X2 = 0,X3 = liT = 2] = P[X
I
+ 2X
2
+ X
3
= 2]
P[XI = 1]P[X2 = 0]P[X3 = 1]
- P[XI = 1,X2 = 0,X3 = 1]+ P[XI = 0,X2 = 1,X3 = 0]
82(1-8) =8. C
82(1 - 8) + (1 - 8)28
Portanto, como a probabilidade (2.2.1) depende de 8, conclufmos que T nao
e suficiente para 8, pois, nesse caso, a distribui~ao condicional de Xl,"" Xn
dado T depende de 8.
Exemplo 2.2.3. Sejam Xl, ... ,Xn uma amostra aleatoria da distribui~ao de
Poisson com panlmetro 8. Vamos verificar se T = L:~=lXi e suficiente para
8. Sabemos que r = L:7=1 Xi tern distribui~ao de Poisson com para-metro n8.
Assim, para Xi = 0,1,2, ... , i = 1, ... , net = 0,1, ... , temos
{
0, -.-
P[XI = Xl,··· ,Xn = xnlT = t] = P[X,=X" ... ,Xn=Xn].
P[T=t] ,
L:~=lXi i- t,
L:~=lXi = t;
e-08Xn t!
Xn! e-nO(n8)t
t! 1= Xl!, ... , Xn! nt '
que e independente de 8. Segue, entao, da Defini~ao 2.2.1 que L:~=lXi e sufi-
ciente para 8.
Notemos que a Defini~iio 2.2.1 permite, apenas, que possarnos verificar se
determinada estatfstica e ou nao suficiente. Contudo nao pode ser utilizada co-
mo urn metodo para obten~ao de estatfsticas suficientes. Urn procedimento para
a obten~ao de estatfsticas suficientes e 0 criterio da fatora~ao que apresentamos
a seguir.
Teorema 2.2.1. (Criterio da Fatorat:;ao de Neyman) Sejam Xl, ... ,Xn uma
amostra aleat6ria da distribuit:;ao da varirivel aleat6ria X com funt:;ao de densi-
dade (ou de probabilidade) f(xIB) e func;ao de verossimilhant:;a L(B; x). Temos,
entao, que a estatistica T = T(XI, ... , Xn) e suficiente para B, se e somente
se pudermos escrever
onde h(XI,' .. , xn) e uma funt:;ao que depende apenas de Xl, ... , Xn (nao de-
pen de de B) e ge (T(XI, ... , xn)) depende de B e de Xl, ... , Xn somente atraves
de T.
Prova. Vamos provar 0 teorema apenas para 0 caso discreto. Nesse caso,
L(B; x) = Pe[X = x]. Suponhamos em primeiro lugar que (2.2.2) esteja verifi-
cada e entao,
{
0; . T(x) -1= t
P[X = xIT(X) = t] = Pe[X=x,T(X)=t). T() - t
Pe[T(X)=t], x - ,
quando T(x) -1= t, P[X = xIT(x) = t] = 0, que e independente de B, logo a
condi<;ao da Defini<;ao 2.2.1 est a verificada. Quando T(x) = t, 0 evento {X =
x, T(X) = t} esta conti do no evento {T(x) = t}, entao
Pe[X = x,T(X) = t] Pe[X = x]
PelT = t] PelT = t]
h(x)ge(t) h(x)
-:L:{X;T(X)=t} h(x)ge(t) ~ :L:{x;T(xl=t} h(x)'
que e independente de B, portanto T = T(X) e suficiente para B.
Suponhamos agora que T = T(X) seja suficiente, de modo que a distribui<;ao
condicional de X dado T e independente de B. Sendo T(x) = t,temos que
f(xIB) = Pe[X = x] = Pe[X = x, T(x) = t]
= P[X = xIT(x) = t]Po[T(X) = t] = h(x)ge(t),
de modo que (2.2.2) esta provada.
Exemplo 2.2.4. Consideremos novamente 0 modelo de Poisson do Exemplo
2.2.3. Temos, entao, que
n
L(B; x) = IIf(XijB)
i=l
__ l__ e-nOBxl+ ...+xn
Xl! ... Xn! "
h( ) 1 I () e 98 (T(x)) = e-n8eI:7=1 Xi,Xl,· .. , Xn = TIn .1 {0,1,2,oo.} X
i=l X,.
temos, pelo criterio cia fatora<;ao, que T(X) = I:~=lXi e suficiente para e,
onde X = (Xl,'" ,Xn).
Exemplo 2.2.5. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleatoria
X '" U(O, e). Conforme visto no Capitulo 1, temos que (veja 0 Modelo 1.1.5)
1
f(xle) = gI[o,8](x),
1 1
L(e; x) = gI[0,8J(xr) ... gI[o,8](xn)
1= en 1[0,8] (X(n) )I[o,x(~)J (X (1.) )',
de modo que, pelo criterio da fatora<;ao, X(n) e uma estatistica suficiente para
e.
Exemplo 2.2.6. Sejam Xl, ... ,Xn uma amostra aleatoria da distribui<;ao
N(p" 1). Temos, entao, que
1 _('1 _,,)2 1 _('n _,,)2
L(p,; x) = f(C.e 2 • .• f(C.e 2
y2IT y2IT
(
1 ) n _,,~ (';'2,,)2= -- e L....t=l
~
= (vk)n e-I:7=1 ;te-~+JlI:7=lXi.
Portanto, pelo criterio da fatora<;ao, T(X) = I:~~lXi e uma estatistica sufi-
ciente para p,.
Na se<;ao anterior vimos 0 casouniparametrico, ou seja, a distribui<;ao dos
dados depende de um unico parametro e. Nesta se<;ao consideramos 0 caso
multiparametrico em que e e um vetor de parametros, que denotamos por e.
Em muitas situa<;6es, 0 modelo estatistico depende de mais de um parametro.
Eo caso do modelo N(p" (1'2), em que e = (p" (1'2), sendo p, e (1'2 desconhecidos.
It 0 caso tambem do modelo Gama(a, (3), em que a e {3 saD desconhecidos e,
portanto, 0 = (a, (3).
Teorema 2.3.1. (Criterio dafatora<;ao. Caso Multiparametrico) Sejam Xl, ... ,
Xn uma amostra aleat6ria da distribui<;ao da varidvel aleat6ria X, com funr;ao
de densidade (ou de probabilidade) f(xjO). Temos, entao, que a estatistica r-
dimensional T = (TI, ... , Tr), Ti == Ti (X) e conjuntamente suficiente para 0
se
n
L(O; x) = f(xI, ... , xnlO) = IIf(XiIO) = h(XI, ... , xn)go(TI (x), ... ,Tr(x)),
i=l
onde h(XI, ... , Xri) e uma funr;ao que nao depende de 0 e go(TI (x), ... ,Tr(x))
depende de 0 e de x = (Xl, ... , Xn) somente por meio de (TI (x), ... ,Tr(x)).
No caso do Teorema 2.3.1, dizemos que a estatfstica suficiente e de dimensao
r, que em muitos casos e tambem a dimensao do espat;o parametrico 8. Mas
existem situa~6es em que tal fato nao ocorre, ou seja, a dimensao de 8 e menor
que r.
Exemplo 2.3.1. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da
variavel aleat6ria X "" N(p" (TZ), onde p, e (Tz saD desconhecidos. Temos, entao,
que 0 = (p" (TZ). Nessecaso, a funt;ao de verossimilhant;a pode ser escrita como
. (1) n ,,",n (Zi _1")2L(Oj x) = -- e- 0'=1 ---,;r-
V2if(T
= (_1_) n ~e-~ L:~=Ix~+~L:~=1x;-n,s
V2if (Tn . ,
com -00 < p, < 00 e (TZ> O. Tomando h(XI, ... ,xn) = 1/ (V2if)n e
temos, de acordo com 0 criterio da fatorat;a~, que T = (L:~=lXi, L:~=lXl) e
conjuntamente suficiente para (p" (TZ).
Definil;ao 2.3.1. Dizemos que duas estatisticas TI e Tz sao equivalentes se
existir uma rela<;ao1:1 entre elas.
Em outra palavras, TI e Tz siio equivalentes se TI puder ser obtida a partir
de Tz e vice-versa. Nesse caso, temos que, se TI e suficiente para e, entao Tz
tambem e suficiente para O. Esse resultado vale tambem para 0 caso multidi-
mensional.
Exemplo 2.3.2. Consideremos novamente a situa<;ao do Exemplo 2.2.6. Vi-
mos que Tl = ~~=l Xi e suficiente para /1. Como Tl e equivalente a T2 =
~~=l Xiln = X, temos que T2 = X tambem e suficiente para /1.
Exemplo 2.3.3. Consideremos novamente a situa<;ao do Exemplo 2.3.1. Nao e
dificil verificar que Tl = (~~=l Xi, ~i=l xl) e T2 = (X, 82) sao equivalentes.
Como Tl e suficiente para 8 (Exemplo 2.3.1), temos que T2 tambem e suficiente
para 8 = (/1, a2).
Exemplo 2.3.4. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria
X com distribui<;ao Gama(ex, (3). Dizemos que X ,...,Gama(ex, (3), se sua f.d.p.
e dada por
onde r(.) e a fun<;ao gama definida por r(t) = 1000 xt-le-Xdx, para t > O.
Entao, 8 = (ex, (3). Temos que a fun<;iio de verossimilhan<;a correspondente a
~ ''''- I 1 1
amostra observada e dada por . .
. (3nOl n ,in '"
£(8; x) = rn (ex) IIXf-l e-{3 _ ;=1 ~i)I(o,oo~ (x).'
. >=1 /~
ex > 0, (3 > O. Portanto, pelo criterio da fatora<;ao, temos que Tl
(n~=l Xi, ~~=l Xi) e conjuntamente suficiente para 8. Notemos que a es-
tatfstica T2 = (~~=l log Xi, X) e equivalente a Tl.
~ 2.4 Familias Exponenciais
Muitos dos modelos estatfsticos consideradosnas se<;6es anteriores podem ser
considerados como casos especiais de uma familia mais geral de distribui<;6es .
Defini«ao 2.4.1. Dizemos que a distribuif;iio da variavel aleat6ria X pertence
a famz'lia exponencial unidimensional de distribuif;oes, se pudermos escrever
sua f.p. ou f.d.p. como
onde c, d siio funf;oes reais de 8,. T, 8 siio funf;oes reais de x e A niio depende
de 8.
Notemos que no caso em que X e continua, para que f(xI8) em (2.4.1) seja
uma fun<;ao de densidade, e necessario quei ec{IJ)T(x)+d(IJ)+S{x)dx = 1,
i ec(IJ)T(x)+S(x)dx = e-d(IJ),
de modo que d(B) esta associado a constante de normaliza<;ao da densidade.
Resultado similar vale para 0 caso em que X e uma variavel aleatoria discreta.
Exemplo 2.4.1. Seja X uma variavel aleatoria com distribui<;ao de Bernoul-
li(B). Entao, podemos escrever
Portanto a distribui<;ao de X pertence a familia exponencial unidimensional
com
c(B) = log C ~B)' d(B) = log(1 - B),
T(x) = x, S(x) = 0, A = {O, I}.
Exemplo 2.4.2. Seja X uma variavel aleatoria com distribui<;ao N(t-t, 1).
Temos, entao, que
Portanto a distribui<;ao da variavel aleatoria X pertence a familia exponencial
unidimensional com
t-t2
c(t-t) = t-t, d(t-t) = -2'
x2
e S(x) = -2 -log~,
Outras distribui<;6es que podem ser colocadas na forma da familia exponen-
cial unidimensional sao, por exemplo, binomial, de Poisson e exponencial. 0
proximo result ado estabelece que amostras aleatorias de familias exponenciais
unidimensionais SaDtambem membros· da familia exponencial unidimensional.
Teorema 2.4.1. Sejam Xl, ... ,Xn uma amostra aleat6.,.ia de tamanho n da
va.,.iavel aleat6.,.ia X, com fun{:iio de densidade (ou de probabilidade) dada po.,.
(2.4.1). Entiio, a distribui{:iio conjunta de Xl,'" ,Xn e dada po.,.
f(XI"'" xnlB) = eC*(IJ)L:~=lT(Xi)+d*(IJ)+S*(x), X E An,
que tambem e da famz1ia exponencial com T(x) = L:~lT(Xi), c*(B) = c(B),
d*(B) = nd(B), e S*(x) = L:~=lS(Xi)'
n
h(Xl,""Xn) =e2:~=lS(X;)rrIA(Xi)' e ge(T) =eC(e)2:~=IT(Xi)+nd(e),
i=l
temos, pelo criterio da fatora~ao, que a estatistica T(X) = 2:~=1 T(Xi) e sufi-
ciente para B.
Defini«iio 2.4.2. Dizemos que a distribui9ao da variavel aleat6ria (ou de um
vetor aleat6rio) X pertence Ii famz1ia exponencial de. dimensao k se a fun9ao
de densidade (ou de probabilidade) de X e dada por
f(xIB) = e2:;=1 cj(e)Tj(x)+d(e)+S(x), x E A,
onde Cj, Tj, deS sao fun90es reais, j = 1, ... , k, e como no caso unidimen-
sional, d(B) estri associado Ii constante de normaliza9ao de (2.4.3) e A nao
depende de e.
Tambem, no caso de dimensao k,' amostras de familias exponenciais de di-
mensao k tern distribuic;6es que saD membros da familia exponencial de di-
mensao k. Para uma amostra Xl, ... , Xn de 'uma varia-vel aleat6ria com func;ao
de densidade (ou de probabilidade) dada por (2.4.3), temos que a fun~ao de
densidade (ou de pro babilidade) conjunta de Xl, ... , X n e dada por
f( Ie) = 2:;=1 ~;(e) 2:~=1Tj(x;)+d*(e)+s*(x)Xl, ... , Xn e ,
n
Tj*(x) = LTj(Xi), cj(e) = Cj(e),
i=l
S*(x) = L S(Xi), d*(e) = nd(e).
i=l
Exemplo 2.4.3. Consideremos mais uma vez a situac;ao do Exemplo 2.3.l.
Nesse caso, temos que e = (/-£,0'2), com
d(B) = -2~2 - ~log(T2, S(x) = -logJ2;, A = IR.
A distribui<;ao de uma amostra aleat6ria da densidade (2.4.4) e tambem da
familia exponencial com T1 (X) = L~=lXi e T2(X) = L~=lXl, que sao con-
juntamente suficientes para (J-l, (T2).
Exemplo 2.4.4. Vamos considerar agora 0 caso em que 0 vet or (X, Y) e dis-
tribufdo de acordo com a distribui<;ao normal bivariada com B = (J-lx, J-ly, (T;, (T;,
p), que denotamos por
que corresponde a uma densidade na forma da familia exponencial de dimensao
5, em que
cdB) = (1 ~ p2) [~~ - :::J, T1(x,y) = x,
c2(B) = (1 ~ p2) [~~ - :::J, T2(x,y) = y,
1
c3(B) = - 2(1- p2)(Ti' T3(x,y) = x2,
1
c4(B) =- 2(1- p2)(T~' T4(x,y) = y2,
Pc5(B) = (1 2) , T5(x,y) = xy.- P (Tx(Ty
As func;6es d(B) e S(x, y) SaGobtidas de maneira similar.
Consideremos uma amostra aleatoria (Xl, Yl), ... , (Xn, Yn) da densidade
normal bivariada (2.4.5). Temos, portanto, que a estatistica
e conjuntamente suficiente para B = (f.Lx, f.Ly, 0';,0';, p). Notemos que a es-
tatistica
- - 2 2T2 = (X, Y, Sx, Sy, Sxy),
onde S; = L~=l (Xi - X)2 In, S; = L:Z:l (Yi - y)2 In e Sxy = L:~,A(Xi -
X)(Yi - Y)ln e equivalente a Tl e, portanto, e tambem conjuntamente ·sufi.;!'
ciente para B. Estimadores comumente consider ados para Beque SaGfunc;6es
de T2 SaG
~2 ~ - 2fly = Y, O'x = L)Xi - X) In,
i=l
o estimador p e conhecido como coeficiente de correlaC;ao de Pearson. Podemos
mostrar que os estimadores de B dados por (2.4.6) e (2.4.7) SaGestimadores de
maxima verossimilhanc;a.
Sejam Xl,'" ,Xn uma amostra aleatoria da variavel aleatoria X com funC;ao
de densidade (ou de probabilidade) f(xIB). Seja T = T(Xl, ... ,Xn) uma es-
tatistica suficiente para B e S = S(Xl, ... ,Xn) urn estimador de B que nao e
func;ao da estatistica suficiente T. Entao,
e urn estimador de B, ou seja, e uma func;ao de T que nao depende de B,
pois, sendo T suficiente, a distribuic;ao condicional de Xl, ... , Xn dado T e
independente de B. Notemos que S = S (X 1, ... , X n) e uma func;ao apenas de
Xl,'" ,Xn. Temos, tambem, que se S e urn estimador nao viciado de B, entao
Be tambem nao viciado para B (veja 0 Exercicio 2.8). Contudo 0 resultado mais
importante, conhecido como Teorema de Rao-Blackwell, estabelece que, se S e
urn estimador nao viciado de 0, entao,
Var[S] = E{Var[SjT]} + Var{E[SIT]}
~ V ar{ E[SIT]} = Var[B],
pois E{Var[SIT]} ~ O. Portanto temos de (2.5.2) que 0 estimador 8 basea-
do na estatfstica suficiente T apresenta uma variancia menor (ou igual) que a
variancia do estimador nao viciado S. Desse modo, qualquer estimador S que
nao e fun<;ao de uma estatfstica suficiente pode ser melhorado pelo pro cedi-
men to (2.5.1).
Exemplo 2.5.1. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria
X ~ Poisson(O). Queremos estimar P(X = 0) = e-O. Temos que a estatfstica
T = 2:~1Xi e suficiente para O. Consideremos
S = {I, Xl = 0,
0, caso contrario.
Temos que E(S) = P(XI = 0) = e-o, logo S e nao viciado para e-o. Notemos
que, para t = 0,1,2, ... ,
E[SIT = t] = P(XI = 0IT = t) = P(2:7=2 X~ = t)P(XI = 0)
P(2:i=1 Xi = t)
=e-ln-I)O((n-1)O)te_o t! =(n_1)t
t! e-nO(nO)t n· '
portanto de acordo com (2.5.1) tern os que 0 estimador
A seguir apresentamos a defini<;ao de estatfstica completa que, em conjunto
com a defini<;ao de suficiencia, possibilita a obten<;ao do estimador 6timo, isto
e, 0 estimador nao viciado de variancia uniformemente mfnima.
Defini~iio 2.5.1. Uma estatistica T = T(XI, ... , Xn) e dita ser completa em
relar;iio d famz1ia f(xIO) : 0 E 8, se a unica funr;iio real g, definida no dominio
de T, tal que E[g(T)] = 0, para todo B e a funr;ao nula, isto e, g(T) = 0 com
probabilidade 1.
E[g(T)] = ~g(X) (:)BX(l- Bt-x = 0 para todo B,
C
onde p =B/(l- B). Como 0 lado esquerdo de (2.5.3) e urn polin6mio em p de
grau n temos que g(x) = 0 para todo x. Portanto T = L~:"'lXi e completa em
relac;ao a famflia Binomial.
Exemplo 2.5.3. Sejam Xl, X2 uma amostra aleat6ria da variavel X ~
Bernoulli(B). Seja T = Xl - X2. Temos que E(T) = E(X1 - X2) = 0, logo
existe a func;ao g(T) = T tal que E(g(T)) = 0, mas g(T) =j:. 0 com probabilidade
1. Portanto T = Xl - X2 nao e completa.
A demonstrac;ao do teorema a seguir pode ser encontrada em Lehmann
(1986) .
Teorema 2.5.2. Suponha que X tenha distribuir;ao da fam{lia exponencial k-
dimensional (como definida em 2.4.2). Entao, a estatistica
n n
T(X) = (LTl(Xi), ... ,LTk(Xi))
i=l i=l
e suficiente para B. T(X) sera tambem completa desde que 0 dom{nio de
variar;ao de (cl(B), ... ,cdB)) contenha um retangulo k-dimensional.
No caso uniparametrico, e necessario que 0 dominio de variac;ao de c(B)
contenha urn intervalo da reta. No caso bidimensional, urn quadrado e assim
pordiante.
Teorema 2.5.3. (Lehmann-Scheffe) Sejam Xl, ... , Xn uma amostra aleat6ria
da variavel aleat6ria X com f.d.p. (ou f.p.), f(xIB). Seja T uma estatistica
suficiente e completa. Seja S um estimador nao viciado de B. Entao B = E(SIT)
e 0 unico estimador nao viciado de B baseado em Tee 0 estimador nao viciado
de variancia uniformemente m{nima (ENVVUM) para B.
Prova. De (2.5.1) e (2.5.2) temos que e e urn estimador nao viciado de Beque,
na procura de ENVVUM's para B, basta procurar entre os que san func;ao de
T (pois os que nao san podem ser melhorados). Falta provar, entao, que ha urn
unico estimador nao viciado de 8 que e fun<;ao de T. Para isso, suponha que
existam fh e e2, ambos fun<;6es de T, tais que
de modo que E(el - (2) = 0 e como T e completa, el - e2el = e2 com probabilidade 1.
Exemplo 2.5.4. Sejam Xl, ... , Xn uma amostra aleat6ria da distribui<;ao de
Poisson com parametro 8. Pelos Exemplos 2.2.4 e 2.5.2 temos que T = .2::7=1 Xi
e uma estatlstica suficiente e completa. Como X e urn estimador nao viciado
de 8 e e fun<;ao de T, eo ENVVUM.
2.1. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X ~
N(O, cr2).
(i) Encontre 0 limite inferior·da variancia dos estimadores nao viciados de cr2.
(ii) Encontre uma estatistica suficiente para cr2.
(iii) Obtenha a partir desta estatistica urn estimador nao viciado para cr2 .
. (iv) Verifique se este estimador e eficiente.
2.2. Sej am Xl, ... , X n uma amostra aleat6ria da varia vel aleat6ria X ~
Binomial(2,8).
® Encontreo limite inferior da variancia dos estimadores nao viciados de 8.
l® Encontre uma estatistica suficiente para 8.
(iii) Obtenha urn estimador nao viciado para 8 que seja fun<;ao da estatistica
suficiente.
(iv) Verifique se 0 estimador e eficiente.
2.3. Sejam Xl, ... , Xn uma amostra aleat6ria da distribui<;ao da variavel
aleat6ria X com fun<;ao densidade de probabilidade dada por
(i) Mostre que a f.d.p. pertence a familia exponencial.
(ii) Encoiltre 0 limite inferior da variancia dos estimadores nao viciados de 8.
(iii) Encontre uma estatistica suficiente para 8 e sua distribui<;ao.
(iv) Sugira urn estimador nao viciado para 8 que seja fun<;ao da estatistica
suficiente e verifique se e eficiente.
2.4. Sejam Xl, X2 uma amostra aleat6ria da variavel aleat6ria X rv Poisson(8).
Mostre que T = Xl + 2X2 nao e suficiente para 8.
2.5. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X com
funr;ao de densidade (ou de probabilidade) f(xI8) para a qual as condir;6es
de regularidade estao satisfeitas. Seja l' urn estimador nao viciado para g(8).
Mostre que
V arb) > (g' (8))2 .
- nE [ ( a log £~X[O) ) 2]
2.6. Seja f(xI8) uma funr;ao densidade para a qual as condir;6es de regularidade
estao satisfeitas. Mostre que
2.7. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X com
f.d.p. dada por
f(xI8) = e-(X-O), x> 8, 8> O.
(i) Encontre uma estatistica suficiente para 8.
(ii) Baseado nesta estatistica, obtenha urn estimador nao viciado para 8.
2.8. Mostre que se 5 e urn estimador nao viciado de 8, entao (j dado por (2.5.1)
tambem e nao viciado para 8.
2.9. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X
N(p"1).
(i) Mostre que 0 estimador l' = X2 - 1jn e nao viciado para g(p,) = p,2.
(ii) Existe ENVVUM para p,2?
(iii) Encontre 0 limite inferior da variancia dos estimadores nao viciados de
g(p,) = p,2 e verifique se l' e eficiente:
2.10. Sejam Xl, .. ' ,Xn uma amostra aleat6ria da variavel aleat6ria. X '"
Bernoulli(8). Obtenha 0 ENVVUM para 8(1 - 8).
Sugestao: verifique se 52 = (n~l) X (1 - X) e nao viciado para 8(1 - 8).
2.11. Sejam Xl, ... ,X n uma amostra aleat6ria da variavel aleat6ria X com
distribuir;ao geometrica com parametro 8, isto e,
f(xI8) = 8(1 - 8)X, x = 0,1,2, ... , 0 < 8 < 1.
Encontre 0 ENVVUM para 1j 8.
2.12. Sejam Y1, ... ,Ynvariaveis aleat6rias independentes onde Yi '" N((3xi, 0-2),
onde xi e conhecido, i = 1, ... ,n. Note que, neste caso, as variaveis Yi nao SaD
identicamente distribuidas.
(i) Encontre uma estatistica conjuntamente suficientepara (3 e 172.
(ii) Baseado nessa estatistica, obtenha OS ENVVUM para (3 e para 172.
No capitulo anterior consideramos urn criterio para verificar se determinado
estimador e ou nao eficiente. Contudo tal procedimento nao e urn metodo que
possibilita, em geral, a obten<;ao de estimadores em situa<;6es especfficas. Vim os
tambem que todo born estimador deve ser fun<;ao de uma estatistica s~iente.
Neste capitulo vamos considerar alguns inetodos que possibilitam a obten<;ab
de estimadores em situa<;6es especfficas. 0 primeiro metodo que consideramos e
o metodo de maxima verossimilhan<;a em que estimadores saG obtidos a partir
da maximiza<;ao da fun<;ao de verossimilhan<;a. 0 segundo metodo considerado
e 0 metodo dos momentos em que estimadores saG obtidos igualando-se os
momentos amostrais aos correspondentes momentos populacionais.
o conceito de fun<;ao de verossimilhan<;a, enunciado a seguir, e central na teoria
da verossimilhan<;a.
Defini<;iio 3.1.1. Sejam Xl,'" ,Xn uma amostm aleataria de tamanho n da
variavel aleataria X com funr;iio de densidade (ou de probabilidade) f(xI8),
com 8 E e, onde e Ii 0 espar;o pammetrico. A funr;iio de verossimilhanr;a de 8
correspondente Ii amostm aleataria observada e dada por
L(8; x) = IIf(XiI8).
i=l
Defini<;iio 3.1.2. 0 estimador de maxima verossimilhanr;a de 8 Ii 0 valor iJ E e
que maximiza a funr;iio de verossimilhanr;a L(8; x).
o logaritmo natural da func,;ao de verossimilhanc,;a de 8 e denotado pOl'
Nao e dificil verificar que 0 valor de 8 que maximiza a fun<;ao de verossimi-
lhan<;a L(8; x), tambem maximiza l(8; x) dada por (3.1.2). Alem disso, no caso
uniparametrico onde e e urn intervalo da reta e l(8; x) e derivavel, 0 estimador
de maxima verossimilhanc;a pode ser encontrado como a raiz da equac;ao de
verossimilhanc;a
l'(8;x) = 8l~~x) = o.
Em alguns exemplos simples, a soluc;ao da equac;ao de verossimilhanc;a pode ser
obtida explicitamente. Em situac;oes mais complicadas, a soluc;ao da equac;ao
(3.1.3) sera em geralobtida por procedimentos numericos. Para se conc1uir que
a soluc;ao da equac;ao (3.1.3) e urn ponto de maximo, e necessario verificar se
l"(8'. )=82IogL(8;x)1 . 0, x 882 B=B < .
Em situac;oes em que e e discreto ou em que 0 maximo de l(8; x) ocorre na
fronteira de e (Exemplo 1.3.8), 0 estimador de maxima verossimilhanc;a nao
pode ser obtido a partir da soluc;ao de (3.1.3). Em tais situac;oes, 0 maximo e
obtido a partir da inspec;ao da func;ao de verossimilhanc;a.
Exemplo 3.1.1. Sejam Xl,'" ,Xn uma amostra aleat6ria da distribuic;ao da
variavel aleat6ria X ,.....,N(p, 1). Nesse caso, a func;ao de verossimilhanc;a e dada
por
L(p; x) = (~) n e-~ L:~=1(X;-f.L)2,
com e = {Pi -00 < P < oo}. Como
1 n
l(p; x) = -n log y'2; - 2""2)Xi - p)2,
i=l
:L(Xi - fl) = 0,
i=l
1 n _
fl=-:LXi=X.
n i=l
Nao e dificil verificar nesse caso que (3.1.4) esta satisfeita.
Entao X, alem de ser eficiente (Exemplo 2.1.1) e func;ao da estatlstica sufi-
ciente, e tambem estimador de maxima verossimilhanc;a.
Exemplo 3.1.2. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria
X ~ Bernoulli(B). Nesse caso, a fun<;ao de verossimilhan<;a de B e dada por
n (n)I(B;x)=~XilogB+ n-~Xi log(1-B).
2=~1Xi _ (n - 2=~1 xd = 0,
B 1- B
pois neste caso, (3.1.4) tambem est a verificada.
o exemplo a seguir ilustra uma situa<;ao em que a equa<;ao (3.1.3) nao pode
ser utilizada.
Exemplo 3.1.3. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria
X ~ U(O, B). Conforme visto no Exemplo 2.2.5, podemos escrever a fun<;ao de
verossimilhan<;a como
onde e = {B; B > O}. Nesse caso, a equa<;ao de verossimilhan<;a (3.1.3) nao leva
a nenhum estimador para B. Por outro lado, 0 grafico da fun<;ao de verossimi-
Ihan<;a de B e dado pela Figura 3.1.
Como a fun<;ao de verossimilhan<;a (3.1.5)e nula para B < x(n) e vale l/Bn
para B ~ X(n), temos que 0 maximo de L(B; x) e dado por (j = X(n), que e uma
estatistica suficiente para B. Nesse caso 0 estimador de maxima verossimilhan<;a
de B e viciado (ver Exemplo 1.3.8.).
L(8.x)''!
I
1 i-+-----------------------------------------
X;:d I
I
J
No caso discreto, 0 estimador de maxima verossimilham;a de e, B, pode ser
interpret ado como 0 valor de e que maximiza a probabilidade de se observar a
amostra que foi selecionada. 0 exemplo a seguir ilustra bem esse fato.
Exemplo 3.1.4. Temos uma caixa com bolas brancas e vermelhas_ Sabe-se
que a propor<;ao e de bolas vermelhas na caixa e 1/3 ou 2/3. Portanto e =
{1/3,2/3}. Para obtermos informa<;:ao sobre e, uma amostra de n = 3 bolas
e observada com reposi<;:ao e apresenta bola vermelha na primeira extra<;:ao e
branca na segunda e na terceira extra<;:6es_Definindo
Xi = { 1,
0,
se a i-esima retirada apresenta bola vermelha
se a i-esima retirada apresenta bola branca,
para i = 1,2,3, temos que a fun<;:aode verossimilhan<;:a de e associada a amostra
observada e dada por
Como
L (~;x) = ~ (~r4-27
e
L (~;x) = ~ (~r227'
temos que a estimativa de maxima verossimilhan<;a de 8 e dada por fj = 1/3,
pois
o exemplo que apresentamos a seguir ilustra uma situa<;8,oem que 0 esti-
mador de maxima verossimilhan<;a nao e unieo.
/Exemplo 3.1.5. Sejam Xl,"" Xn uma amostra aleat6ria da distribui<;ao da
variavel aleat6ria X ~ U(8 - 1/2,8 + 1/2), isto e
f(xI8) = I[8-1/2;9+1/2j(X),
L(8; x) = I[8-1/2;8+1/2j(XJ)'" I[8-1/2;8+1/2j(Xn)
= I[X(n)-1/2;x(1)+1/2j(8),
. '
8 s: X(l) + 1/2 e X(n) - 1/2 s: 8.
A Figura 3.2 apresenta 0 grafieo da fun<;ao L(8; x).
4-
L(e,x) I
!
I
!
, _· ••••1 -----~i -'un,'_n ' nn __
a
Como L(B; x) e nula para B < x(n) - 1/2 e para B > X(l) + 1/2 e constante
no intervalo [X(n) - 1/2; X(l) + 1/2]' temos que qualquer ponto desse intervalo
e urn estimador de maxima verossimilhan<;:a de B. Em particular,
e urn estimador de maxima verossimilhan<;:a de B.
Em alguns casos, principalmente quando a verossimilhan<;:a esta associada
a modelos mais complexos, a fun<;:ao de verossimilhan<;:a nao apresenta solu<;:ao
analitica explicita. Em tais casos, os estimadores de maxima verossimilhan<;:a
podem ser obtidos pormeio de metodos numericos. Vamos denotar por U(B) a
fun<;:aoescore, ou seja,
U(B) = 8log L( B; x)
8B '
de modo que, expandindo U(8) em serie de Taylor em torno de urn ponto Bo,
obtemos .
0= U(8) ~ U(Bo) + (8 - Bo)U'(Bo),
8 ~ B _ U(Bo)
. - 0 U'(Bo)·
que e iniciado com 0 valor eo e entao urn novo valor Bl e obtido a partir de
(3.1.7) e assim por diante, ate que 0 processo se estabilize, ou seja, para urn
dado I: pequeno, IBj+l - Bjl < (. Nesse caso, 0 ponto 8 em que 0 processo
se estabiliza e tornado como 0 estimador de maxima verossimilhan<;:a de B.
Em alguns casos, a substitui<;:ao de U'(Bj) em (3.1.7) por E[U'(Bj)], ou seja, a
informa<;:ao de Fisher em Bj correspondente a amostra observada multiplicada
por -1, apresenta significativa simplifica<;:ao no procedimento. Esse metodo e
conhecido como metodo do escore. 0 exemplo a seguir ilustra uma aplica<;:ao
de tal procedimento.
Exemplo 3.1.6. Sejam Xl, ... ,Xn uma amostraaleat6ria da distribui<;:ao da
variavel aleat6ria X com fun<;:ao de densidade dada por
1
f(xI8) = 2(~ + 8x); -1:S x :s 1, -1:S 8 :s 1.
1 n
L(8;x) = 2" II(1 +8Xi),
i=l
U(8)=&logL(8;x) ~ Xi
&8 . =L..,.1+8x··
i=l '
n 2
U'(8) = - L (1 +X~xY'
i=l '
de modo que 0 proc~dimento iterativo (3.1.7) se reduz a
I:11 Xi
8 - 8 i=l 1+0jXij+l - j + 2"n x.
6i=1 (1+0;Xi)2
Ip(8) = 2~3{logC~:) -28},
de modo que um procedimento alternativo a (3.1.9) e dado por
I:n Xi8. - 8. _ i=l i+9jXi'
J+l - J nIp (8j)
Vma amostra de tamanho n = 20 e gerada a partir da densidade (3.1.8) com
8 = 0,4. Os dados foram gerados a partir do metodo da fun<;ao de distribui<;iio,
ou seja, sendo F(X) = U, temos que u", U(O, 1). Nesse caso, 'como
-1 + 2}1/4 - 8(1/2 - 8/4 - u)
x = ------8------
tem distribui<;ao com fun<;ao de densidade dada por (3.1.8), ou seja, para u
gerado a partir da U(O, 1), x obtido a partir de (3.1.11) e um valor gerado a
partir da distribui<;ao com fun<;aode densidade dada par (3.1.8). As observa<;6es
geradas sac dadas na Tabela 3.1.
0,3374 0,9285 0,6802 -0,2139 0,1052
-0,9793 -0,2623 -0,1964 0,5234 -3,4919
-0,6082 0,7509 0,3424 -0,7010 -0,2605
+0,4077 -0,7435 0,9862 0,9704 0,5313
Escrevendo urn program a em Fortran (outra linguagem poderia tambem ser
facilmente utilizada) para calcular 0 estimador de maxima verossimilhanc;a,
obtemos, ap6s 10 iterac;oes do programa, a Tabela 3.2 em que a segunda coluna
corresponde ao procedimento dado em (3.1.9) e a terceira coluna corresponde
ao procedimento (3.1.10). Como valor inicial para 0 procedimento iterativo foi
usado eo = x = 0,1282'
Tabela 3.2. Valores de {j obtidos nas 10 iterac;oes
Iterac;ao Usando (3.1.9) Usando (3.1.10)
1 0,128188 0,128188
2 0,358745 0,371861
3 0,351170 0,349163
4 0,351140 0,351328
5 0,351140 0,351123
6 0,351140 0,351142
7 0,351140 0,351140
8 0,351140 0,351140
9 0,351140 0,351140
10 0,351140 0,351140
3.2 Propriedades dos Estimadores de Maxima
Verossimilhanc;a
o teorema a seguir apresenta uma propriedade importante dos estimadores de
maxima verossimilhanc;a, estabelecendo que 0 estimador de maxima verossimi-
Ihanc;a e func;ao de uma estatistica suficiente.
Teorema 3.2.1. Sejam Xl,' .. ,Xn uma amostra aleat6ria da variavel aleat6ria
X com fun<;ao de densidade (ou de probabilidade) f(xle). Seja T = T(XI, ... ,
Xn) uma estatistica suficiente para e. Entao 0 estimador de maxima verossi-
milhan<;a {j (se existir) e fun<;ao de T. '
Prova. De acordo cOm 0 criterio da fatorac;ao, temos que se T e suficiente para
e, entao,
onde glJ(T(x)) depende de x somente atraves de T. Como hex) e constante
com relac;ao a B, temos que maximaT L(B; x) com relac;ao a B e equivalente a
maximizar glJ(T(x)) com relac;ao a B. Como glJ(T(x)) depende de x somente
atraves de T, temos que e sera obrigatoriamente uma func;ao de T. Outras
propriedades saD apresentadas nas subsec;6es seguintes.
A seguir apresentamos uma propriedade bastante importante do metodo de
maxima verossimilhanc;a. Seja g(.) uma func;ao real 1 : 1 (inversivel) definida
erne.
Teorema 3.2.2. (0 principio da invariancia.) Sejam Xl, ... ,Xn uma #nostra
aleat6ria da variavel aleat6ria X com funr;ao de densidade (ou de probabilid'adel'
f(xIB). Se e Ii um estimador de maxima verossimilhanr;a de B, entao gee) Ii um
estimador de maxima verossimilhanr;a de g(B).
Prova. Provamos 0 resultado para 0 caso em que 9 e 1:1. Sendo g(.) uma
fun<;ao 1: 1, temos que g(.) e inversivel, de modo que B = g-l(g(B)). Assim
i(e) = gee),
ou seja, 0 estimador de maxima verossimilhan<;a de g(B) e gee).
Exemplo 3.2.1. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da
variavel aleat6ria X '" Bernoulli(B). Nesse caso, 0 parametro de interesse e
g(B) = B(l-B). De acordo com 0 principio da invariancia, temos que 0 estimador
de maxima verossimilhanc;a de g(B) e dado por
De acordo com 0 Exercicio 2.10 temos que 0 estimador dado em (3.2.2) e viciado
para g(B). Par outro lado, usando 0 Exercicio 2,10, temos que
, 1
E[g(B)) - g(B) = -B(l - B),
n
Exemplo 3.2.2. SejamXI, ... ,Xn uma amostra. aleatoria da distribuic;ao da
variavel aleatoria X ""' N(fL, 1). Vimos que p, = X eo estimador de maxima
verossimilhanc;a de fL. Suponhamos que queremos estimar
eo estimador de maxima verossimilhanc;a de g(fL) .
./~ Exemplo 3.2.3. Sejam Xl, .. ',Xn uma amostra aleatoria da distribuic;ao da
variavel aleatoria X ""' Exp(B) com densidade
B> 0 ex> O. Nesse caso, fJ = X-I eo estimador de maxima verossimilhanc;a
de B. Suponhamos que e de interesse estimar
De acordo com 0 principio da invariancia, temos que 0 estimador de maxima
verossimilhanc;ae
Nos tres exemplos acima, vimos situac;6es em que 0 estimador de maxima
verossimilhanc;a e uma func;ao complicada da amostra observada. Certamente,
nao e uma tarefa facil encontrar a distribuic;ao do estimador <f>( -X), por exem-
plo. Contudo, se 0 tamanho da amostra for grande, 0 estimador de maxima
verossimilhanc;a apresentara uma distribuic;ao aproximadamente normal, como
veremos adiante. Alem disso, veremos que 0 estimador de maxima verossimi-
Ihanc;a e eficiente, em grandes amostras.
'"No caso em que 0 tamanho da amostra e grande, e as condic;6es de regularidade,
especificadas no Capitulo 2, estao satisfeitaS, temos que ·f A IJ~O ",c"'~·E
D e
vn(fJ - B) !!:, N (0, IF~e)) ,
onde ,,-t" significa distribuic;ao assintotica. Temos entao que, para amostras
grandes, os estimadores de maxima verossimilhanc;a de 8 e g(8) sao aproxi-
madamente nao viciados, cujas variancias coincidem com os correspondentes
limites inferiores das variancias dos estimadores nao viciados de 8 e g(8). Por-
tanto, em gran des amostras, temos que 0 estimador de maxima verossimilhanc;a
e eficiente.
Exemplo 3.2.4. Considere 0 modelo do Exemplo 3.2.1. De acordo com (3.2.4),
temos que a distribuic;ao do estimador de maxima verossimilhanc;a (3.2.2) e
dada por
.jii(g(e).c- 8(1 - 8)) -t N (0, (1 - 28)28(1 - 8)) ,
pois g'(8) = 1 - 28.
Exemplo 3.2.5. Sejam Xl," ., Xn uma amostra aleatoria da variavel aleatoria
X ,.,. Poisson(8). Nesse casa, temos que 0 estimador de maxima verossimi-
lhanc;a de 8 e e = X (verifique!). De acordo com 0 princfpio da invariancia,
temos que 0 estimador de maxima verossimilhanc;a de e-e e dado por
Existem situac;i5es em que temos duas ou mais amostras independentes de dis-
tribuic;i5es que dependem de urn parametro 8 de interesse. No caso de duas
amostras aleatorias independentes, Xl, ... ,Xn e Yl, ... ,Yn, podemos escrever
devido a independeJ)cia entre as amostras. Portanto a verossimilhanc;a conjunta
e igual ao produto da verossimilhanc;a correspondente a amostra Xl, ... ,Xn
pela verossimilhanc;a correspondente a amostra Yl, ... ,Yn. De (3.3.1), podemos
escrever
l(8; x, y) = l(8; x) + l(8; y),
de modo que 0 logaritmo da verossimilhanc;a conjunta e igual a soma do logari-
tmo das verossimilhanc;as correspondentes a cada uma das amostras. 0 exemplo
que apresentamos a seguir ilustra uma tal situac;ao.
Exemplo 3.3.1. Sejam Xl,." ,Xn uma amostra aleatoria correspondente a
X ,.,.N(f-l, 4) e Yl, ... ,Y" uma amostra aleatoria correspondente a Y ,.,.N(f-l, 9).
Assumindo que as duas amostras san independentes, temos que a verossimi-
lhan<;a correspondente a amostra conjunta e dada por
(2~) n e- 2:~=,(Zi~,,)2 C~) m e- 2:::1 (y;;:)2
= (2~) n (3~) m e- 2:~=,(Zi~,,)2 -2:::, (Yi;:)2.
Usando 0 criterio da fatora<;ao, nao e dificil verificar que uma estatfstica sufi-
ciente para IJ- e dada por
T(x, y) = 2:~1Xi + 2:::1}Ii
4 g'
n m ~ (Xi - IJ-)2 ~ (Yi - IJ-)2
l(IJ-;x,Y) = --2 log 871' - -2 log 1871' - 0 8 - 0 ---,
i=1 i=1 18
810gL(IJ-;x,y) = ~ (Xi - p.) ~ (Yi - p.) = 0
8 0 4 +0 9 ,
IJ- i=1 i=1
Podemos notar que 0 estimador de maxima verossimilhan<;a e fum;ao da es-
tatfstica suficiente dada em (3.3.3).
Nas se<;oes anteriores discutimos a obten<;ao dos estimadores de maXIma
verossimilhan<;a e estudamos suas propriedades no caso em que a fun<;ao de
verossimilhan<;a depende apenas de urn parametro. Nesta se<;ao vamos cons i-
derar situa<;oes em que 8 = (81, ... ,8r), ou seja, a verossimilhan<;a depende de
dois ou mais parametros. 0 espa<;o parametrico sera denotado por e. Nos cas os
em que as condi<;oes de regularidade estao satisfeitas, os estimadores de maxima
verossimilhan<;a de 81, ... ,8r podem ser obtidos como solu<;ao das equa<;oes
ologL(B;x) =0
OBi '
i = 1, ... , T. Nos cas os em que 0 suporte da distribuic;ao de X depende de B ou
o maximo ocorre na fronteira de e, 0 estimador de maxima verossimilhanc;a e
em geral obtido inspecionando 0 grafico da func;ao de verossimilhanc;a, como no
caso uniparametrico. Nos casos em que a func;ao de verossimilhanc;a depende
de dois panlmetros, Bl e B2, utilizando a equac;ao
ologL(Bl,B2;x) = 0
OBI '
obtemos uma soluc;ao para 81 como func;ao de 82, que podemos denotar por
81(82). Substituindo a soluc;ao para 81 na verossimilhanc;a conjunta, temo~gora
uma func;iio apenas de 82, ou seja, •
conhecida como verossimilhanc;a perfilada de B2 que pode ser usada para que 0
estimador de maxima verossimilhanc;a de 82 possa ser obtido. A maximizac;ao
de g(82; x) pode, entao, ser feita de maneira usual, ou seja, atraves de derivac;ao,
quando possivel.
Exemplo 3.4.1. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria
X ~ N(/-£, (7"2),onde /-£ e (7"2sac desconhecidos. Temos, entao, que B = (/-£, (7"2),
com
l(/-£, (7"2;x) = -~log27l"(7"2 - t (Xi
2
::)2
.=1
que leva ao estimador fl = X. Portanto 0 logaritmo da verossimilhanc;a perfilada
de (7"2e dada por
logo 0 estimador de maxima verossimilhanc;a de (7"2e obtido como soluc;ao da
equac;ao
,2 1~ - 2
U = - L..,,(Xi - X) ,
n
i==l
de modo que os estimadores de maxima verossimilhan<;a de fl e (J2 san dados,
respectivamente, por
_ 1 n
p, = X = - LXi
n i==l
No caso multiparametrico, as mesmas propriedades como invariancia, fun<;ao
da estatistica suficiente e outras, continuam valendo. 0 mesmo se aplica ao
caso de varias amostras independentes, conforme ilustra 0 exemplo a seguir.
Exemplo 3.4.2. Sejam Xl, ... , Xn uma amostra aleat6ria de X '" N(flx, (2)
e Yl'''',Ym uma amostra aleat6ria de Y '" N(fly,U2). Nesse caso, B =
(flx, fly, (2). Portanto a verossimilhan<;a correspondente a amostra observada e
dada por
L(B; x, y) = (~U) n (~U) m e-~ ~~=1(x;-/l,)2_~ ~::1(Yi-/ly)2,
logo
l(B ) (n + m) 1 2 (m + n) 1 2 ~ (Xi - flx)2; x, Y .= - 2 og 7r- 2 og U - L.." 2u2
,==1
8l(B; x, y) _ ~( . _ ' ) _ 0o - L.." X, flx - ,
flx i==l
ol(B; x, y) _ ~( . _ A ) _ 0- L.." Y, fly-
Ofly j==l
8l(B;x,y) (m+n) 1 1 {~ ,2 ~ '2}
Ou2 = - 2 3-2 + 23-4 ~(Xi - flx) + f;;;(Yj - fly) = 0,
A2 2::~=1(Xi - X')2 + 2::;:1 (Yj - V)2
(Y =
m+n
3.5 Familia Exponencial e 0 Metodo de Maxima
Verossimilhan<;a
5e a distribuic;ao da variavel aleat6ria X pertence a familia exponencial unidi-
mensional de distribuic;6es, entao 0 estimador de maxima verossimilha~.a de B
baseado na amostra X = (Xl,' .. ,Xn) e soluc;ao da equa<;ao ~
• ~-1
des de que a soluc;ao pertenc;a ao espa<;o parametrico correspondente ao para-
metro B. Esse resultado pode ser estendido para 0 caso k-parametrico em que
os estimadores de maxima verossimilhanc;a de Bl, ... ,Bk seguem como soluc;6es
das equa<;6es
Exemplo 3.5.1. Consideremos uma populac;ao com 3 tip os de individuos de-
nominados (rotulados) 1, 2, e 3, ocorrendo nas proporc;6es de Hardy-Weinberg
o < B < 1. Por exemplo, p( 1;B) = B2 significa que a probabilidade de se observar
um indivfduo do tipo 1 e B2. Para uma amostra de n = 3 individuos, se Xl = 1,
X2 = 2 e X3 = I, onde Xl = 1 significa que 0 primeiro individuo observado e do
tipo I, X2 = 2 significa que 0 segundo indivfduo observado e do tipo 2 e X3 = 1
significa que 0 terceiro indivfduo observado e do tipo 1, temos que a func;ao de
verossimilhan<;a correspondente e dada por
L(Bj x) = p(lj B)p(2; B)p(3; B) = 2B5(1 - B),
de modo que de (3.1.3),
f(B;x) = ~ - ~ =0
B I-B
leva ao estimador fj 5/6 (verifique que ["(8; x) < 0). Em geral, para
uma amostra de n individuos, sendo nl, n2, n3 0 numero de elementos de
{Xl, ... , Xn} iguais a 1, 2 e 3, respectivamente, temos que
Entao c(8) = log(8/(1 - 8)) e T(X) = 2N1 + N2 de modo que
E[T(X)] = E[2N1 + N2] = 2n82 + 2n8(1 - 8) = 2n8.
2N1 + N2 = 2ne
que produz 0 estimador e = (2N1 + N2)/2n.
Exemplo 3.5.2. Consideremos (Xl, Yd, ... , (Xn, Yn) uma amostra aleat6ria
da distribuic;ao normal bivariada dada no Exemplo 2.4.4, em que e obtida a
estatistica suficiente T = (T1, T2, T3, T4, T5), com T1= 2:7=1 Xi, T2 = 2:7=1 Yi,
T3 = 2:7=1 Xl, T4 = 2:7=1 Y?, T5 = 2:7=1 XiYi, para 8 = (/-Lx,/-Ly,(J;,(J~,p).
Como E[Xi] = /-Lx, E[Yi] = /-Ly,E[XtJ = /-Li + (J;, E[Y?] = /-L~ + (J~ e E[XiYi] =
/-Lx/-Ly+ P(Jx(Jy, i = 1, ... , n, segue que E[T1] = n/-Lx, E[T2] = n/-Ly, E[T3] =
n/-L; + n(J;, E[T4] = n/-L~+ n(J~ e E[T5] = n/-Lx/-Ly+ n(J;(J~, entao de (3.5.2),
temos que 0 estimador de maxima verossimilhanc;a de 8 tern componentes dadas
pelas expressoes (2.4.6) e (2.4.7).
o metodo dos momentos e urn dos metodos de estimac;ao mais simples e antigos.
Esse metodo tern sido utilizado desde 0 seculo XVIII. Seja
1 n
mr = - EX;'
n i=l
r ~ 1, 0 r-esimo momento populacional. 0 metodo dos moment os consiste na
obtenc;ao de estimadores para 8 = (81, ... ,8k) resolvendo-se as equac;oes
Exemplo 3.6.1. Consideremos novamente 0 problema da estimac;ao do numero
de taxis em uma cidade. Sendo N 0 numero de taxis, vimos que
1
P[Xi = k] = 1'\/' k = 1, ... ,N,'
onde Xi e 0 numero do i-esimo taxi observado. Como 0 primeiro momento
populacional e dado por
N+1
f.1l = E[X] = -2-'
temos que urn estimador para N, utilizando-se os primeiros momentos popula-
cional e amostral, e dado pela solU<;aoda equa<;ao
, - "N = 2X-1.
Notemos que, nesse caso, 0 estimador obtido pelo metodo dos momentos ILi;i,o e
fun<;aQd<:t estatistica s!1ficiente X(n)'
Exemplo 3.6.2. Sejam Xl, ... ,Xn. uma amostra aleatoria da distribui<;ao da
variavel aleatoria X, com densidade gama com parametros a e /3 dados por
/3cxxCX-le-/3x
f(xla,/3)= r(a) , x>O,a>O,/3>O.
a a
E[X] = e e Var[X] = /32'
temos que estimadores para a e /3 saD obtidos como solu<;ao das equa<;6es
a 1 n
-;:= - '2:Xi
~ . n i=l
-2
, X
a = (j2 '
, X
e /3 = ';:z,
(J
onde (j2 2:~=1(Xi - X)2 In, como antes. Nesse caso, nao e possivel obter-
mos estiinadores de maxima verossimilhan<;a explicitos para a e /3. Metodos
computacionais como 0 metodo do escore consider ado na Se<;ao 3.1 devem ser
utilizados. Como valores iniciais para esses metodos computacionais, podemos
utilizar os estimadores dados por (3.6.1). Notemos tambem que os estimadores
dados por (3.6.1) nao saD fun<;6es da estatistica conjuntamente suficiente, que
nesse caso e dada por (TI~=lXi, 2:~=1Xi)'
Os metodos de estima<;ao considerados nest a se<;ao produzem, em geral, esti-
madores consistentes, ou seja, a medida que 0 tamanho da amostra aumenta, os
estimadores ficam tao proximos do panlmetro que esta sendo estimado quanta
desejado. Consistencia esta ligada ao conceito de convergencia em probabilida-
de (veja James, 1981).
Definic;ao 3.7.1. Sejam Xl, ... ,Xn uma amostra aleat6ria da distribuir;iio da
variavel aleat6ria X que depende do parametro O. Dizemos que 0 estimador
B = B(X I, ... , Xn) e consistente para 0 parametro 0, se,
Em geral, usamos a desigualdade de Chebyshev (veja James,1981) para a veri-
fica<;ao dessa propriedade.
Exemplo 3.7.1. Sejam Xl .... ,Xn uma amostra aleatoria de tamanho n da
distribui<;ao da variavel aleatoria X com media 0 e variancia a2. Temos, usando
a desigualdade de Chebyshev, que
limn~ooP(IX - 01 > €) = 0,
e portanto X e consistente para O.
3.1. Sejam Xl,"" Xn uma amostra aleatoria da variavel aleatoria X com
fun<;ao de densidade de probabilidade
o
f(xIO) = 2' x 2: 0, 0> O.
x
3.2. Sejam Xl"" ,Xn uma amostra aleatoria de tamanho n da variavel
aleatoria X com fun<;ao de densidade de probabilidade dada por
•
f(xIO) = OxO-I, 0 < x < 1,0 > O.
(i) Encontre os estimadores de maxima verossimilhan<;a de 0 e de g(O) = 0/(1+
0). (ii) Encontre a distribui<;ao aproximada dos estimadores em (i) quando n e
grande.
3.3. Sejam Xl, ... ,Xn' uma amostra aleat6ria da variavel aleat6ria X ~
N(/-L, 1). Encontre 0 estimador de maxima verossimilhanc;a de g(/-f) = PJ.LIX > 0]
. e sua distribuic;ao aproximada quando n e grande.
3.4. Sejam Xl, .. " Xn uma amostra aleat6ria de tamanho n da variavel
aleat6ria X com func;ao de densidade de probabilidade dada por
f(xIB) = ; e-x/8, x 2: 0, B > O.
(i) Encontre 0 estimador de maxima verossimilhanc;a de B e verifique se ele e
eficiente.
(ii) Encontre 0 estimador de maxima verossimilhanc;a de Var[X]e Ccontre
sua distribui<;ao aproximada em grandes amostras. ~,
3.5. Encontre a distl}buic;ao aproximada para grandes amostras do estimador
de maxima verossimilhan<;a de .p( -8), considerado no Exemplo 3.2.2.
3.6. Encontre 0 estimador de maxima verossimilhanc;a de 82 no Exercicio 2.9
e compare seu erro quadratico medio com 0 do estimador eficiente l' dado no
Exercicio 2.9, (i).
3.7: Considere uma amostra aleat6ria de tamanho n da distribui<;ao da variavel
aleat6ria X onde cada observa<;ao apresenta urn de tres resultados possfveis (por
exemplo, favonivel, contra e indiferente), que denotamos por "0", "I" e "2".
Suponhamos que a probabilidade de "0" e Pl = (1 - 8)/2, a probabilidade da
ocorrencia do resultado "I" e P2 = 1/2 e do resultado "2" e P3 = 8/2. Seja nl:
o numero de vezes que "0" ocorre, n2: 0 numero de vezes que "I" ocone e n3:
o numero de vezes que 0 "2" ocorre.
(i) Encontre, como fun<;ao de nl, n2, n3, uma estatfsticasuficiente para B.
(ii) Encontre 0 estimador de maxima verossimilhanc;a de B.
3.8. Sejam Xl, ... , Xn uma amostra aleat6ria de tamanho n da variavel
aleat6ria X com func;ao de densidade de probabilidade dada por
(i) Encontre, usando 0 metodo dos momentos, urn estimador para E[X].
(ii) Encontre 0 estimador de maxima verossimilhanc;a de B e sua distribuic;ao
aproximada em grandes amostras.
3.9. Sejam Xl,.'" Xn uma amostra aleat6ria de tamanho n da variavel X com
fun<;ao de densidade de probabilidade dada por
(x-a)
1 (x-a) -e - fJ
f(xIB) = _e--fJ-e
(3
(i) Encontre a distribui<;ao de Y = eX.
(ii) Discuta a obten<;ao do estimador de maxima verossimilhan<;a para (3, quan-
do a = O.
(iii) Encontre estatfsticas conjuntamente suficientes para a e (3.
(iv) Discuta a obten<;ao dos estimadores de maxima verossimilhan<;a para a e
(3 e verifique se sac fun<;6es das estatfsticas obtidas em (iii).
(v) Usando (i), gere uma amostra aleat6ria de tamanho n =20 da variavel
aleat6ria Y. A partir desta amostra, obtenha uma amostra de tamanho n=20
para a variav€l aleat6ria X e usando urn programa de computador, obtenha os
estimadores de maxima verossimilhan<;a de a e (3.
3.10. Sejam Xl, ... ,Xn uma: amostra aleat6ria de tamanho n da variavel
aleat6ria X com fun<;ao de densidade de probabilidade
f( 18) = (x + 1) -x/9 0 8 0x 8(8 + 1)e , x > , > .
(i) Encontre 0 estimador de maxima verossimilhan<;a para 8 e sua distribui<;ao
em grandes amostras.
(ii) Obtenha urn estimador para 8 usando 0 metodo dos momentos.
3.11. Refa<;a 0 Exercfcio 3.7 supondo agora que PI = 82, P2 = 28(1 - 8) e
P3 = (1 - 8)2.
3.12. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da distribui<;ao
N(0,0'2). Encontre 0 estimador de maxima verossimilhan<;a de 0' e sua .dis-
tribui<;ao em grandes amostras.
3.13. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X com
distribui<;ao exponencial com parametro 8. Encontre 0 estimador de maxima
verossimilhn<;a de g(8) = PIX > 1] e sua distribui<;ao aproximada quando n
for grande.
3.14. Sejam Xl, ... , Xn uma amostra aleat6fia da variavel aleat6ria X com
fun<;ao de densidade de probabilidade Weibull dada'. por
f(xI8, a) = 8axa-Ie-9x"; x, a, 8 > O.
(i) Suponha que a seja conhecido. Encontre 0 estimador de maxima verossimi-
lhan<;a de 8 e sua distribui<;ao aproximada para quando n for grande.
(ii) Suponha agora que 8 e a sac desconhecidos. Encontre as equa<;6es de
verossimilhan<;a para os dois parametros. Proponha urn procedimento iterativo
para encontrar os estimadores de maxima verossimilhan<;a dos dois parametliOs.
Discuta a implementa<;ao do procedimento no computador.
(iii) Gere uma amostra com n = 10 elementos da: distribui<;ao de X assumindo
que a = 8 = 1. Usando 0 procedimento iterativo em (ii), obtenha estimadores

Continue navegando