Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

Heleno Bolfarine
Monica Carneiro Sandoval
~, . A • "
INTRODUc;AO A INFERENCIA
/
ESTATISTI.CA
PREF ACIo VIII
CAPITULO 1. ELEMENTOS BAsIC OS 1
1.1. Alguns Modelos Especiais _ 1
1.1.1. 0 modelo normal 1
1.1.2. 0 modelo exponencial 1
1.1.3. 0 modele binomial 2
1.1.4. 0 modelo de Poisson 2
1.1.5. 0 modelo uniforme 3
1.2. Tipos de Problemas 4
1.3. Amostras, Estatfsticas e Estimadores 4
1.4. Exercfcios 13
CAPITULO 2. ESTIMADORES EFICIENTES E ESTATISTICAS
SUFICIENTES 15
2.1. Estimadores Eficientes 15
2.2. Estatisticas Suficientes 20
2.3. Estatfsticas Conjuntamente Suficientes 23
2.4. Familias Exponenciais 25
2.5. Estimadores Baseados em Estatisticas Suficientes 29
2.6. Exercfcios 32
CAPITULO 3. METODOS DE ESTIMAQA.O 35
3.1. 0 Metodo de Maxima Verossimilhan<;a 35
3.2. Propriedades dos Estimadores de Maxima Verossimilhan<;a 42
3.2.1. Invariancia C 43
3.2.2. Distribui<;ao em grandes amostras ·.. 44',
3.3. Verossimilhan<;a para Amostras Independentes 45
3.4. 0 Caso Multiparametrico 46
3.5. Familia Exponencial e 0 Metodo de Maxima Verossimilhan<;a 49
3.6. 0 Metodo dos Momentos 50
3.7. Estimadores Consistentes 52
3.8. Exercfcios 52
CAPITULO 4. INTRODUQA.O A. TEORIA DAS DECISOES.
OS PRINCIPIOS MINIMAX E DE BAYES 57
4.1. Os Elementos Basicos 57
4.2. 0 Princfpio Minimax 60
4.3. 0 Principio de Bayes 61
4.4. Estimadores de Bayes com Perda Quadratica 63
CAPITULO 5. ESTIMA<;Ao POR INTERVALO 73
5.1. Amostras de Populac;6es Normais 73
5.2. 0 Metodo da Quantidade Pivotal 75
5.3. Intervalos para Populac;6es Normais 80
5.3.1. 0 caso de uma unica amostra 80
5.3.2. Duas amostras independentes 82
5.4. Intervalos de Confianc;a Aproximados 83
5.5. Intervalos de Confianc;a Bayesianos 85
5.6. Exercfcios 87
CAPITULO 6. TESTES DE HIPOTESES 91
6.1. Ideias Basicas 91
6.2. Formulac;ao Estatfstica' 92
6.3. Hip6tese Nula Simples contra Alternativa Simples.
Testes Mais Poderosos 94
6.4. Testes Uniformemente Mais Poderosos 100
6.4.1. Hip6tese nula simples contra alternativa composta 100
6.4.2. Hip6teses compostas 102
6.5. Testes da Razao de Verossimilhan<;as Generalizada 103
6.6. Testes Bayesianos 114
6.7. Exercfcios 115
REFERENCIAS : 119
INDICE REMISSIVO 121
o objetivo principal deste texto e propiciar aos estudantes urn material
basico para urn curso introdutario de Inferencia Estatishca usualmente mini-
strado em programas de bacharelado em Estatistica. Lecionando ha varios anos
a referida disciplina em cursos de bacharelado e de pas graduac;ao no Departa-
mento de Estatistica do Instituto de Matematica e Estatistica da Universidade
de Siio Paulo, experimentamos varias alternativas didaticas, mas sempre nos
ressentimos da ausencia de textos adequados em portugues e ate mesmo em
ingles para 0 nivel em questao. E foi pensando em preencher essa lacuna que
resolvemos elaborar este trabalho, destinado aos estudantes com conhecimentos
basicos de probabilidade e calculo.
o texto est a elaborado para urn curso de urn semestre com seis horas sema-
nais, duas das quais devem ser reservadas para exerdcios. E dividido em seis
capitulos, tendo no final de cada urn uma serie de exerdcios.
o Capitulo 1 e dedicado a descric;ao de alguns modelos comumente uti-
lizados em situac;oes praticas. Sao apresentados metodos de comparac;ao entre
estimadores, com enfase especial ao metodo do Erro Quadratico Medio minimo.
o Capitulo 2 apresenta a obtenc;ao de estirnadores eficientes, utilizando a
desigualdade da informac;ao, a partir da qual se obtem 0 limite inferior da
variancia dos estimadores nao viciados. Usando esses resultados em alguns
modelos importantes, e possivel a obtenc;ao de estimadores atimos, ou seja,
de menor variancia. Uma familia importante em que tais estimadores sao obti-
dos e a bem conhecida familia exponencial de distribuic;oes, apresentada no
texto com algum detalhe. A utilizac;ao de estatisticas suficientes, no sentido de
apresentarem urn resume dos dados sem perda de informac;ao, e tarnbem cons i-
derada nesse capitulo. Mostra-se tambem que estimadores que nao sao func;oes
de estatisticas suficientes podein ser melhorados por meio do conhecido Teore-
ma de Rao- Blackwell.
o Capitulo 3 e dedicaclo a tecnicas de obtenc;ao de estimadores, dEmtre
as quais destacamos os metodos de maxima verossimilhanc;a e dos momen-
tos. Propriedades dos estimadores de maxima verossimilhanc;a em grandes
amostras sao tambem consideradas. Essas propriedades permitem a realizac;ao
de inferencias em modelos mais complexos que sao comumente utilizados em
situac;oes praticas.
No Capitulo 4 consideramos as ideias basicas da teoria das decisoes, en-
fatizando a importancia da func;ao de risco como urn meio de obtenc;ao de
bons estimadores. A utilizac;ao da func;ao de risco permite a derivac;ao de es-
timadores do tipo minimax e tambem de estimadores de Bayes, incorporando
uma distribuic;ao a priori para descrever conhecimentos subjetivos a cere a dos
parametros de interesse.
A construc;ao de intervalos de confianc;a com coeficientes de confianc;a exa-
tos e aproximados e considerada no Capitulo 5. Urn metodo importante de
constrU<;ao de intervalos e 0 uso de quantidades pivotais. Tal enfoque propicia a
constrU<;ao de intervalos exatos para varios modelos importantes e aproximados
em situac;6es mais complexas. Intervalos Bayesianos baseados na distribuic;ao a
posteriori sao tambem considerados.
o Capftulo 6 e dedicado a construc;ao de testes de hip6teses. Testes 6timos
para 0 caso de hip6tese nula simples contra alternativa simples sao derivados
a partir do Lema de Neyman-Pearson. Algumas generalizac;6es para hip6teses
compostas sao tambem consideradas. Problemas mais complexos que podem
envolver hip6teses bilaterais sao tratados utilizando a estatfstica da razao de
verossimilhanc;as generalizada que, apesar de nao possuir propriedades 6timas,
leva em geral a bons procedimentos que nao apresentam muita dificuldade de
implementac;ao.
Nao inclufmos no texto tabelas estatfsticas, pois a enfase maior e dada
a problemas te6ricos. No caso de haver necessidade de utilizac;ao de tabelas,
sugerimos aos estudantes utilizar as tabelas em Bussab e Morettin (1987).
Agradecemos as colegas Elisete da Conceic;ao Quintaneiro Aubin, Marcia
D'Elia Branco e Silvia Lopes de Paula Ferrari que leram as vers6es preliminares
e contribufram com varias sugest6es. Agradecemos tambem a. aluna Jacqueline
Sant'Eufemia David pela elaborac;ao das figuras.
Nesta sec;ao consideramos alguns modelos probabilfsticos que sao comumente
utilizados na amilise de dados em problemas praticos. 0 modelo probabilisti-
co (ou estatistico) e de suma importancia para inferir resultados da amostra
para a populac;ao toda. E importante que, na selec;ao do modelo a ser utilizado,
o estatistico tenha em mente que 0 modelo deve representar, na medida do
possivel, a complexidade que envolve 0 mundo real da populac;ao em estudo.
Entre os modelos mais utilizados, temos
Dizemos que X tern distribuic;ao normal com media p e vanancia u2, que
denotamos por X ~ N(p, (2), se a func;ao de densidade de probabilidade de X
e dada por
1 (._,,)2
f(xlp,u2) = rr>= e-~, -00 < x < 00,
y 27fu
em que -00 < p < 00 e u2 > O.Nesse caso, p e u2 sao denominados parametros
da distribuic;ao e 0 suporte de X, isto e, A( x) = {x, f (x) > O}, e a reta6da.
Notemos tambem que
Situac;oes praticas em que 0 modelo normal e cornumente utilizado incluem
caracteristicas populacionais, tais como: peso, altura, pressao arterial, quociente
de inteligencia, etc.
Dizemos que X tern distribuic;ao exponencial com parametro B, que denotamos
por X ~ Exp(B), quando a func;ao de densidade de probabilidade de X e dada
por
f(xIB) = Be-ox, x> 0,
em que B > o. Nesse caso, A(x) = {x, x> O}. Notemos tambem que
E[X] = ~ 1e Var[X] = B2.
o modelo exponencial e comumente ernprOegadopara descrever tempo de vida
de equipamentos.Lembrernos que 0 rnodelo exponencial tern a bem conhecida
propriedade da falta de memoria, ou seja, se 0 tempo de vida de urn equipamen-
to segue a distribuir;ao exponencial, entao, em qualquer instante, 0 equiparnento
e como se fosse novo, nao importando 0 quanta ele ja tenha sido utilizado.
Dizemos que a variavel aleatoria X tern distribuir;ao binomial, com para-metros
neB, que denotamos por X ~ Binomial (n, B), se sua funr;ao de probabilidade
e dada por
f(xIB)= (:)BX(l_B)n-X, x=O,l, ... ,n,
em que 0 < B < 1. Nesse caso, 0 suporte de X e discreto e e dado por A(x) =
{x, x = 0, 1, ... , n}. Temos tambem que
Lembremos que, se X tern distribuir;ao Binomial(n, B), entao, podemos escre-
ver X = Y1+ ... + Yn, sendo Y1, . 0 • , Yn n variaveis aleatorias independentes e
de Bernoulli, ou seja, a funr;ao de probabilidade de Y,; e dada por
i = 1, ... , n. 0 modelo binomial (ou de Bernoulli) e comumente empregado em
situar;6es em que associamos a cada observar;ao da amostra dois tipos de respos-
ta (como, por exemplo, sim e nao, ou sucesso e fracasso) aos quais associamos
os valores 0 e 1. Tais situar;6es envolvem, por exemplo, pesquisas eleitorais,
em que os individuos na popular;ao sac ou nao favoraveis a determinado par-
tido ou candidato; proporr;ao de per;as defeituosas produzidas em uma linha de
produr;ao e assim por diante.
Urn outro modelo comumente empregado na pnitica e 0 modelo de Poisson.
Dizemos que a variavel aleatoria X tern distribuir;ao de Poisson com para-metro
B, que denotamos por X ~ Poisson(B), quando a fun<;ao de probabilidade e
dada por
e-8BX
f(xIB)=-,-, x=O,l, ... ,
x.
em que B > O.Nesse caso, 0 suporte de X eo conjunto A(x) = {x, x = 0,1, ... }.
Temos tambem que,
o modelo de Poisson e bastante utilizado para descrever situa<;6es que en-
volvem, par exemplo, 0 numero de chamadas que chegam a uma central
telefOnica, 0 numero de particulas a emitidas por uma fonte radioativa ou
o numero de pessoas que chegam a determinada fila, sempre em urn ilervalo
de tempo fixado. " "
~.;
o modelo uniforme e bastante importante do ponto de vista teorico. Dizemos
que X tern distribui<;ao uniforme no intervalo (0, B), que denotamos por X ~
U (0, B), se a fun<;ao de densidade de X e dada por
f(xIB) = { ~,
0,
0< x < B,
casQ contrario,
1
= 7/(O,8)(X),
0< x < B,
caso contrario,
ou seja, I(o,8)(x) e a funr;ao indicadora do intervalo (o,B). Notemos que, nesse'
caso, A(x) = {x,O < x < B}, ou seja, 0 suporte da variavel X (ou de f(xIB))
depende do parametro B. No caso dos modelos normal, exponencial, binomial
e de Poisson, isso nao acontece, ou seja, nesses casos, 0 suporte da distribui<;ao
de X e independente de B. Temos tambem que, se X ~ U(O, B), entao,
E[X] = ~ B
2
e Var[X] = 12'
No decorrer do texto, outros modelos parametricos, como por exemplo, 0 mo- ,
delo uniforme discreto e 0 modelo gama, serao apresentados. Veremos tambem
que os modelos normal, exponencial, binomial e de Poisson saG membros de
uma familia bastante geral de modelos, que e a familia exponencial.
No presente texto, vamos nos ater exclusivamente a problemas de estima<;ao e
de testes de hip6teses.
Definit;ao 1.2.1. Seja X uma variavel aleat6ria com funr;iio de densidade (ou
de probabilidade) que abreviamos por f.d.p. (f.p.) e que denotamos por f(xIB),
em que () e um parametro desconhecido. Chamamos de infereiicia estatistica 0
problema que consiste em especificar um ou mais valores para (), baseado em
um conjunto de valores observados de X.
Vamos assumir que a distribui<;ao da variavel aleat6ria X pertence a certa
familia de distribui<;oes em que urn particular elemento e especificado, quando
o valor do pariimetro B e especificado.
No caso de urn problema de estimat;ao, 0 objetivo e procurar, segun-
do algum criterio especificado, valores que representem adequadamente os
pariimetros desconhecidos. No caso de problemas de testes de hip6teses,
o objetivo e verificar a validade de afirma<;6es sobre urn valor (ou valores) do(s)
pariimetro(s) desconhecido(s). Por exemplo, quando 0 interesse e verificar se a
propor<;ao B de eleitores de determinado candidato e maior que 1/2 (ou 50%),
as hip6teses a serem testadas saD Ho : B ::; 1/2 versus H1 : B > 1/2. Quando
estamos interessados em verificar se 0 peso medio, f-L, de pacotes de urn quilogra-
ma empacotados por determinada maquina realmente e urn quilograma, entao,
as hip6teses a serem testadas podem ser representadas por Ho : f-L = 1 versus
HI: wI- 1.
Nesta se<;ao os conceitos de estatfstica e estimador saD introduzidos. Criterios
para a compara<;ao de estimadores SM tambem consider ados.
Definit;ao 1.3.1. 0 conjunto de valores de uma caracteristica (observavel)
associada a uma coler;iio de individuos ou objetos de interesse e dito ser uma
popular;iio.
Qualquer parte (ou subconjunto) de uma popula<;ao e denominada uma
amostra. De maneira mais formal, temos
Definic;ao 1.3.2. Uma sequencia Xl, ... ,X n de n variaveis aleat6rias indepen-
.dentes e identicamente distribuidas (i.i.d.) com funr;iio de densidade (f.d.p.) ou,
no caso discreto, funr;iio de probabilidade (f.p.) f(xIB) e dita ser uma amostra
aleat6ria de tamanho n da distribuir;iio de X. Nesse caso, temos,
f(XI, ... ,xnIO) = IIf(XiIO) = f(XIIO) .. ·f(xnIO).
i=l
Concluimos, a partir da Defini<;iio 1.3.2, que usamos a amostra Xl, ... , Xn
para obter informa<;ao sobre 0 parametro O. A fun<;ao de densidade (ou de
probabilidade) conjunta dada em (1.3.1) e denominada func;ao de verossimi-
Ihan<;a de 0, correspondente a amostra observada x = (Xl,"" Xn)' e sera
denotada por
n
L(O; x) = IIf(XiIO).
i=l
Definic;ao 1.3.3. Qualquer funf;iio da amostm que nao depende de paf*metros
desconhecidos e denominada uma estatistica. ~
No exemplo que apresentamos a seguir, consideramos varias estatfsticas que
serao utilizadas com frequ€mcia nos capftulos seguintes.
Exemplo 1.3.1. Sejam X I, ... , Xn uma amostra aleat6ria da variavel aleat6ria
X, com f.d.p. ou f.p. f(xIO). Exemplos de estatisticas sac
(i) X{1) = min(XI, ... ,Xn),
(ii) X(n) = max(XI,· .. ,Xn),
(iii) X = med(XI, ... , Xn),
. - 1 ~n
(IV) X = n 0i=1 Xi,
(V) 0-2 = .1. ",n (X _ X)2n L..n=l t •
Em (i), (ii) e (iii) acima, min(.), max(.) e med(.) denotam, respectivamente,
o minimo, 0 maximo e a mediana amostral observada. Por outro lade, X e 0-2
denotam, respectivamente, a media e a variancia amostrais.
Definic;ao 1.3.4 . .a conjunto 8 em que 0 toma valores e denominado espaf;o
pammetrico.
Exemplo 1.3.2. Sejam Xl, ... , Xn uma amostra aleatoria da variavel aleatoria
X,...., N(J-L,a2).
(i) Se a2 = 1, entao 0 = J-L e 0 parametro desconhecido e
(ii) Se J-L = 0, entao 0 = a2 e 0 parametro desconhecido e
8={a2, a2>0};
(iii) Se J-L e a2 SaDdesconhecidos entao B = (J-L, a2) e
e = {(J-L,a2), -00 < J-L< 00 e a2 > O}.
Defini~ao 1.3.5. Qualquer estatistica que assuma valores em e e um esti-
mador para B.
Em rnuitas situa<;oes, 0 interesse e estirnar urna fun<;ao g(B). Suponha, por
exernplo, que no caso (iii) do exernplo anterior, 0 objetivo e estirnar sornente
J.L, sendo a2 urn pararnetro de pertuba<;ao. Nesse caso, g(B) = J.L.
Defini~ao 1.3.6. Qualquer estatistica que assuma valores somente no conjunto
dos possiveis valores de g(B) e um estimador para g(B).
Urn dos grandes problemas da estatlstica e 0 de encontrar urn estimador
razoavel para 0 parametro desconhecido B ou para uma fun<;ao g(B). Urn dos
procedirnentos cornurnente utilizados para se avaliar 0 desempenho de urn es-
timador e 0 seu erro quadratico medio que e consider ado a seguir.
Defini~ao 1.3.7. 0 err-a quadnitico media (EQM) de um estimador II do
para metro B e dado par
e denominado 0 vicio do estimador fj. Dizemos que urn estimador fj e nao
viciado para B se
para todo BEe, ou seja B(fj) = 0, para todo BEe. Se limn-tooB(fj) = 0 para
to do BEe, dizemos que 0 estimador fj e assintoticamente naoviciado para
B. No caso em que fj e urn estimador nao viciado para B, temos 'que
ou seja, 0 erro quadratico medio de fj se reduz a sua variancia. Urn outro conceito
importante em grandes amostras (n -+ 00) e a propriedade de consistencia que
sera considerada na Se<;iio3.7.
Exemplo 1.3.3. Sejam Xl, ... , Xn Uma amostra aleatoriada variavel aleatoria
X com E[X] = J.L e Var[X] = a2• Temos, entao, que
In 2
- '" uVar[X] =2" ~ Var[Xi] =-.n n
i=l
Portanto X e urn estimador nao viciado para fJ-. Com relaC;ao a. variancia
amostral, temos
~2 1 ~ - 2 1 L:n - 2E[u ] = -E ~(Xi - X) = - E[(Xi - X) ]n n
i=l i=l
1~ - 2= - ~ E{[(Xi - fJ-) - (X - fJ-)] }
n i=l
(n - 1) 2= u.
n
Portanto (j2 e viciado para u2, mas e assintoticamente nao viciado, ou seja, a.
medida que 0 tamanho da amostra aumenta, 0 vfcio diminui.
o erro quadratico medio e comumente empregado na comparaC;ao de esti-
madores. Dizemos, entao, que 81 e melhor que 82 se
J
para todo e, com :S substitufdo por < pelo menos para um valor de e. Nesse
CasO, 0 estimador 82 e dito ser inadmissivel. Se existir um estimador 8* tal
que para todo estimador 8 de e com 8 i- 8*
para todo e com :S substitufdo por < para pelo menos urn e, entao 8* e dito
ser 6timo para e. Not~mos que, se em (1.3.5) os estimadores SaDnao viciados,
entao 8* e dito ser 0 estimador nao viciado de variancia uniformemente minima,
se
Var[8*] :S Var[8],
para to do e, com :S substitufdo por < para pelo menos um e.
Exemplo 1.3.4. Sejam Xl, X2, X3 uma amostra aleat6ria da variavel aleat6ria
X com E[X] = e e Var[X] = 1. Consideremos os estimadores
~ 1 1 1
e ()? = -Xl + -X2 + -X3.- 2 4 4
• • 1
E[t'h] = B e Var[Bd = 3'
Como {h e B2 sao ambos nao viciados, segue de (1.3.4) que X e melhor que B2,
pois Var[X] < Var[B2], para todo B.
Exemplo 1.3.5. Sejam Xl,.'" Xn uma amostra aleatoria da variavel aleatoria
X com E[X] = B e Var[X] = 0-2, em que 0-2 e conhecido. Consideramos agora
os estimadores lineares
XL = LiiXi'
i=l
o estimador XL com a condi<;ao (1.3.7) e entao uma combina<;ao linear con-
vexa de Xl, ... ,Xn. Notemos que B1 e B2 considerados no Exemplo 1.3.4 sao
combina<;oes lineares convexas de Xl, X 2, X 3. Temos tambem que
Var[XL] = L iTVar[Xi] = 0-2 LiT·
i=l i=l
Portanto 0 estimador XL, que e nao viciado e apresenta a men or variancia,
e obtido minimizando-se (1.3.8) sujeito a. condi<;ao (1.3.7). Para atingir tal
objetivo, sendo I = 2:7=1 idn = l/n a media dos ii'S, temos que
n n n
L(li - I)2 = LiT - nI2 = LiT - l/n,
i=l i=l i=l
n
Var[XL] = (J2L l;
i=l
Assim, a expressao (1.3.9) sera minima quando li = 1/n, ou seja 0 estimador
XL com menor variancla e a media amostral X. Portanto, dentre todos os
estimadores lineares nao viciados XL, 0 que apresenta a menor variancia e a
media amostral X. De (1.3.9) segue tambem que Var[X] = (J2 In. Vma outra
forma de minimizar a variiincia (1.3.8), sob a condi<;ao (1.3.7), e feita utilizando-
se de multiplicadores de Lagrange. Nesse caso, temos 0 "Lagrangea&'
. ~t
li = In,
i = 1, ... ,n. Sendo 2:~=1li = 1, segue que li
concluido acima.
Exemplo 1.3.6. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria
X ~ N(p,,(J2). Conforme visto no Exemplo 1.3.3, a-2 e um estimador viciado
para (J2. De (1.3.3) segue que
S2 = _n_a-2 = _1_ ~(Xi _ X)2
n-1 n-1L...t
i=l
e um estimador nao viciado para (J2. POl' outro lado, temos (vel' Exercicio 1.4)
que
EQM[a-2]= 2(J4 [1- (3n-1)].
(n - 1) 2n2
Notemos que a-2, apesar de viciado, apresenta urn EQ M menor que 0 EQ M
do estimador 52.
Exemplo 1.3.7. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da
variavel aleat6ria X, com distribui<;ao de Bernoulli com parametro B, ou seja
Binomial(l, B). Conforme visto no modelo binomial, Y = Xl + ... + Xn tern
distribui<;ao Binomial(n, B). Consideremos os estimadores
A _ Y
B1 =X =-n
EQM[8d = Var[X] = B(I- B).
n
E[B2] = E [Y + vn/2] = nB + vn/2 = n B+ vn/2 ,
n+vn n+vn n+vn n+vn
de modo que 82 e urn estimador viciado para B. Notemos que, na verdade, 0
vieio e uma fun<;ao linear de B. Portanto
(n +lFn)' E { [(Y - nO) + Fn G - B)n
(n +IvnF { Var[Y] + n (~ - B) 2}
n
4(n + vnF'
Urn fato importante a ser notado e que 0 EQM do estimador 82 e independente
de B. 0 EQM dos dois estimadores e representado graficamente na Figura 1.1,
para n = 9.
Temos, entao, que nenhum dos estimadores e melhor uniformemente, isto e,
para to do B. Para C1 < B < C2, EQM[82] < EQM[8d, ou seja, 82 e melhor que
81, Por outro lado, para B < C1 ou B > C2, temos que EQM[81] < EQM[82],
ou seja, 81 e melhor que 82. Para 0 calculo de C1 e C2, ver Exercfcio 1.5.
I
1/36 1
i
i
1/64 -
Exemplo 1.3.8. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleatoria
X ~ U(O, B). Vamos considerar B1 = X e B2 = X(n) como estimadores de B.
Como E[X] = B/2 e Var[X] = B2/12 (ver 0 modelo (1.1.4)), temos que
A _ e
E[ell = E[X] = 2'
Portanto 0 estimador BI e viciado para e. Combinando (1.3.12) e (1.3.13) em
(1.3.2), temos que
EQM[BI] = ~ + (~ _ e) 2 = (1+ 3n) e2.. 12n 2 12n
nxn-1
!xCn) (xle) =~, 0 < x < e,
n ne2
E[X(n)] = n + 1e e Var[X(n)] = (n + 1)2(n + 2)'
EQM[B ] = ne2 + e2 = 2e2
, 2 (n+1)2(n+2) (n+1)2 (n+1)(n+2)'
A Tabela 1.1 mostra 0 valor do EQM dos dois estimadores para varios va-
lores de n. Notemos tambem que, quando n -+ 00, EQM[B1] -+ ()2/4 e que
EQM[B2] -+ O.
n EQM[()d EQM[()2] EQM[()2]/ EQM[()lJ
3 58~/18 ()"L'j 10 0,27
5 4()2/15 ()2/21 0,12
10 31()2/120 ()2/662 0,04
20 6182/240 ()2/2312 0,01
Portanto X(n) e melhor que X para to do () en> 1.
Exemplo 1.3.9. Consideremos uma uma com N bolas identicas marcadas
com os numeros 1, ... ,N. 0 objetivo e a estima<;ao de N, 0 numero de bolas
numeradas na uma. Esse problema esta muitas vezes associado ao problema
da estima<;ao do numero N de taxis em uma cidade, em que os taxis estao
numerados de 1 aN. Portanto uma determinada quantidade (n) de bolas (taxis)
e observada, com reposi<;ao. Associada a i-esima observa<;ao, temos a variavel
aleat6ria
1
P[Xi = k] = N' k = 1, ... ,N.
Portanto a distribui<;ao de Xi e uniforme discreta, pois a distribui<;ao de Xi
associa a mesma probabilidade a todos os possfveis valores de Xi, i = 1, ... ,N.
Como possfveis estimadores de N, consideremos inicialmente Nl = X e N2 =
X(n)' Nao e diffcil verificar que
E[Nd = E[X] = N + 1
. 2'
(N,k)n _ (kN-l)n,P[X(n) = k] = P[X(n) :S k] - P[X(n) :S k - 1] =
n iN Nn+l
"'(k - l)n = In + ... + (N _l)n ~ yN dy = --,~ . n+1
k=l 0
E[Hz] = E[X(n)] ~ N-n [Nn+l _ Nn+1
1] = _n_N.
n+ n+1
- n + 1
N4 = --X(n),n
que e aproximadamente niio viciado. Se n = 8 bolas siio retiradas com reposi<;iio
da caixa e os numeros observados siio: 124, 212, 315, 628, 684, 712, 782, 926,
entiio, HI = X = 547,875, H3 = 2X - 1 = 1095, Hz = X(n) = 926, e
H4 = 1042. Podemos considerar tambem 0 estimador
Xn+l _ (X _ l)n+l lH _ (n) (n)
5 - X('n) - (X(n) - 1)n '
1.1. Verifique a validade da expressiio (1.3.2).
1.2. Verifique a validade da expressiio (1.3.3).
1.3. Verifique a validade da expressiio (1.3.6).
1.4. Verifique a validade das express6es (1.3.10) e (1.3.11).
1.5. Encontre CI e C2 na Figura 1.1. que siio os pontos de intersec<;iio dos err os
quadraticos medios de (h e 82.
1.6. Sejam Xl,'." Xn uma amostra aleat6ria da variavel aleat6ria X rv
U(O, B). Mostre que a fun<;iio de densidade de probabilidade de X(n) e como
dada em (1.3.14), com esperan<;a e variancia como dadas em (1.3.15).
1.8. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da distribuic;ao da
variavel aleatoria X, em que X ~ N(p" 1). Considere os estimadores ilt = X e
{.tz = 10. Encontre 0 EQM de {.tl e de {.t2 como func;ao de p,. Fac;a urn grafico
do EQM para n = 10.
1.9. Seja X uma unica variavel aleatoria com distribuic;ao de Bernoulli com
parametro e. Sejam el = X e e2 = 1/2 dois estimadores de e.
(i) Verifique se el e 82 saonao viciados para e.
(ii) Compare os EQMs. Fac;a urn grafico dos EQMs como func;ao de a.
1.10. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da distribuic;ao
da variavel aleatoria X com f.d.p. dada por
(i) Especifique 0 espac;o parametrico e 0 suporte associado a. distribuic;ao de X.
(ii) Verifique se el = X e ez = X(ll sao estimadores nao viciados para e.
(iii) Encontre e compare os EQ M s dos dois estimadores. Fac;a urn grafico como
func;ao de e.
1.11. Sejam Xl, ... ,Xn urn amostra aleatoria de tamanho n da distribuic;ao
da variavel aleatoria X com fd.p. dada por
2x
f(xla) = e2' 0 < x < a, a > o.
(i) Especifique 0 espac;o parametrico e 0 suporte associado a. distribuic;ao de X.
(ii) Verifique se el = X e e2 = X(n) sao nao viciados para a.
(iii) Encontree compare os EQMs dos dois estimadores. Fac;a urn grafico dos
EQMs como func;ao de a.
1.12. Sejam Xl,.'" Xn uma amostra aleatoria de tamanho n da distribuic;ao
de uma variavel aleatoria X ~ U(O,e). Considere os estimadores el = clX e
82 = C2X(n)'
(i) Encontre Cl e C2 que tornam os estimadores nao viciados.
(ii) Encontre e compare os EQMs dos dois estimadores.
1.13. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da distribuic;ao
da variavel aleatoria X N(O, (J"2). Seja 52 = L~=lXl- Considere os esti-
madores ~
·2 52
(J"c \.S::. ..
(i) Encontre 0 EQM do estimador acima.
(ii) Encontre 0 valor de C que minimiza 0 EQM em (i).
2. Estimadores Eficientes e Estatisticas
Suficientes
Neste capitulo sera apresentada a nOC;aode estimador eficiente, como sendo
aq~ele que atinge 0 limite inferior da variancia dos estimadores nao viciados.
Estimadores eficientes SM obtidos apenas para distribuic;6es que SaD3i-embros
de uma classe especial, que e a famma exponencial de distribuic;6es. ~eremos
tambem que to do estimador para ser otimo, segundo 0 criterio do menor erio
quadratico medio, deveser func;ao de uma estatistica suficiente. De modo in-
formal, estatisticas suficientes para urn parametro (ou para uma distribuic;ao)
sao aquelas que condensam os dados sem perder nenhuma informac;ao contida
nos mesmos. Ou seja, elas sao tao informativas para 0 parametro (ou para a
distribuic;ao) quanta a amostra toda.
Eficiencia de urn estimador {j de urn parametro e e definida a seguir.
Defini<;ao 2.1.1. Chamamos de eficiencia de um estimador (j, nao viciado para
o pariimetro e, a quociente
e({j) = LI(e! ,
Var[e]
onde LI (e) e 0 limite inferior da variiincia dos estimadores nao viciados de e.
Convem notar que:
(i) e({j) = 1 quando LI(e) = Var[{j], ou seja, quando a variancia de {j
coincide com 0 limite inferior da varian cia dos estimadores nao viciados de e.
Nesse caso, (j e dito ser eficiente;
. (ii) como veremos no teorema seguinte,
LI(e) = 1 ,
nE [( a log£VI8) ) 2]
(iii) as condic;6es de regularidade a que nos referimos no item (ii) sac basi-
camente duas, isto e, que 0 suporte A(x) = {x, f(xI8) > a} seja independente
de 8 e que seja possivel a troca das ordens das operac;6es de derivac;ao e de
integrac;ao sob a distribuic;ao da variavel aleat6ria X;
(iv) a nao ser que mencionado 0 contrario, to do logaritmo utilizado no texto
e calculado na base e.
Exemplo 2.1.1. Sejam Xl, ... , X n uma amostra aleat6ria da varia vel aleat6ria
X", N(p" 0-2), em que 0-2 e conhecido. Temos que
olog f(xlp,)
op,
_ 0-2
Var[X] = - = LI(p,),
n
\ Definic;ao 2.1.2. A quantidade
\
olog f(XI8)
08
o resultado (2.1.3) na verdade vale em geral quando valem as condi<;6es de
regularidade, ou seja,
pois para uma variavel aleat6ria X qualquer com E[X] = 0; Var[X] = E[X2].
Urn resultado importante (veja 0 Exercicio 2.6) estabelece que
E [(8l0gf(XI8))2] = -E [82l0gf(XI8)]
88 882.
Uma outra propriedade importante estabelece que para uma amostra aleat6ria,
Xl, ... , Xn, da variavel aleat6ria X com f.d.p (ou f.p.) f(xI8) e informa<;iio
de Fisher IF(8), a informa<;iio total de Fisher de 8 correspondente a amostra
observada e a soma da informa<;iio de Fisher das n observa<;6es da amostra, ou
seja, sendo
L(8;x) =f(Xl, ... ,xnI8) = IIf(xiI8),
i=l
= -E [~ 82 log f(Xil8)] = ~ E [_ 82 log f(Xil8)] = I (())(2.1.6) ~ 882 ~ 882 n F ,.
i=l i=l. o.
pois Xi, i = 1, ... ,n tem a mesma informaC;ao que X. Lembremos que, sendo
Xl,.' ., Xnuma amostra aleat6ria da variavel aleat6ria X, entao Xl,"" Xn
San independentes e identicamente distribufdas com a mesma distribuiC;ao que
X.
Teorema 2.1.1. Desigualdade da Informac;ao. Quando as condir;oes de
regularidade estiio satisfeitas, a variiincia de qualquer estimador niio viciado fJ
do pariimetro 8 satisfaz a desigualdade
• 1
Var[8J 2': n1p(8)"
Prova. Vamos considerar 0 caso em que X e uma variavel aleat6ria contfnua.
Sendo Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X, temos queI:...I:£(8; X)dXI ... dXn = 1,
onde £(8; x) e dada em (2.1.5). Desde que e e nao viciado, ou seja, E[e] = 8,
temos tambem que
I:···I: e£(8;X)dxI" .dxn = 8.
8 100 100 100 1008£(8; x)r:>8 . . . £(8; X)dXI ... dXn = . . . 88 dXl ... dXn = O.
u -00 -~ -00 -00
8 (00 (00. . (00 (00 .8£(8; x)
88 L
oo
'" J-oo 8£(8;x)dxI" .Xn = J-oo'" J-oo 8 88 dXI·· .dxn = 1.
8£(8; x)
. 88 = t(8; x)£(8; x),
(8, ) = 8log£(8;x)t ,x 88'
temos das express6es acima que
E[Bt(B; X)] = 1.
E[Bt(B; X)] - E[B]E[t(B; X)]
Pih = . '
VVar[BjV ar[t(B; X)]
onde POt denota 0 coeficiente de correla<;ao entre Bet, de tal forma que P~t :S 1,
temos que
. 1
Var[B] ~ Var[t(B;X))"
Como as variaveis Xl, ... ,Xn sac independentes e identicamente distribuidas
com densidade f(xIB), temos de (2.1.5) e de (2.1.6) que
[a log L(B; X)]Var[t(B;X)]=Var aB =nlp(B),
Exemplo 2.1.2. Sejam Xl, ... , Xn uma amostra aleat6ria de tamanho n da
variavel aleat6ria X ~ Poisson(B), com fun<;ao de probabilidade dada por
e-(}Bx
f(xIB) = -,-, x=O,I, ... ,x.
alogj(xIB) = ::. _ 1 .
. aB B'
E [
a210gf(XIB)] =_~
aB B·
LI(B) = ~.
n
Como Var[X] = Bin, concluimos que X e urn estimador eficiente para B.
Enfatizamos que a desigualdade da informa<;ao (inicialmente chamada de
Cramer-Rao) nao e urn metodo de constru<;ao de estimadores. Ela apenas possi-
bilita verificar se determinado estimador e ou nao eficiente. E entao importante
que sejam estabelecidos metodos para constru<;ao de estimadores que tenham
alguma propriedade interessante, ou que levem a estimadores com "boas" pro-
priedades. Contudo, antes de estabelecermos tais metodos (ou criterios), vamos
considerar estatisticas que reduzam (condensem) os dados sem que haja perda
de informa<;ao. Tais estatisticas sao conhecidas como estatisticas suficientes.
Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X com fun<;ao
de densidade ou de probabilidade f(xI8). Quando resumimos a informa<;ao que
os dados contem sobre 8, utilizando uma estatistica, e importante que nao ha-
ja perda de informa<;ao sobre 8. Ou seja, a estatistica a ser considerada deve,
dentro do possivel, conter toda a informa<;ao sobre 8 presente na amostra.
Em outras palavras, se pudermos usar uma estatistica T = T(Xl, ... , Xn)
para extrairmos toda informa<;ao que a amostra Xl, ... , X n contem sobre 8,
entao dizemos que T (que pode ser urn vetor) e suficiente para 8. Desse mo-
do, 0 conhecimento apenas de T (e nao necessariamente da amostra completa
Xl, ... ,Xn) e suficiente para que sejam feitas inferencias sobre 8. A seguir
apresentamos a defini<;ao formal.
Definic;ao 2.2.1. Dizemos que a estatistica T = T(Xl, ... ,Xn) e suficiente
pam 8, quando a distribtm;iio condicional de Xl, ... ,X n dado T for indepen-
dente de 8.
Os exemplos a seguir ilustram a obten<;ao de estatisticas suficientes pela
u tiliza<;ao da Defini<;ao 2.2.1.
Exemplo 2.2.1. Sejam Xl, ... ,Xn uma amostra aleat6ria da distribui<;ao·
Binomial(1,8), ou seja, de Bernoulli(8). Vamos verificar se a estatistica
T = 2:::7=1 Xi e suficiente para 8. De acordo com a Defini<;ao 2.2.1,T e su-
ficiente para 8, se a probabilidade condicional P[XI = Xl, ... ,Xn = xnlT = t]
for independente de 8. Temos, para Xl, ... , Xn = 0 ou 1 e t = 0, ... ,n,
2:::7=1 Xi i= t,
2:::~1Xi = t;
'. ] P[Xl=Xl, ... ,Xn=xn,T=t]
P[XI =Xl, .. ·,Xn=xnIT=t = P[T=t]
P[XI = Xl, ... , Xn = Xn] P[XI = Xl] ... P[Xn = Xn]
= (7)8t(1 - 8)n-t = __t1§!il - 8)n-t
8X1(1 - 8)1-Xl ... 8Xn (1 - 8)1-Xn _ 8t(1 - 8)n-t _ 1
= (7)8t(1 - 8)n-t - (7)8t(1 - 8)n-t - (7)'
pois sabemos que T ,...,Binomial(n, 8). Portanto
de modo que, pela Defini~iio 2.2.1, T = L:~=lXi e·suficiente para 8.
Exemplo 2.2.2. Consideremos novamente a situa~ao do Exemplo 2.2.1, com
n = 3 e T = Xl + 2X2 + X3. Vamos verificar se T e suficiente. Notemos que
para Xl = 1,X2 = 0, X3 = 1, temos que T = 2. Logo
P[XI = 1,X2 = 0,X3 = 1]
P[XI = 1,X2 = 0,X3 = liT = 2] = P[X
I
+ 2X
2
+ X
3
= 2]
P[XI = 1]P[X2 = 0]P[X3 = 1]
- P[XI = 1,X2 = 0,X3 = 1]+ P[XI = 0,X2 = 1,X3 = 0]
82(1-8) =8. C
82(1 - 8) + (1 - 8)28
Portanto, como a probabilidade (2.2.1) depende de 8, conclufmos que T nao
e suficiente para 8, pois, nesse caso, a distribui~ao condicional de Xl,"" Xn
dado T depende de 8.
Exemplo 2.2.3. Sejam Xl, ... ,Xn uma amostra aleatoria da distribui~ao de
Poisson com panlmetro 8. Vamos verificar se T = L:~=lXi e suficiente para
8. Sabemos que r = L:7=1 Xi tern distribui~ao de Poisson com para-metro n8.
Assim, para Xi = 0,1,2, ... , i = 1, ... , net = 0,1, ... , temos
{
0, -.-
P[XI = Xl,··· ,Xn = xnlT = t] = P[X,=X" ... ,Xn=Xn].
P[T=t] ,
L:~=lXi i- t,
L:~=lXi = t;
e-08Xn t!
Xn! e-nO(n8)t
t! 1= Xl!, ... , Xn! nt '
que e independente de 8. Segue, entao, da Defini~ao 2.2.1 que L:~=lXi e sufi-
ciente para 8.
Notemos que a Defini~iio 2.2.1 permite, apenas, que possarnos verificar se
determinada estatfstica e ou nao suficiente. Contudo nao pode ser utilizada co-
mo urn metodo para obten~ao de estatfsticas suficientes. Urn procedimento para
a obten~ao de estatfsticas suficientes e 0 criterio da fatora~ao que apresentamos
a seguir.
Teorema 2.2.1. (Criterio da Fatorat:;ao de Neyman) Sejam Xl, ... ,Xn uma
amostra aleat6ria da distribuit:;ao da varirivel aleat6ria X com funt:;ao de densi-
dade (ou de probabilidade) f(xIB) e func;ao de verossimilhant:;a L(B; x). Temos,
entao, que a estatistica T = T(XI, ... , Xn) e suficiente para B, se e somente
se pudermos escrever
onde h(XI,' .. , xn) e uma funt:;ao que depende apenas de Xl, ... , Xn (nao de-
pen de de B) e ge (T(XI, ... , xn)) depende de B e de Xl, ... , Xn somente atraves
de T.
Prova. Vamos provar 0 teorema apenas para 0 caso discreto. Nesse caso,
L(B; x) = Pe[X = x]. Suponhamos em primeiro lugar que (2.2.2) esteja verifi-
cada e entao,
{
0; . T(x) -1= t
P[X = xIT(X) = t] = Pe[X=x,T(X)=t). T() - t
Pe[T(X)=t], x - ,
quando T(x) -1= t, P[X = xIT(x) = t] = 0, que e independente de B, logo a
condi<;ao da Defini<;ao 2.2.1 est a verificada. Quando T(x) = t, 0 evento {X =
x, T(X) = t} esta conti do no evento {T(x) = t}, entao
Pe[X = x,T(X) = t] Pe[X = x]
PelT = t] PelT = t]
h(x)ge(t) h(x)
-:L:{X;T(X)=t} h(x)ge(t) ~ :L:{x;T(xl=t} h(x)'
que e independente de B, portanto T = T(X) e suficiente para B.
Suponhamos agora que T = T(X) seja suficiente, de modo que a distribui<;ao
condicional de X dado T e independente de B. Sendo T(x) = t,temos que
f(xIB) = Pe[X = x] = Pe[X = x, T(x) = t]
= P[X = xIT(x) = t]Po[T(X) = t] = h(x)ge(t),
de modo que (2.2.2) esta provada.
Exemplo 2.2.4. Consideremos novamente 0 modelo de Poisson do Exemplo
2.2.3. Temos, entao, que
n
L(B; x) = IIf(XijB)
i=l
__ l__ e-nOBxl+ ...+xn
Xl! ... Xn! "
h( ) 1 I () e 98 (T(x)) = e-n8eI:7=1 Xi,Xl,· .. , Xn = TIn .1 {0,1,2,oo.} X
i=l X,.
temos, pelo criterio cia fatora<;ao, que T(X) = I:~=lXi e suficiente para e,
onde X = (Xl,'" ,Xn).
Exemplo 2.2.5. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleatoria
X '" U(O, e). Conforme visto no Capitulo 1, temos que (veja 0 Modelo 1.1.5)
1
f(xle) = gI[o,8](x),
1 1
L(e; x) = gI[0,8J(xr) ... gI[o,8](xn)
1= en 1[0,8] (X(n) )I[o,x(~)J (X (1.) )',
de modo que, pelo criterio da fatora<;ao, X(n) e uma estatistica suficiente para
e.
Exemplo 2.2.6. Sejam Xl, ... ,Xn uma amostra aleatoria da distribui<;ao
N(p" 1). Temos, entao, que
1 _('1 _,,)2 1 _('n _,,)2
L(p,; x) = f(C.e 2 • .• f(C.e 2
y2IT y2IT
(
1 ) n _,,~ (';'2,,)2= -- e L....t=l
~
= (vk)n e-I:7=1 ;te-~+JlI:7=lXi.
Portanto, pelo criterio da fatora<;ao, T(X) = I:~~lXi e uma estatistica sufi-
ciente para p,.
Na se<;ao anterior vimos 0 casouniparametrico, ou seja, a distribui<;ao dos
dados depende de um unico parametro e. Nesta se<;ao consideramos 0 caso
multiparametrico em que e e um vetor de parametros, que denotamos por e.
Em muitas situa<;6es, 0 modelo estatistico depende de mais de um parametro.
Eo caso do modelo N(p" (1'2), em que e = (p" (1'2), sendo p, e (1'2 desconhecidos.
It 0 caso tambem do modelo Gama(a, (3), em que a e {3 saD desconhecidos e,
portanto, 0 = (a, (3).
Teorema 2.3.1. (Criterio dafatora<;ao. Caso Multiparametrico) Sejam Xl, ... ,
Xn uma amostra aleat6ria da distribui<;ao da varidvel aleat6ria X, com funr;ao
de densidade (ou de probabilidade) f(xjO). Temos, entao, que a estatistica r-
dimensional T = (TI, ... , Tr), Ti == Ti (X) e conjuntamente suficiente para 0
se
n
L(O; x) = f(xI, ... , xnlO) = IIf(XiIO) = h(XI, ... , xn)go(TI (x), ... ,Tr(x)),
i=l
onde h(XI, ... , Xri) e uma funr;ao que nao depende de 0 e go(TI (x), ... ,Tr(x))
depende de 0 e de x = (Xl, ... , Xn) somente por meio de (TI (x), ... ,Tr(x)).
No caso do Teorema 2.3.1, dizemos que a estatfstica suficiente e de dimensao
r, que em muitos casos e tambem a dimensao do espat;o parametrico 8. Mas
existem situa~6es em que tal fato nao ocorre, ou seja, a dimensao de 8 e menor
que r.
Exemplo 2.3.1. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da
variavel aleat6ria X "" N(p" (TZ), onde p, e (Tz saD desconhecidos. Temos, entao,
que 0 = (p" (TZ). Nessecaso, a funt;ao de verossimilhant;a pode ser escrita como
. (1) n ,,",n (Zi _1")2L(Oj x) = -- e- 0'=1 ---,;r-
V2if(T
= (_1_) n ~e-~ L:~=Ix~+~L:~=1x;-n,s
V2if (Tn . ,
com -00 < p, < 00 e (TZ> O. Tomando h(XI, ... ,xn) = 1/ (V2if)n e
temos, de acordo com 0 criterio da fatorat;a~, que T = (L:~=lXi, L:~=lXl) e
conjuntamente suficiente para (p" (TZ).
Definil;ao 2.3.1. Dizemos que duas estatisticas TI e Tz sao equivalentes se
existir uma rela<;ao1:1 entre elas.
Em outra palavras, TI e Tz siio equivalentes se TI puder ser obtida a partir
de Tz e vice-versa. Nesse caso, temos que, se TI e suficiente para e, entao Tz
tambem e suficiente para O. Esse resultado vale tambem para 0 caso multidi-
mensional.
Exemplo 2.3.2. Consideremos novamente a situa<;ao do Exemplo 2.2.6. Vi-
mos que Tl = ~~=l Xi e suficiente para /1. Como Tl e equivalente a T2 =
~~=l Xiln = X, temos que T2 = X tambem e suficiente para /1.
Exemplo 2.3.3. Consideremos novamente a situa<;ao do Exemplo 2.3.1. Nao e
dificil verificar que Tl = (~~=l Xi, ~i=l xl) e T2 = (X, 82) sao equivalentes.
Como Tl e suficiente para 8 (Exemplo 2.3.1), temos que T2 tambem e suficiente
para 8 = (/1, a2).
Exemplo 2.3.4. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria
X com distribui<;ao Gama(ex, (3). Dizemos que X ,...,Gama(ex, (3), se sua f.d.p.
e dada por
onde r(.) e a fun<;ao gama definida por r(t) = 1000 xt-le-Xdx, para t > O.
Entao, 8 = (ex, (3). Temos que a fun<;iio de verossimilhan<;a correspondente a
~ ''''- I 1 1
amostra observada e dada por . .
. (3nOl n ,in '"
£(8; x) = rn (ex) IIXf-l e-{3 _ ;=1 ~i)I(o,oo~ (x).'
. >=1 /~
ex > 0, (3 > O. Portanto, pelo criterio da fatora<;ao, temos que Tl
(n~=l Xi, ~~=l Xi) e conjuntamente suficiente para 8. Notemos que a es-
tatfstica T2 = (~~=l log Xi, X) e equivalente a Tl.
~ 2.4 Familias Exponenciais
Muitos dos modelos estatfsticos consideradosnas se<;6es anteriores podem ser
considerados como casos especiais de uma familia mais geral de distribui<;6es .
Defini«ao 2.4.1. Dizemos que a distribuif;iio da variavel aleat6ria X pertence
a famz'lia exponencial unidimensional de distribuif;oes, se pudermos escrever
sua f.p. ou f.d.p. como
onde c, d siio funf;oes reais de 8,. T, 8 siio funf;oes reais de x e A niio depende
de 8.
Notemos que no caso em que X e continua, para que f(xI8) em (2.4.1) seja
uma fun<;ao de densidade, e necessario quei ec{IJ)T(x)+d(IJ)+S{x)dx = 1,
i ec(IJ)T(x)+S(x)dx = e-d(IJ),
de modo que d(B) esta associado a constante de normaliza<;ao da densidade.
Resultado similar vale para 0 caso em que X e uma variavel aleatoria discreta.
Exemplo 2.4.1. Seja X uma variavel aleatoria com distribui<;ao de Bernoul-
li(B). Entao, podemos escrever
Portanto a distribui<;ao de X pertence a familia exponencial unidimensional
com
c(B) = log C ~B)' d(B) = log(1 - B),
T(x) = x, S(x) = 0, A = {O, I}.
Exemplo 2.4.2. Seja X uma variavel aleatoria com distribui<;ao N(t-t, 1).
Temos, entao, que
Portanto a distribui<;ao da variavel aleatoria X pertence a familia exponencial
unidimensional com
t-t2
c(t-t) = t-t, d(t-t) = -2'
x2
e S(x) = -2 -log~,
Outras distribui<;6es que podem ser colocadas na forma da familia exponen-
cial unidimensional sao, por exemplo, binomial, de Poisson e exponencial. 0
proximo result ado estabelece que amostras aleatorias de familias exponenciais
unidimensionais SaDtambem membros· da familia exponencial unidimensional.
Teorema 2.4.1. Sejam Xl, ... ,Xn uma amostra aleat6.,.ia de tamanho n da
va.,.iavel aleat6.,.ia X, com fun{:iio de densidade (ou de probabilidade) dada po.,.
(2.4.1). Entiio, a distribui{:iio conjunta de Xl,'" ,Xn e dada po.,.
f(XI"'" xnlB) = eC*(IJ)L:~=lT(Xi)+d*(IJ)+S*(x), X E An,
que tambem e da famz1ia exponencial com T(x) = L:~lT(Xi), c*(B) = c(B),
d*(B) = nd(B), e S*(x) = L:~=lS(Xi)'
n
h(Xl,""Xn) =e2:~=lS(X;)rrIA(Xi)' e ge(T) =eC(e)2:~=IT(Xi)+nd(e),
i=l
temos, pelo criterio da fatora~ao, que a estatistica T(X) = 2:~=1 T(Xi) e sufi-
ciente para B.
Defini«iio 2.4.2. Dizemos que a distribui9ao da variavel aleat6ria (ou de um
vetor aleat6rio) X pertence Ii famz1ia exponencial de. dimensao k se a fun9ao
de densidade (ou de probabilidade) de X e dada por
f(xIB) = e2:;=1 cj(e)Tj(x)+d(e)+S(x), x E A,
onde Cj, Tj, deS sao fun90es reais, j = 1, ... , k, e como no caso unidimen-
sional, d(B) estri associado Ii constante de normaliza9ao de (2.4.3) e A nao
depende de e.
Tambem, no caso de dimensao k,' amostras de familias exponenciais de di-
mensao k tern distribuic;6es que saD membros da familia exponencial de di-
mensao k. Para uma amostra Xl, ... , Xn de 'uma varia-vel aleat6ria com func;ao
de densidade (ou de probabilidade) dada por (2.4.3), temos que a fun~ao de
densidade (ou de pro babilidade) conjunta de Xl, ... , X n e dada por
f( Ie) = 2:;=1 ~;(e) 2:~=1Tj(x;)+d*(e)+s*(x)Xl, ... , Xn e ,
n
Tj*(x) = LTj(Xi), cj(e) = Cj(e),
i=l
S*(x) = L S(Xi), d*(e) = nd(e).
i=l
Exemplo 2.4.3. Consideremos mais uma vez a situac;ao do Exemplo 2.3.l.
Nesse caso, temos que e = (/-£,0'2), com
d(B) = -2~2 - ~log(T2, S(x) = -logJ2;, A = IR.
A distribui<;ao de uma amostra aleat6ria da densidade (2.4.4) e tambem da
familia exponencial com T1 (X) = L~=lXi e T2(X) = L~=lXl, que sao con-
juntamente suficientes para (J-l, (T2).
Exemplo 2.4.4. Vamos considerar agora 0 caso em que 0 vet or (X, Y) e dis-
tribufdo de acordo com a distribui<;ao normal bivariada com B = (J-lx, J-ly, (T;, (T;,
p), que denotamos por
que corresponde a uma densidade na forma da familia exponencial de dimensao
5, em que
cdB) = (1 ~ p2) [~~ - :::J, T1(x,y) = x,
c2(B) = (1 ~ p2) [~~ - :::J, T2(x,y) = y,
1
c3(B) = - 2(1- p2)(Ti' T3(x,y) = x2,
1
c4(B) =- 2(1- p2)(T~' T4(x,y) = y2,
Pc5(B) = (1 2) , T5(x,y) = xy.- P (Tx(Ty
As func;6es d(B) e S(x, y) SaGobtidas de maneira similar.
Consideremos uma amostra aleatoria (Xl, Yl), ... , (Xn, Yn) da densidade
normal bivariada (2.4.5). Temos, portanto, que a estatistica
e conjuntamente suficiente para B = (f.Lx, f.Ly, 0';,0';, p). Notemos que a es-
tatistica
- - 2 2T2 = (X, Y, Sx, Sy, Sxy),
onde S; = L~=l (Xi - X)2 In, S; = L:Z:l (Yi - y)2 In e Sxy = L:~,A(Xi -
X)(Yi - Y)ln e equivalente a Tl e, portanto, e tambem conjuntamente ·sufi.;!'
ciente para B. Estimadores comumente consider ados para Beque SaGfunc;6es
de T2 SaG
~2 ~ - 2fly = Y, O'x = L)Xi - X) In,
i=l
o estimador p e conhecido como coeficiente de correlaC;ao de Pearson. Podemos
mostrar que os estimadores de B dados por (2.4.6) e (2.4.7) SaGestimadores de
maxima verossimilhanc;a.
Sejam Xl,'" ,Xn uma amostra aleatoria da variavel aleatoria X com funC;ao
de densidade (ou de probabilidade) f(xIB). Seja T = T(Xl, ... ,Xn) uma es-
tatistica suficiente para B e S = S(Xl, ... ,Xn) urn estimador de B que nao e
func;ao da estatistica suficiente T. Entao,
e urn estimador de B, ou seja, e uma func;ao de T que nao depende de B,
pois, sendo T suficiente, a distribuic;ao condicional de Xl, ... , Xn dado T e
independente de B. Notemos que S = S (X 1, ... , X n) e uma func;ao apenas de
Xl,'" ,Xn. Temos, tambem, que se S e urn estimador nao viciado de B, entao
Be tambem nao viciado para B (veja 0 Exercicio 2.8). Contudo 0 resultado mais
importante, conhecido como Teorema de Rao-Blackwell, estabelece que, se S e
urn estimador nao viciado de 0, entao,
Var[S] = E{Var[SjT]} + Var{E[SIT]}
~ V ar{ E[SIT]} = Var[B],
pois E{Var[SIT]} ~ O. Portanto temos de (2.5.2) que 0 estimador 8 basea-
do na estatfstica suficiente T apresenta uma variancia menor (ou igual) que a
variancia do estimador nao viciado S. Desse modo, qualquer estimador S que
nao e fun<;ao de uma estatfstica suficiente pode ser melhorado pelo pro cedi-
men to (2.5.1).
Exemplo 2.5.1. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria
X ~ Poisson(O). Queremos estimar P(X = 0) = e-O. Temos que a estatfstica
T = 2:~1Xi e suficiente para O. Consideremos
S = {I, Xl = 0,
0, caso contrario.
Temos que E(S) = P(XI = 0) = e-o, logo S e nao viciado para e-o. Notemos
que, para t = 0,1,2, ... ,
E[SIT = t] = P(XI = 0IT = t) = P(2:7=2 X~ = t)P(XI = 0)
P(2:i=1 Xi = t)
=e-ln-I)O((n-1)O)te_o t! =(n_1)t
t! e-nO(nO)t n· '
portanto de acordo com (2.5.1) tern os que 0 estimador
A seguir apresentamos a defini<;ao de estatfstica completa que, em conjunto
com a defini<;ao de suficiencia, possibilita a obten<;ao do estimador 6timo, isto
e, 0 estimador nao viciado de variancia uniformemente mfnima.
Defini~iio 2.5.1. Uma estatistica T = T(XI, ... , Xn) e dita ser completa em
relar;iio d famz1ia f(xIO) : 0 E 8, se a unica funr;iio real g, definida no dominio
de T, tal que E[g(T)] = 0, para todo B e a funr;ao nula, isto e, g(T) = 0 com
probabilidade 1.
E[g(T)] = ~g(X) (:)BX(l- Bt-x = 0 para todo B,
C
onde p =B/(l- B). Como 0 lado esquerdo de (2.5.3) e urn polin6mio em p de
grau n temos que g(x) = 0 para todo x. Portanto T = L~:"'lXi e completa em
relac;ao a famflia Binomial.
Exemplo 2.5.3. Sejam Xl, X2 uma amostra aleat6ria da variavel X ~
Bernoulli(B). Seja T = Xl - X2. Temos que E(T) = E(X1 - X2) = 0, logo
existe a func;ao g(T) = T tal que E(g(T)) = 0, mas g(T) =j:. 0 com probabilidade
1. Portanto T = Xl - X2 nao e completa.
A demonstrac;ao do teorema a seguir pode ser encontrada em Lehmann
(1986) .
Teorema 2.5.2. Suponha que X tenha distribuir;ao da fam{lia exponencial k-
dimensional (como definida em 2.4.2). Entao, a estatistica
n n
T(X) = (LTl(Xi), ... ,LTk(Xi))
i=l i=l
e suficiente para B. T(X) sera tambem completa desde que 0 dom{nio de
variar;ao de (cl(B), ... ,cdB)) contenha um retangulo k-dimensional.
No caso uniparametrico, e necessario que 0 dominio de variac;ao de c(B)
contenha urn intervalo da reta. No caso bidimensional, urn quadrado e assim
pordiante.
Teorema 2.5.3. (Lehmann-Scheffe) Sejam Xl, ... , Xn uma amostra aleat6ria
da variavel aleat6ria X com f.d.p. (ou f.p.), f(xIB). Seja T uma estatistica
suficiente e completa. Seja S um estimador nao viciado de B. Entao B = E(SIT)
e 0 unico estimador nao viciado de B baseado em Tee 0 estimador nao viciado
de variancia uniformemente m{nima (ENVVUM) para B.
Prova. De (2.5.1) e (2.5.2) temos que e e urn estimador nao viciado de Beque,
na procura de ENVVUM's para B, basta procurar entre os que san func;ao de
T (pois os que nao san podem ser melhorados). Falta provar, entao, que ha urn
unico estimador nao viciado de 8 que e fun<;ao de T. Para isso, suponha que
existam fh e e2, ambos fun<;6es de T, tais que
de modo que E(el - (2) = 0 e como T e completa, el - e2el = e2 com probabilidade 1.
Exemplo 2.5.4. Sejam Xl, ... , Xn uma amostra aleat6ria da distribui<;ao de
Poisson com parametro 8. Pelos Exemplos 2.2.4 e 2.5.2 temos que T = .2::7=1 Xi
e uma estatlstica suficiente e completa. Como X e urn estimador nao viciado
de 8 e e fun<;ao de T, eo ENVVUM.
2.1. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X ~
N(O, cr2).
(i) Encontre 0 limite inferior·da variancia dos estimadores nao viciados de cr2.
(ii) Encontre uma estatistica suficiente para cr2.
(iii) Obtenha a partir desta estatistica urn estimador nao viciado para cr2 .
. (iv) Verifique se este estimador e eficiente.
2.2. Sej am Xl, ... , X n uma amostra aleat6ria da varia vel aleat6ria X ~
Binomial(2,8).
® Encontreo limite inferior da variancia dos estimadores nao viciados de 8.
l® Encontre uma estatistica suficiente para 8.
(iii) Obtenha urn estimador nao viciado para 8 que seja fun<;ao da estatistica
suficiente.
(iv) Verifique se 0 estimador e eficiente.
2.3. Sejam Xl, ... , Xn uma amostra aleat6ria da distribui<;ao da variavel
aleat6ria X com fun<;ao densidade de probabilidade dada por
(i) Mostre que a f.d.p. pertence a familia exponencial.
(ii) Encoiltre 0 limite inferior da variancia dos estimadores nao viciados de 8.
(iii) Encontre uma estatistica suficiente para 8 e sua distribui<;ao.
(iv) Sugira urn estimador nao viciado para 8 que seja fun<;ao da estatistica
suficiente e verifique se e eficiente.
2.4. Sejam Xl, X2 uma amostra aleat6ria da variavel aleat6ria X rv Poisson(8).
Mostre que T = Xl + 2X2 nao e suficiente para 8.
2.5. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X com
funr;ao de densidade (ou de probabilidade) f(xI8) para a qual as condir;6es
de regularidade estao satisfeitas. Seja l' urn estimador nao viciado para g(8).
Mostre que
V arb) > (g' (8))2 .
- nE [ ( a log £~X[O) ) 2]
2.6. Seja f(xI8) uma funr;ao densidade para a qual as condir;6es de regularidade
estao satisfeitas. Mostre que
2.7. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X com
f.d.p. dada por
f(xI8) = e-(X-O), x> 8, 8> O.
(i) Encontre uma estatistica suficiente para 8.
(ii) Baseado nesta estatistica, obtenha urn estimador nao viciado para 8.
2.8. Mostre que se 5 e urn estimador nao viciado de 8, entao (j dado por (2.5.1)
tambem e nao viciado para 8.
2.9. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X
N(p"1).
(i) Mostre que 0 estimador l' = X2 - 1jn e nao viciado para g(p,) = p,2.
(ii) Existe ENVVUM para p,2?
(iii) Encontre 0 limite inferior da variancia dos estimadores nao viciados de
g(p,) = p,2 e verifique se l' e eficiente:
2.10. Sejam Xl, .. ' ,Xn uma amostra aleat6ria da variavel aleat6ria. X '"
Bernoulli(8). Obtenha 0 ENVVUM para 8(1 - 8).
Sugestao: verifique se 52 = (n~l) X (1 - X) e nao viciado para 8(1 - 8).
2.11. Sejam Xl, ... ,X n uma amostra aleat6ria da variavel aleat6ria X com
distribuir;ao geometrica com parametro 8, isto e,
f(xI8) = 8(1 - 8)X, x = 0,1,2, ... , 0 < 8 < 1.
Encontre 0 ENVVUM para 1j 8.
2.12. Sejam Y1, ... ,Ynvariaveis aleat6rias independentes onde Yi '" N((3xi, 0-2),
onde xi e conhecido, i = 1, ... ,n. Note que, neste caso, as variaveis Yi nao SaD
identicamente distribuidas.
(i) Encontre uma estatistica conjuntamente suficientepara (3 e 172.
(ii) Baseado nessa estatistica, obtenha OS ENVVUM para (3 e para 172.
No capitulo anterior consideramos urn criterio para verificar se determinado
estimador e ou nao eficiente. Contudo tal procedimento nao e urn metodo que
possibilita, em geral, a obten<;ao de estimadores em situa<;6es especfficas. Vim os
tambem que todo born estimador deve ser fun<;ao de uma estatistica s~iente.
Neste capitulo vamos considerar alguns inetodos que possibilitam a obten<;ab
de estimadores em situa<;6es especfficas. 0 primeiro metodo que consideramos e
o metodo de maxima verossimilhan<;a em que estimadores saG obtidos a partir
da maximiza<;ao da fun<;ao de verossimilhan<;a. 0 segundo metodo considerado
e 0 metodo dos momentos em que estimadores saG obtidos igualando-se os
momentos amostrais aos correspondentes momentos populacionais.
o conceito de fun<;ao de verossimilhan<;a, enunciado a seguir, e central na teoria
da verossimilhan<;a.
Defini<;iio 3.1.1. Sejam Xl,'" ,Xn uma amostm aleataria de tamanho n da
variavel aleataria X com funr;iio de densidade (ou de probabilidade) f(xI8),
com 8 E e, onde e Ii 0 espar;o pammetrico. A funr;iio de verossimilhanr;a de 8
correspondente Ii amostm aleataria observada e dada por
L(8; x) = IIf(XiI8).
i=l
Defini<;iio 3.1.2. 0 estimador de maxima verossimilhanr;a de 8 Ii 0 valor iJ E e
que maximiza a funr;iio de verossimilhanr;a L(8; x).
o logaritmo natural da func,;ao de verossimilhanc,;a de 8 e denotado pOl'
Nao e dificil verificar que 0 valor de 8 que maximiza a fun<;ao de verossimi-
lhan<;a L(8; x), tambem maximiza l(8; x) dada por (3.1.2). Alem disso, no caso
uniparametrico onde e e urn intervalo da reta e l(8; x) e derivavel, 0 estimador
de maxima verossimilhanc;a pode ser encontrado como a raiz da equac;ao de
verossimilhanc;a
l'(8;x) = 8l~~x) = o.
Em alguns exemplos simples, a soluc;ao da equac;ao de verossimilhanc;a pode ser
obtida explicitamente. Em situac;oes mais complicadas, a soluc;ao da equac;ao
(3.1.3) sera em geralobtida por procedimentos numericos. Para se conc1uir que
a soluc;ao da equac;ao (3.1.3) e urn ponto de maximo, e necessario verificar se
l"(8'. )=82IogL(8;x)1 . 0, x 882 B=B < .
Em situac;oes em que e e discreto ou em que 0 maximo de l(8; x) ocorre na
fronteira de e (Exemplo 1.3.8), 0 estimador de maxima verossimilhanc;a nao
pode ser obtido a partir da soluc;ao de (3.1.3). Em tais situac;oes, 0 maximo e
obtido a partir da inspec;ao da func;ao de verossimilhanc;a.
Exemplo 3.1.1. Sejam Xl,'" ,Xn uma amostra aleat6ria da distribuic;ao da
variavel aleat6ria X ,.....,N(p, 1). Nesse caso, a func;ao de verossimilhanc;a e dada
por
L(p; x) = (~) n e-~ L:~=1(X;-f.L)2,
com e = {Pi -00 < P < oo}. Como
1 n
l(p; x) = -n log y'2; - 2""2)Xi - p)2,
i=l
:L(Xi - fl) = 0,
i=l
1 n _
fl=-:LXi=X.
n i=l
Nao e dificil verificar nesse caso que (3.1.4) esta satisfeita.
Entao X, alem de ser eficiente (Exemplo 2.1.1) e func;ao da estatlstica sufi-
ciente, e tambem estimador de maxima verossimilhanc;a.
Exemplo 3.1.2. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria
X ~ Bernoulli(B). Nesse caso, a fun<;ao de verossimilhan<;a de B e dada por
n (n)I(B;x)=~XilogB+ n-~Xi log(1-B).
2=~1Xi _ (n - 2=~1 xd = 0,
B 1- B
pois neste caso, (3.1.4) tambem est a verificada.
o exemplo a seguir ilustra uma situa<;ao em que a equa<;ao (3.1.3) nao pode
ser utilizada.
Exemplo 3.1.3. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria
X ~ U(O, B). Conforme visto no Exemplo 2.2.5, podemos escrever a fun<;ao de
verossimilhan<;a como
onde e = {B; B > O}. Nesse caso, a equa<;ao de verossimilhan<;a (3.1.3) nao leva
a nenhum estimador para B. Por outro lado, 0 grafico da fun<;ao de verossimi-
Ihan<;a de B e dado pela Figura 3.1.
Como a fun<;ao de verossimilhan<;a (3.1.5)e nula para B < x(n) e vale l/Bn
para B ~ X(n), temos que 0 maximo de L(B; x) e dado por (j = X(n), que e uma
estatistica suficiente para B. Nesse caso 0 estimador de maxima verossimilhan<;a
de B e viciado (ver Exemplo 1.3.8.).
L(8.x)''!
I
1 i-+-----------------------------------------
X;:d I
I
J
No caso discreto, 0 estimador de maxima verossimilham;a de e, B, pode ser
interpret ado como 0 valor de e que maximiza a probabilidade de se observar a
amostra que foi selecionada. 0 exemplo a seguir ilustra bem esse fato.
Exemplo 3.1.4. Temos uma caixa com bolas brancas e vermelhas_ Sabe-se
que a propor<;ao e de bolas vermelhas na caixa e 1/3 ou 2/3. Portanto e =
{1/3,2/3}. Para obtermos informa<;:ao sobre e, uma amostra de n = 3 bolas
e observada com reposi<;:ao e apresenta bola vermelha na primeira extra<;:ao e
branca na segunda e na terceira extra<;:6es_Definindo
Xi = { 1,
0,
se a i-esima retirada apresenta bola vermelha
se a i-esima retirada apresenta bola branca,
para i = 1,2,3, temos que a fun<;:aode verossimilhan<;:a de e associada a amostra
observada e dada por
Como
L (~;x) = ~ (~r4-27
e
L (~;x) = ~ (~r227'
temos que a estimativa de maxima verossimilhan<;a de 8 e dada por fj = 1/3,
pois
o exemplo que apresentamos a seguir ilustra uma situa<;8,oem que 0 esti-
mador de maxima verossimilhan<;a nao e unieo.
/Exemplo 3.1.5. Sejam Xl,"" Xn uma amostra aleat6ria da distribui<;ao da
variavel aleat6ria X ~ U(8 - 1/2,8 + 1/2), isto e
f(xI8) = I[8-1/2;9+1/2j(X),
L(8; x) = I[8-1/2;8+1/2j(XJ)'" I[8-1/2;8+1/2j(Xn)
= I[X(n)-1/2;x(1)+1/2j(8),
. '
8 s: X(l) + 1/2 e X(n) - 1/2 s: 8.
A Figura 3.2 apresenta 0 grafieo da fun<;ao L(8; x).
4-
L(e,x) I
!
I
!
, _· ••••1 -----~i -'un,'_n ' nn __
a
Como L(B; x) e nula para B < x(n) - 1/2 e para B > X(l) + 1/2 e constante
no intervalo [X(n) - 1/2; X(l) + 1/2]' temos que qualquer ponto desse intervalo
e urn estimador de maxima verossimilhan<;:a de B. Em particular,
e urn estimador de maxima verossimilhan<;:a de B.
Em alguns casos, principalmente quando a verossimilhan<;:a esta associada
a modelos mais complexos, a fun<;:ao de verossimilhan<;:a nao apresenta solu<;:ao
analitica explicita. Em tais casos, os estimadores de maxima verossimilhan<;:a
podem ser obtidos pormeio de metodos numericos. Vamos denotar por U(B) a
fun<;:aoescore, ou seja,
U(B) = 8log L( B; x)
8B '
de modo que, expandindo U(8) em serie de Taylor em torno de urn ponto Bo,
obtemos .
0= U(8) ~ U(Bo) + (8 - Bo)U'(Bo),
8 ~ B _ U(Bo)
. - 0 U'(Bo)·
que e iniciado com 0 valor eo e entao urn novo valor Bl e obtido a partir de
(3.1.7) e assim por diante, ate que 0 processo se estabilize, ou seja, para urn
dado I: pequeno, IBj+l - Bjl < (. Nesse caso, 0 ponto 8 em que 0 processo
se estabiliza e tornado como 0 estimador de maxima verossimilhan<;:a de B.
Em alguns casos, a substitui<;:ao de U'(Bj) em (3.1.7) por E[U'(Bj)], ou seja, a
informa<;:ao de Fisher em Bj correspondente a amostra observada multiplicada
por -1, apresenta significativa simplifica<;:ao no procedimento. Esse metodo e
conhecido como metodo do escore. 0 exemplo a seguir ilustra uma aplica<;:ao
de tal procedimento.
Exemplo 3.1.6. Sejam Xl, ... ,Xn uma amostraaleat6ria da distribui<;:ao da
variavel aleat6ria X com fun<;:ao de densidade dada por
1
f(xI8) = 2(~ + 8x); -1:S x :s 1, -1:S 8 :s 1.
1 n
L(8;x) = 2" II(1 +8Xi),
i=l
U(8)=&logL(8;x) ~ Xi
&8 . =L..,.1+8x··
i=l '
n 2
U'(8) = - L (1 +X~xY'
i=l '
de modo que 0 proc~dimento iterativo (3.1.7) se reduz a
I:11 Xi
8 - 8 i=l 1+0jXij+l - j + 2"n x.
6i=1 (1+0;Xi)2
Ip(8) = 2~3{logC~:) -28},
de modo que um procedimento alternativo a (3.1.9) e dado por
I:n Xi8. - 8. _ i=l i+9jXi'
J+l - J nIp (8j)
Vma amostra de tamanho n = 20 e gerada a partir da densidade (3.1.8) com
8 = 0,4. Os dados foram gerados a partir do metodo da fun<;ao de distribui<;iio,
ou seja, sendo F(X) = U, temos que u", U(O, 1). Nesse caso, 'como
-1 + 2}1/4 - 8(1/2 - 8/4 - u)
x = ------8------
tem distribui<;ao com fun<;ao de densidade dada por (3.1.8), ou seja, para u
gerado a partir da U(O, 1), x obtido a partir de (3.1.11) e um valor gerado a
partir da distribui<;ao com fun<;aode densidade dada par (3.1.8). As observa<;6es
geradas sac dadas na Tabela 3.1.
0,3374 0,9285 0,6802 -0,2139 0,1052
-0,9793 -0,2623 -0,1964 0,5234 -3,4919
-0,6082 0,7509 0,3424 -0,7010 -0,2605
+0,4077 -0,7435 0,9862 0,9704 0,5313
Escrevendo urn program a em Fortran (outra linguagem poderia tambem ser
facilmente utilizada) para calcular 0 estimador de maxima verossimilhanc;a,
obtemos, ap6s 10 iterac;oes do programa, a Tabela 3.2 em que a segunda coluna
corresponde ao procedimento dado em (3.1.9) e a terceira coluna corresponde
ao procedimento (3.1.10). Como valor inicial para 0 procedimento iterativo foi
usado eo = x = 0,1282'
Tabela 3.2. Valores de {j obtidos nas 10 iterac;oes
Iterac;ao Usando (3.1.9) Usando (3.1.10)
1 0,128188 0,128188
2 0,358745 0,371861
3 0,351170 0,349163
4 0,351140 0,351328
5 0,351140 0,351123
6 0,351140 0,351142
7 0,351140 0,351140
8 0,351140 0,351140
9 0,351140 0,351140
10 0,351140 0,351140
3.2 Propriedades dos Estimadores de Maxima
Verossimilhanc;a
o teorema a seguir apresenta uma propriedade importante dos estimadores de
maxima verossimilhanc;a, estabelecendo que 0 estimador de maxima verossimi-
Ihanc;a e func;ao de uma estatistica suficiente.
Teorema 3.2.1. Sejam Xl,' .. ,Xn uma amostra aleat6ria da variavel aleat6ria
X com fun<;ao de densidade (ou de probabilidade) f(xle). Seja T = T(XI, ... ,
Xn) uma estatistica suficiente para e. Entao 0 estimador de maxima verossi-
milhan<;a {j (se existir) e fun<;ao de T. '
Prova. De acordo cOm 0 criterio da fatorac;ao, temos que se T e suficiente para
e, entao,
onde glJ(T(x)) depende de x somente atraves de T. Como hex) e constante
com relac;ao a B, temos que maximaT L(B; x) com relac;ao a B e equivalente a
maximizar glJ(T(x)) com relac;ao a B. Como glJ(T(x)) depende de x somente
atraves de T, temos que e sera obrigatoriamente uma func;ao de T. Outras
propriedades saD apresentadas nas subsec;6es seguintes.
A seguir apresentamos uma propriedade bastante importante do metodo de
maxima verossimilhanc;a. Seja g(.) uma func;ao real 1 : 1 (inversivel) definida
erne.
Teorema 3.2.2. (0 principio da invariancia.) Sejam Xl, ... ,Xn uma #nostra
aleat6ria da variavel aleat6ria X com funr;ao de densidade (ou de probabilid'adel'
f(xIB). Se e Ii um estimador de maxima verossimilhanr;a de B, entao gee) Ii um
estimador de maxima verossimilhanr;a de g(B).
Prova. Provamos 0 resultado para 0 caso em que 9 e 1:1. Sendo g(.) uma
fun<;ao 1: 1, temos que g(.) e inversivel, de modo que B = g-l(g(B)). Assim
i(e) = gee),
ou seja, 0 estimador de maxima verossimilhan<;a de g(B) e gee).
Exemplo 3.2.1. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da
variavel aleat6ria X '" Bernoulli(B). Nesse caso, 0 parametro de interesse e
g(B) = B(l-B). De acordo com 0 principio da invariancia, temos que 0 estimador
de maxima verossimilhanc;a de g(B) e dado por
De acordo com 0 Exercicio 2.10 temos que 0 estimador dado em (3.2.2) e viciado
para g(B). Par outro lado, usando 0 Exercicio 2,10, temos que
, 1
E[g(B)) - g(B) = -B(l - B),
n
Exemplo 3.2.2. SejamXI, ... ,Xn uma amostra. aleatoria da distribuic;ao da
variavel aleatoria X ""' N(fL, 1). Vimos que p, = X eo estimador de maxima
verossimilhanc;a de fL. Suponhamos que queremos estimar
eo estimador de maxima verossimilhanc;a de g(fL) .
./~ Exemplo 3.2.3. Sejam Xl, .. ',Xn uma amostra aleatoria da distribuic;ao da
variavel aleatoria X ""' Exp(B) com densidade
B> 0 ex> O. Nesse caso, fJ = X-I eo estimador de maxima verossimilhanc;a
de B. Suponhamos que e de interesse estimar
De acordo com 0 principio da invariancia, temos que 0 estimador de maxima
verossimilhanc;ae
Nos tres exemplos acima, vimos situac;6es em que 0 estimador de maxima
verossimilhanc;a e uma func;ao complicada da amostra observada. Certamente,
nao e uma tarefa facil encontrar a distribuic;ao do estimador <f>( -X), por exem-
plo. Contudo, se 0 tamanho da amostra for grande, 0 estimador de maxima
verossimilhanc;a apresentara uma distribuic;ao aproximadamente normal, como
veremos adiante. Alem disso, veremos que 0 estimador de maxima verossimi-
Ihanc;a e eficiente, em grandes amostras.
'"No caso em que 0 tamanho da amostra e grande, e as condic;6es de regularidade,
especificadas no Capitulo 2, estao satisfeitaS, temos que ·f A IJ~O ",c"'~·E
D e
vn(fJ - B) !!:, N (0, IF~e)) ,
onde ,,-t" significa distribuic;ao assintotica. Temos entao que, para amostras
grandes, os estimadores de maxima verossimilhanc;a de 8 e g(8) sao aproxi-
madamente nao viciados, cujas variancias coincidem com os correspondentes
limites inferiores das variancias dos estimadores nao viciados de 8 e g(8). Por-
tanto, em gran des amostras, temos que 0 estimador de maxima verossimilhanc;a
e eficiente.
Exemplo 3.2.4. Considere 0 modelo do Exemplo 3.2.1. De acordo com (3.2.4),
temos que a distribuic;ao do estimador de maxima verossimilhanc;a (3.2.2) e
dada por
.jii(g(e).c- 8(1 - 8)) -t N (0, (1 - 28)28(1 - 8)) ,
pois g'(8) = 1 - 28.
Exemplo 3.2.5. Sejam Xl," ., Xn uma amostra aleatoria da variavel aleatoria
X ,.,. Poisson(8). Nesse casa, temos que 0 estimador de maxima verossimi-
lhanc;a de 8 e e = X (verifique!). De acordo com 0 princfpio da invariancia,
temos que 0 estimador de maxima verossimilhanc;a de e-e e dado por
Existem situac;i5es em que temos duas ou mais amostras independentes de dis-
tribuic;i5es que dependem de urn parametro 8 de interesse. No caso de duas
amostras aleatorias independentes, Xl, ... ,Xn e Yl, ... ,Yn, podemos escrever
devido a independeJ)cia entre as amostras. Portanto a verossimilhanc;a conjunta
e igual ao produto da verossimilhanc;a correspondente a amostra Xl, ... ,Xn
pela verossimilhanc;a correspondente a amostra Yl, ... ,Yn. De (3.3.1), podemos
escrever
l(8; x, y) = l(8; x) + l(8; y),
de modo que 0 logaritmo da verossimilhanc;a conjunta e igual a soma do logari-
tmo das verossimilhanc;as correspondentes a cada uma das amostras. 0 exemplo
que apresentamos a seguir ilustra uma tal situac;ao.
Exemplo 3.3.1. Sejam Xl,." ,Xn uma amostra aleatoria correspondente a
X ,.,.N(f-l, 4) e Yl, ... ,Y" uma amostra aleatoria correspondente a Y ,.,.N(f-l, 9).
Assumindo que as duas amostras san independentes, temos que a verossimi-
lhan<;a correspondente a amostra conjunta e dada por
(2~) n e- 2:~=,(Zi~,,)2 C~) m e- 2:::1 (y;;:)2
= (2~) n (3~) m e- 2:~=,(Zi~,,)2 -2:::, (Yi;:)2.
Usando 0 criterio da fatora<;ao, nao e dificil verificar que uma estatfstica sufi-
ciente para IJ- e dada por
T(x, y) = 2:~1Xi + 2:::1}Ii
4 g'
n m ~ (Xi - IJ-)2 ~ (Yi - IJ-)2
l(IJ-;x,Y) = --2 log 871' - -2 log 1871' - 0 8 - 0 ---,
i=1 i=1 18
810gL(IJ-;x,y) = ~ (Xi - p.) ~ (Yi - p.) = 0
8 0 4 +0 9 ,
IJ- i=1 i=1
Podemos notar que 0 estimador de maxima verossimilhan<;a e fum;ao da es-
tatfstica suficiente dada em (3.3.3).
Nas se<;oes anteriores discutimos a obten<;ao dos estimadores de maXIma
verossimilhan<;a e estudamos suas propriedades no caso em que a fun<;ao de
verossimilhan<;a depende apenas de urn parametro. Nesta se<;ao vamos cons i-
derar situa<;oes em que 8 = (81, ... ,8r), ou seja, a verossimilhan<;a depende de
dois ou mais parametros. 0 espa<;o parametrico sera denotado por e. Nos cas os
em que as condi<;oes de regularidade estao satisfeitas, os estimadores de maxima
verossimilhan<;a de 81, ... ,8r podem ser obtidos como solu<;ao das equa<;oes
ologL(B;x) =0
OBi '
i = 1, ... , T. Nos cas os em que 0 suporte da distribuic;ao de X depende de B ou
o maximo ocorre na fronteira de e, 0 estimador de maxima verossimilhanc;a e
em geral obtido inspecionando 0 grafico da func;ao de verossimilhanc;a, como no
caso uniparametrico. Nos casos em que a func;ao de verossimilhanc;a depende
de dois panlmetros, Bl e B2, utilizando a equac;ao
ologL(Bl,B2;x) = 0
OBI '
obtemos uma soluc;ao para 81 como func;ao de 82, que podemos denotar por
81(82). Substituindo a soluc;ao para 81 na verossimilhanc;a conjunta, temo~gora
uma func;iio apenas de 82, ou seja, •
conhecida como verossimilhanc;a perfilada de B2 que pode ser usada para que 0
estimador de maxima verossimilhanc;a de 82 possa ser obtido. A maximizac;ao
de g(82; x) pode, entao, ser feita de maneira usual, ou seja, atraves de derivac;ao,
quando possivel.
Exemplo 3.4.1. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria
X ~ N(/-£, (7"2),onde /-£ e (7"2sac desconhecidos. Temos, entao, que B = (/-£, (7"2),
com
l(/-£, (7"2;x) = -~log27l"(7"2 - t (Xi
2
::)2
.=1
que leva ao estimador fl = X. Portanto 0 logaritmo da verossimilhanc;a perfilada
de (7"2e dada por
logo 0 estimador de maxima verossimilhanc;a de (7"2e obtido como soluc;ao da
equac;ao
,2 1~ - 2
U = - L..,,(Xi - X) ,
n
i==l
de modo que os estimadores de maxima verossimilhan<;a de fl e (J2 san dados,
respectivamente, por
_ 1 n
p, = X = - LXi
n i==l
No caso multiparametrico, as mesmas propriedades como invariancia, fun<;ao
da estatistica suficiente e outras, continuam valendo. 0 mesmo se aplica ao
caso de varias amostras independentes, conforme ilustra 0 exemplo a seguir.
Exemplo 3.4.2. Sejam Xl, ... , Xn uma amostra aleat6ria de X '" N(flx, (2)
e Yl'''',Ym uma amostra aleat6ria de Y '" N(fly,U2). Nesse caso, B =
(flx, fly, (2). Portanto a verossimilhan<;a correspondente a amostra observada e
dada por
L(B; x, y) = (~U) n (~U) m e-~ ~~=1(x;-/l,)2_~ ~::1(Yi-/ly)2,
logo
l(B ) (n + m) 1 2 (m + n) 1 2 ~ (Xi - flx)2; x, Y .= - 2 og 7r- 2 og U - L.." 2u2
,==1
8l(B; x, y) _ ~( . _ ' ) _ 0o - L.." X, flx - ,
flx i==l
ol(B; x, y) _ ~( . _ A ) _ 0- L.." Y, fly-
Ofly j==l
8l(B;x,y) (m+n) 1 1 {~ ,2 ~ '2}
Ou2 = - 2 3-2 + 23-4 ~(Xi - flx) + f;;;(Yj - fly) = 0,
A2 2::~=1(Xi - X')2 + 2::;:1 (Yj - V)2
(Y =
m+n
3.5 Familia Exponencial e 0 Metodo de Maxima
Verossimilhan<;a
5e a distribuic;ao da variavel aleat6ria X pertence a familia exponencial unidi-
mensional de distribuic;6es, entao 0 estimador de maxima verossimilha~.a de B
baseado na amostra X = (Xl,' .. ,Xn) e soluc;ao da equa<;ao ~
• ~-1
des de que a soluc;ao pertenc;a ao espa<;o parametrico correspondente ao para-
metro B. Esse resultado pode ser estendido para 0 caso k-parametrico em que
os estimadores de maxima verossimilhanc;a de Bl, ... ,Bk seguem como soluc;6es
das equa<;6es
Exemplo 3.5.1. Consideremos uma populac;ao com 3 tip os de individuos de-
nominados (rotulados) 1, 2, e 3, ocorrendo nas proporc;6es de Hardy-Weinberg
o < B < 1. Por exemplo, p( 1;B) = B2 significa que a probabilidade de se observar
um indivfduo do tipo 1 e B2. Para uma amostra de n = 3 individuos, se Xl = 1,
X2 = 2 e X3 = I, onde Xl = 1 significa que 0 primeiro individuo observado e do
tipo I, X2 = 2 significa que 0 segundo indivfduo observado e do tipo 2 e X3 = 1
significa que 0 terceiro indivfduo observado e do tipo 1, temos que a func;ao de
verossimilhan<;a correspondente e dada por
L(Bj x) = p(lj B)p(2; B)p(3; B) = 2B5(1 - B),
de modo que de (3.1.3),
f(B;x) = ~ - ~ =0
B I-B
leva ao estimador fj 5/6 (verifique que ["(8; x) < 0). Em geral, para
uma amostra de n individuos, sendo nl, n2, n3 0 numero de elementos de
{Xl, ... , Xn} iguais a 1, 2 e 3, respectivamente, temos que
Entao c(8) = log(8/(1 - 8)) e T(X) = 2N1 + N2 de modo que
E[T(X)] = E[2N1 + N2] = 2n82 + 2n8(1 - 8) = 2n8.
2N1 + N2 = 2ne
que produz 0 estimador e = (2N1 + N2)/2n.
Exemplo 3.5.2. Consideremos (Xl, Yd, ... , (Xn, Yn) uma amostra aleat6ria
da distribuic;ao normal bivariada dada no Exemplo 2.4.4, em que e obtida a
estatistica suficiente T = (T1, T2, T3, T4, T5), com T1= 2:7=1 Xi, T2 = 2:7=1 Yi,
T3 = 2:7=1 Xl, T4 = 2:7=1 Y?, T5 = 2:7=1 XiYi, para 8 = (/-Lx,/-Ly,(J;,(J~,p).
Como E[Xi] = /-Lx, E[Yi] = /-Ly,E[XtJ = /-Li + (J;, E[Y?] = /-L~ + (J~ e E[XiYi] =
/-Lx/-Ly+ P(Jx(Jy, i = 1, ... , n, segue que E[T1] = n/-Lx, E[T2] = n/-Ly, E[T3] =
n/-L; + n(J;, E[T4] = n/-L~+ n(J~ e E[T5] = n/-Lx/-Ly+ n(J;(J~, entao de (3.5.2),
temos que 0 estimador de maxima verossimilhanc;a de 8 tern componentes dadas
pelas expressoes (2.4.6) e (2.4.7).
o metodo dos momentos e urn dos metodos de estimac;ao mais simples e antigos.
Esse metodo tern sido utilizado desde 0 seculo XVIII. Seja
1 n
mr = - EX;'
n i=l
r ~ 1, 0 r-esimo momento populacional. 0 metodo dos moment os consiste na
obtenc;ao de estimadores para 8 = (81, ... ,8k) resolvendo-se as equac;oes
Exemplo 3.6.1. Consideremos novamente 0 problema da estimac;ao do numero
de taxis em uma cidade. Sendo N 0 numero de taxis, vimos que
1
P[Xi = k] = 1'\/' k = 1, ... ,N,'
onde Xi e 0 numero do i-esimo taxi observado. Como 0 primeiro momento
populacional e dado por
N+1
f.1l = E[X] = -2-'
temos que urn estimador para N, utilizando-se os primeiros momentos popula-
cional e amostral, e dado pela solU<;aoda equa<;ao
, - "N = 2X-1.
Notemos que, nesse caso, 0 estimador obtido pelo metodo dos momentos ILi;i,o e
fun<;aQd<:t estatistica s!1ficiente X(n)'
Exemplo 3.6.2. Sejam Xl, ... ,Xn. uma amostra aleatoria da distribui<;ao da
variavel aleatoria X, com densidade gama com parametros a e /3 dados por
/3cxxCX-le-/3x
f(xla,/3)= r(a) , x>O,a>O,/3>O.
a a
E[X] = e e Var[X] = /32'
temos que estimadores para a e /3 saD obtidos como solu<;ao das equa<;6es
a 1 n
-;:= - '2:Xi
~ . n i=l
-2
, X
a = (j2 '
, X
e /3 = ';:z,
(J
onde (j2 2:~=1(Xi - X)2 In, como antes. Nesse caso, nao e possivel obter-
mos estiinadores de maxima verossimilhan<;a explicitos para a e /3. Metodos
computacionais como 0 metodo do escore consider ado na Se<;ao 3.1 devem ser
utilizados. Como valores iniciais para esses metodos computacionais, podemos
utilizar os estimadores dados por (3.6.1). Notemos tambem que os estimadores
dados por (3.6.1) nao saD fun<;6es da estatistica conjuntamente suficiente, que
nesse caso e dada por (TI~=lXi, 2:~=1Xi)'
Os metodos de estima<;ao considerados nest a se<;ao produzem, em geral, esti-
madores consistentes, ou seja, a medida que 0 tamanho da amostra aumenta, os
estimadores ficam tao proximos do panlmetro que esta sendo estimado quanta
desejado. Consistencia esta ligada ao conceito de convergencia em probabilida-
de (veja James, 1981).
Definic;ao 3.7.1. Sejam Xl, ... ,Xn uma amostra aleat6ria da distribuir;iio da
variavel aleat6ria X que depende do parametro O. Dizemos que 0 estimador
B = B(X I, ... , Xn) e consistente para 0 parametro 0, se,
Em geral, usamos a desigualdade de Chebyshev (veja James,1981) para a veri-
fica<;ao dessa propriedade.
Exemplo 3.7.1. Sejam Xl .... ,Xn uma amostra aleatoria de tamanho n da
distribui<;ao da variavel aleatoria X com media 0 e variancia a2. Temos, usando
a desigualdade de Chebyshev, que
limn~ooP(IX - 01 > €) = 0,
e portanto X e consistente para O.
3.1. Sejam Xl,"" Xn uma amostra aleatoria da variavel aleatoria X com
fun<;ao de densidade de probabilidade
o
f(xIO) = 2' x 2: 0, 0> O.
x
3.2. Sejam Xl"" ,Xn uma amostra aleatoria de tamanho n da variavel
aleatoria X com fun<;ao de densidade de probabilidade dada por
•
f(xIO) = OxO-I, 0 < x < 1,0 > O.
(i) Encontre os estimadores de maxima verossimilhan<;a de 0 e de g(O) = 0/(1+
0). (ii) Encontre a distribui<;ao aproximada dos estimadores em (i) quando n e
grande.
3.3. Sejam Xl, ... ,Xn' uma amostra aleat6ria da variavel aleat6ria X ~
N(/-L, 1). Encontre 0 estimador de maxima verossimilhanc;a de g(/-f) = PJ.LIX > 0]
. e sua distribuic;ao aproximada quando n e grande.
3.4. Sejam Xl, .. " Xn uma amostra aleat6ria de tamanho n da variavel
aleat6ria X com func;ao de densidade de probabilidade dada por
f(xIB) = ; e-x/8, x 2: 0, B > O.
(i) Encontre 0 estimador de maxima verossimilhanc;a de B e verifique se ele e
eficiente.
(ii) Encontre 0 estimador de maxima verossimilhanc;a de Var[X]e Ccontre
sua distribui<;ao aproximada em grandes amostras. ~,
3.5. Encontre a distl}buic;ao aproximada para grandes amostras do estimador
de maxima verossimilhan<;a de .p( -8), considerado no Exemplo 3.2.2.
3.6. Encontre 0 estimador de maxima verossimilhanc;a de 82 no Exercicio 2.9
e compare seu erro quadratico medio com 0 do estimador eficiente l' dado no
Exercicio 2.9, (i).
3.7: Considere uma amostra aleat6ria de tamanho n da distribui<;ao da variavel
aleat6ria X onde cada observa<;ao apresenta urn de tres resultados possfveis (por
exemplo, favonivel, contra e indiferente), que denotamos por "0", "I" e "2".
Suponhamos que a probabilidade de "0" e Pl = (1 - 8)/2, a probabilidade da
ocorrencia do resultado "I" e P2 = 1/2 e do resultado "2" e P3 = 8/2. Seja nl:
o numero de vezes que "0" ocorre, n2: 0 numero de vezes que "I" ocone e n3:
o numero de vezes que 0 "2" ocorre.
(i) Encontre, como fun<;ao de nl, n2, n3, uma estatfsticasuficiente para B.
(ii) Encontre 0 estimador de maxima verossimilhanc;a de B.
3.8. Sejam Xl, ... , Xn uma amostra aleat6ria de tamanho n da variavel
aleat6ria X com func;ao de densidade de probabilidade dada por
(i) Encontre, usando 0 metodo dos momentos, urn estimador para E[X].
(ii) Encontre 0 estimador de maxima verossimilhanc;a de B e sua distribuic;ao
aproximada em grandes amostras.
3.9. Sejam Xl,.'" Xn uma amostra aleat6ria de tamanho n da variavel X com
fun<;ao de densidade de probabilidade dada por
(x-a)
1 (x-a) -e - fJ
f(xIB) = _e--fJ-e
(3
(i) Encontre a distribui<;ao de Y = eX.
(ii) Discuta a obten<;ao do estimador de maxima verossimilhan<;a para (3, quan-
do a = O.
(iii) Encontre estatfsticas conjuntamente suficientes para a e (3.
(iv) Discuta a obten<;ao dos estimadores de maxima verossimilhan<;a para a e
(3 e verifique se sac fun<;6es das estatfsticas obtidas em (iii).
(v) Usando (i), gere uma amostra aleat6ria de tamanho n =20 da variavel
aleat6ria Y. A partir desta amostra, obtenha uma amostra de tamanho n=20
para a variav€l aleat6ria X e usando urn programa de computador, obtenha os
estimadores de maxima verossimilhan<;a de a e (3.
3.10. Sejam Xl, ... ,Xn uma: amostra aleat6ria de tamanho n da variavel
aleat6ria X com fun<;ao de densidade de probabilidade
f( 18) = (x + 1) -x/9 0 8 0x 8(8 + 1)e , x > , > .
(i) Encontre 0 estimador de maxima verossimilhan<;a para 8 e sua distribui<;ao
em grandes amostras.
(ii) Obtenha urn estimador para 8 usando 0 metodo dos momentos.
3.11. Refa<;a 0 Exercfcio 3.7 supondo agora que PI = 82, P2 = 28(1 - 8) e
P3 = (1 - 8)2.
3.12. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da distribui<;ao
N(0,0'2). Encontre 0 estimador de maxima verossimilhan<;a de 0' e sua .dis-
tribui<;ao em grandes amostras.
3.13. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X com
distribui<;ao exponencial com parametro 8. Encontre 0 estimador de maxima
verossimilhn<;a de g(8) = PIX > 1] e sua distribui<;ao aproximada quando n
for grande.
3.14. Sejam Xl, ... , Xn uma amostra aleat6fia da variavel aleat6ria X com
fun<;ao de densidade de probabilidade Weibull dada'. por
f(xI8, a) = 8axa-Ie-9x"; x, a, 8 > O.
(i) Suponha que a seja conhecido. Encontre 0 estimador de maxima verossimi-
lhan<;a de 8 e sua distribui<;ao aproximada para quando n for grande.
(ii) Suponha agora que 8 e a sac desconhecidos. Encontre as equa<;6es de
verossimilhan<;a para os dois parametros. Proponha urn procedimento iterativo
para encontrar os estimadores de maxima verossimilhan<;a dos dois parametliOs.
Discuta a implementa<;ao do procedimento no computador.
(iii) Gere uma amostra com n = 10 elementos da: distribui<;ao de X assumindo
que a = 8 = 1. Usando 0 procedimento iterativo em (ii), obtenha estimadoresde maxima verossimilhan<;a de a e de e. Compare as estimativas com os valores
usados. para simular a amostra.
3.15. Obtenha a informa<;ao de Fisher IF(e) no Exemplo 3.1.6.
3.16. Obtenha os estimadores de maxima verossimilhan<;a de (3e (J2 no modelo
de regressao dado no Exerdcio 2.12.
3.17. Verifique se os estimadores obtidos nos Exemplos 3.1.2, 3.1.3, 3.2.1, 3.2.3
e 3.6.2 san consistentes.
3.18. Sejam Y1; .. ·, Yn variaveis aleat6rias independentes com Y; '" N(a +
(3Xi, (J2), onde Xi e conhecido, i = 1, ... ,n. Encontre os estimadores de «axima
verossimilhan<;a de a, !3 e (J2. . '.~,
3.19. Sejam Y1,···, Yn varia veis aleat6rias independentes com Yi '" N ((3Xi,
(J2Xi), onde Xi > 0 e conhecido, i 1, ... ,n. Encontre os estimadores de
maxima verossimilhan<;a 'de (3 e (J2.
'3.20. No caso do modelo do Exerdcio 3.18, os estimadores de a e !3 obtidos
atraves' do metodo de minimos quadrados minimizam a soma de quadrados
I:7=1 (Yi - a - (3xi)2. Verifique que os estimadores de minimos quadrados co-
incidem com os estimadores de maxima verossimilhan<;a de a e !3.
~. Defina 0 criterio correspondente para obter os estimadores de minimos
quadrados para 0 modelo do Exercicio 3.19.
4. Introduc;ao a Teoria das Decisoes.
as Principios Minimax e de Bayes
Neste capitulo apresentamos uma breve introdu<;ao a teoria das decis6es. Os
problemas usuais de estima<;ao e testes de hipoteses sac vistos pela otica dCteo-
ria dos jogos, em que os adversarios sac 0 estatistico e a natureza. Em primeiro ~.
lugar, apresentamos os elementos basicos da teoria das decis6es, sendo 0 obje-
tivo principal a minimiza<;ao da fun<;ao de risco. Como, em geral, nao e possivel
a obten<;ao de urn procedimento que minimize a fun<;ao de risco uniformemente
em B, outros criterios para a obten<;ao de procedimentos otimos sac necessarios.
Dois desses procedimentos sac discutidos neste capitulo. 0 primeiro e 0 pro-
cedimento minimax, em que 0 estatistico procura precaver-se contra 0 risco
maximo. A seguir apresentamos 0 principio de, Bayes em que a caracteristica
principal e a formula<;ao do problema de decisao, assumindo que a natureza
utiliza urn procedimento aleatorio, representado por uma distribui<;ao de pro-
babilidade, para escolher urn valor para B. Solu<;6es gerais sac apresentadas
para 0 estimador de Bayes com respeito a alguns tipos especiais de fun<;6es de
perda, dentre as quais destacamos a IJerda quadratica.
Os elementos basicos de urn problema de decisao sac:
(i) urn conjunto nao vazio e dos possiveis est ados da natureza que na verdade
representa 0 espa<;o parametrico. A natureza escolhe para e urn valor nesse
conjunto;
(ii) urn conjunto nao vazio A das possiveis ac6es que podem ser tomadas pelo
estatlstico. No caso de problemas de estima<;ao, A = e, em geral. No caso de
problemas de testes de hipoteses, geralmente A consiste nas a<;6esde se aceitar
ou rejeitar uma hipotese formulada;
(iii) uma fun<;ao d : X --+ A, denominada fun<;ao de decisao, em que X e 0
espa<;o amostral associado a uma variavel aleatoria X correspondente a urn ex~
perimento idealizado pelo estatistico para "espionar" (obter informa<;6es) sobre
a escolha de B feita pela natureza. Seja V 0 conjunto (ou classe) das possiveis
fun<;6es de decisao. Nessa dasse, 0 estatistico procura urn procedimento que
seja "melhor" , segundo algum criterio;
(iv) uma fun<;ao real l(O, a), definida em 8 x A, que sera chamada de fun<;ao
de perda e que satisfaz as seguintes propriedades:
(a) l(O, a) 20, para to do 0 E 8, a E A,
(b) l(O, a) = 0, quando a = 0,
ou seja, quando a a<;aocorreta e tomada.
Portanto a fun<;ao l(O, a) represent a a perda incorrida pelo estatlstico ao
tomar a a<;ao a quando 0 e a escolha feita pela natureza. Algumas fun<;6es
de perda comumente empregadas em problemas de decisao saG: (i) l(O, a) =
(0 - a)2, comumente conhecida como perda quadratica; (ii) l(O, a) = 10 - 11.1,
conhecida como perda do valor absoluto e (iii) l(O, a) = c(O)IO - air, c(O) > 0,
r > 0, que e uma perda mais geral, tendo as perdas em (i)e (ii) como casos
particulares.
Como nao e possivel a implementa<;ao de proced~mentos que minimizem
diretamente a fun<;ao de perda, pois essa depende de 0, que e desconhecido, 0
estatistico procura minimizar a fun<;ao de risco, definida a seguir.
Definic;;ao 4.1.1. A fun9iio de risco correspo,ndente ao procedimento (fun9iio
de decisiio) d e a fun9iio de perda l (0, a) e dada por
R(O, d) = E[I(O, d(X))] = L l(O, d(x))f(xIO),
{xEX}
no caso discreto. No caso continuo, 0 somatorio na expressiio acima e substi-
tuido por uma integral definida em X.
Em (4.1.1), f(xIO) corresponde a fun<;ao de verossimilhan<;a da amostra
observada (ver Defini<;ao 3.1.1). Portanto a fun<;ao de risco nada mais e do
que a perda media sobre 0 espa<;o amostral X, e e fun<;ao do para-metro O.
Podemos entao comparar procedimentos mediante a utiliza<;ao da fun<;ao de
risco, conforme definido a seguir.
Definic;;ao 4.1.2. Dizemos que um procedimento d1 e melhor que um procedi-
mento d2, quando
para algum O.
No caso em que (4.1.2) e (4.1.3) estao satisfeitas para todos os procedi-
mentos d2 em uma certa classe D de procedimentos, entao dizemos que d1 eo
melhor procedimento em V. Alem disso, estando as condic;6es (4.1.2) e (4.1.3)
satisfeitas, temos que 0 procedimento dz e dito ser inadmissivel. Graficamente,
temos a situac;ao da Figura 4.1.
Contudo, em geral, ocorre a situac;ao da Figura 4.2, em que 0 procedimento
d1 e preferivel para alguns valores de 8, enquanto que para outros valores de 8,
dz e preferivel. Portanto, em geral, nao existe urn procedimento que seja melhor
para todos os valores de 8. Em situac;6es como essa, outros criterios devem ser
utilizados para se decidir sobre urn procedimento em certa classe V. 0 exemplo
que apresentamos a seguir ilustra uma tal situac;ao.
Exemplo 4.1.1. Suponha que uma moeda apresenta cara com probabilidade
8 igual a 1/3 ou 2/3, ou seja, e = {1/3, 2/3}. It entao adequado tomar como
espac;o das ac;6es A = {1/3, 2/3}. Para obter informac;ao sobre 0, 0 estatistico
faz urn lanc;amento da moeda e observa a variavel aleat6ria X que denota
o numero de caras obtidas no lanc;amento. 0 espac;o amostral associado ao
experimento e, portanto, X = {O,I}. Nesse caso, podemos definir entao quatro
func;6es de decisao, d1, dz, d3 e d4, que saD dadas por
d1(0) = 1/3,
d1(1) = 2/3,
dz(O) = 1/3,
dz(l) = 1/3,
d3(0) = 2/3,
d3(1) = 2/3,
d4(0) = 2/3,
d4(1) = 1/3.
Considerando a func;ao de perda do valor absoluto l(B,a) = 18 - ai, e como a
.distribuic;ao de X e discreta, temos que,
R(1/3, dd = l(1/3, d1(0)).2/3 + l(1/3, d1(1)).1/3
= 0.2/3 + 1/3.1/3 = 1/9,
R(1/3, d2) = 0.2/3 + 0.1/3 = 0,
R(1/3, d3) = 1/3.2/3 + 1/3.1/3 = 1/3,
R(1/3, d4) = 1/3.2/3 + 0.1/3 = 2/9.
Por outro lado, para 0 = 2/3, de maneira similar, temos que
R(2/3, dd = l(2/3, d1(0)).1/3 + l(2/3, d1(1)).2/3
. = 1/3.1/3 + 0.2/3 = 1/9,
R(2/3, d2) = 1/3.1/3 + 1/3.2/3 = 1/3,
R(2/3, d3) = 0.1/3 + 0.2/9 = 0,
R(2/3, d4) = 0.1/3 + 1/3.2/3 = 2/9.
d 0=1/3 0=2/3 maxR(O; d)
d1 1/9 1/9 1/9
d2 0 1/3 1/3
d3 1/3 Q 1/3
d4 2/9 2/9 2/9
Da Tabela 4.1 podemos concluir que R(O, dd < R(O, d4), para 0 = 1/3 e
o = 2/3, de modo que d4 e inadmisslvel. Com relac;ao a d1, dz e d3, temos a
situac;ao da Figura 4.2, em que nenhum procedimento e melhor para todo O.
Conforme mencionado na introduc;ao, 0 procedimento minimax e 0 pro cedi-
mento que protege 0 estatlstico contra 0 risco maximo.
Definic;ao 4.2.1. Dizemos que 0 procedimento do e um procedimento minimax
numa classe D deprocedimentos, se
sup R(O, do) = inf supR(O,d).
6EB dEV6EEJ
Conforme notamos a partir da Definic;ao 4.2.1, 0 principio minimax compara
simples mente 0 maximo dos riscos dos procedimentos.
(4.3.1) = L R(B, d)7I"(B),
{IIEe}
no caso discreto. No caso em queG e continuo, 0 somat6rio em (4.3.1) e
substituido pela integral correspondente,ou seja,
r(7I",d) = l R(B, d)7I"(B)dB.
Notemos que se R(B, d) e constante (isto e, independente de B), entao r(7I",d) =
R(B,d).
Defini~ao 4.3.2. Uma funr;iio de decisiio dB e chamada uma funr;iio de decisiio
de Bayes com respeito a priori 71" e a classe D das funr;oes de decisiio, se
~
Exemplo 4.3.1. Consideremos mais uma vez a situa~ao do Exemplo 4.2.1,
sendo 71"(1/3)= P e 71"(2/3)= 1- p. De acordo com a Defini~ao 4.3.1, temos que
1 1 1 1
r(7I",dt} = 971"(1/3)+ 971"(2/3)= 9P + 9(1 - p) = 1/9,
1 1-p
r(7I",d2) = Op+ 3(1 - p) = -3-
1 p
r(7I",d3) = 3P + 0(1 - p) = 3'
Portanto temos que, se p < 1/3, d3 e a solu<;ao de Bayes. Se p = 1/3, entao d1
e d3 sao solu~6es de Bayes. Notemos que nesse caso a solu~ao de Bayes nao e
unica. Se 1/3 < p < 2/3, entao d1 e a solu~ao de Bayes. Se p = 2/3, entao d1 e
d2 sao solu~6es de Bayes, de modo que nesse caso tambem a solu~ao de Bayes
nao e unica. Se p > 2/3, entao a solu~ao de Bayes e d2.
Exemplo 4.3.2. Com rela~ao ao Exemplo 4.2.2, vimos que d(X) = X e a
solu~ao minimax com rela~ao a perda l(B, a) = (B - a)2/B. Considerando a
priori exponencial com parametro um para B, ou seja,
r(7I",d) = E1T[R(B, d)J = E1T[C2 + B(c - 1)2J
= c2 + (c - 1)2 E1T[B]
= c2 + (c - 1)2.
8r(7r, d) = 2e + 2(e - 1) = 0,
. 8c _
temos que r(7r, d) e minimo quando e = 1/2, ou seja, com relac;ao a priori e a
perda acima, 0 estimador de Bayes na classe D e dado por dB(X) = X/2.
Com relac;ao a perda quadratica, e possivel a caracterizac;ao dos estimadores
na classe D de todas as func;6es de decisao. Notemos que no Exemplo 4.3.2,
o estimador de Bayes foi obtido numa particular classe de estimadtCis, ou
seja, D = {d; d(X) = eX}. Contudo afunc;ao de perda nao era quadratic·a. 0"
resultado para perda quadratica e enunciado e provado a seguir para 0 caso em
que X e uma variavel aleat6ria continua.
Teorema 4.4.1. S ejam Xl, ... , X n uma amostra aleat6ria da distribui<;ao da
variavel aleat6ria X, com fun<;ao de denszdade de probabilidade f(xI8). Consi-
deremos para 8 a distribui<;ao a priori com fun<;ao de densidade de probabilidade
7r(8). Entao, com rela<;iio Ii perda quadratica, 0 procedimento (estimador) de·
Bayes na classe D de todas as fun<;oes de decisiio e dado por
ou seja, e 0 valor esperado de 8 calculado na distribui<;iio condicional de 8 dado
Xl,' .. , Xn, que e denominada "distribui<;ao a posteriori de 8".
pro~a. Com relac;ao a perda quadratica, a func;ao de risco de urn procedimento
q/lquer d(X) e dada por •
~4.4.1) R(8, d) = L (8 - d(X)2)f(xI8)dx,
onde x = (Xl,""Xn), X eo espac;o amostral e f(xI8) = rr=1!(XiI8) e a
func;ao de verossimilhanc;a correspondente a amostra observada. Com relac;ao a
priori 7r, temos de (4.4.1) que 0 risco de Bayes do procedimento d(X) e dado
por
temos de (4.4.2) que
r(7r, d) = r r (d(x) - B)27r(Blx)g(x)dxdBJeJx
=L [~(d(X) - B)27r(B1X)dB] g(x)dx.
De acordo com a Defini<;ao 4.3.2, temos que 0 procedimento de Bayes e 0
procedimento que minimiza (4.4.4), ou seja, para cada x, e 0 procedimento que
minimiza
Derivando (4.4.5) com rela<;ao a d(X) e igualando a de,rivada a zero, chegamos
ao procedimento
7r(Blx) = j(xIB) = j(xIB)7r(B)
g(x) g(x)'
g(x) = ~ j(xIB)7r(B)dB
.~.a densidade marginal de x = (Xl, ... , xn). A densidade 7r(Blx) e denomina-
da fun<;ao de densidade de probabilidade a posteriori e pode ser interpretada
diretamente a partir do Teorema de Bayes, ou seja, a densidade (ou fUI).<;aode
probabilidade) condicional e igual a densidade (ou fun<;ao de probabilidade)
conjunta dividida pela densidade (ou fun<;ao de probabilidade) marginal de x.
o Teorema 4.4.1 pode ser generalizado para 0 caso de uma fun<;ao qualquer de
B, T( B), ou seja, 0 estimador de Bayes de T( B) coni rela<;ao a perda quadratica
e dado por
Notemos, portanto, que os estimadores de Bayes nao sao invariantes, como
sao os estimadores de maxima verossimilhan<;a no sentido de que sendo {j urn
estimador de Bayes de 8, 7(0) nao e necessariamente urn estimador de Bayes
de 7(8).
Exemplo 4.4.1. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da
variavel aleatoria X com distribuic;ao de Bernoulli com para-metro 8. Cons ide-
remos para 8 a func;ao de densidade a priori
7f(8) = r[a + b] 8a-1 (1 _ 8)b-1
r[a]r[b] ,
0< 8 < 1, a, b > 0, usualmente conhecida como densidade beta com para-metros
a e b, que denotamos por Beta(a,b) e onde r[a] e a fun<;ao gama avaliada no
ponto a, ou seja,
n
f(xI8) = IIf(XiI8) = 8'£~=1Xi (1 - 8t- '£~=1Xi,
i=l
g(x) =118'£~=1Xi (1 _ 8r- '£~=lXi r[a + b] 8a-1 (1 _ 8)b-1 d8
o r~r~
= ~t:];[~~118'£~=1xi+a-1 (1 - 8yn- '£~=1xi+b-1 d8
_ r[a + b] r ['£~=1Xi + a] r[n - '£~=1Xi + b]
~~r~ r~+a+~
Portanto de (4.4.6) temos que
r[a+r1] 8'£~- xi+a-1 (1_ 8)n- '\'~_ xi+b-1r[aJr b ,_1 L..,,_,
r a+b r['£~=l Xi+a]r[n- '£~=1Xi+b]
r[a r b r[n+a+b]
r[n + a + b] 8'£~- xi+a-1 (1_ 8)n- '\'~_ xi+b-1n n 1_1 L...-l_1,
r['£i=l Xi + a]r[n - '£i=l Xi + b]
ou seja, a distribui<;ao a posteriori de 8 dado X e uma distribui<;ao beta com
para-metros '£~=1Xi + a e n - '£~=1Xi + b que denotamos por
dB (X) = E[OIX] = L~=l Xi + a.
n+a+b
Notemos, dos calculos acima, que as distribui<;6es a priori e a posteriori per-
tencem a mesma familia de distribui<;6es, ou seja, no caso em que a distribui<;ao
de X e Bernoulli e a distribui<;ao a priori e da familia Beta, a distribui<;ao a
posteriori e tambem da familia Beta. Dizemos, entao, que a distribui<;ao Beta e
conjugada para a Bernoulli. E tambem verdade que a distribui<;ao Beta e conju-
gada para as distribui<;6es Binomial e Binomial Negativa. Os parametros a e b
da priori beta devem ser escolhidos de modo que 7f(0) expresse 0 conhecimento
a priori que 0 estatfstico tern sobre B. No caso particular em que a = b = 1,
temos que
ou seja, nesse caso a distribui<;ao U(O,l) e escolhida como priori para O. No
caso da priori uniforme, temos de (4.4.9) que
d (X) = L~=l Xi + 1.
B n+2
A priori uniforme indica que, inicialmente, 0 estatfstico tern pouca informa<;ao
sobre B, pois com rela<;ao a essa priori, qualquer intervalo de mesmo compri-
mento tern a mesma area (probabilidade).
Para ca1cularmos 0 risco de Bayes do estimador (4.4.11) com rela<;ao a priori
uniforme, tern os que
R(B,d) = E [(L~l:;+1-0) 2]
en : 2)' E [ (~Xi - nO+ 1- 20) ']
1 2
(n+2)2[(4-n)B -(4-n)B+1].
Com rela<;ao a priori uniforme dada em (4.4.10), temos que En[O] 1/2,
Varn[O] = 1/12 e EnW] = 1/3, de modo que
(d) = 1 [(4-n) _ (4-n) ]r 7f, (n+2)2 3 2 +1
1
- 6(n + 2)'
Certamente, 0 estimador de Bayes em (4.4.11) tern risco de Bayes menor, com
relac;ao a priori uniforme acima, que 0 risco de Bayes do estimador de maxima
verossimilhanc;a fj = X.
Exemplo 4.4.2. Sejam Xl,.' . ,Xn vma amostra aleat6ria da distribuic;ao da
variavel aleat6ria X com distribuic;ao de Poisson( 0). Consideremos para 0 a
distribuic;ao a priori com func;ao de densidade de probabilidade .
baoa-Ie-eb
(4.4.12) 7r(0) = r[a] ,
o > 0, a > 0, b > 0, ou seja, gama com panlmetros a e b, que denotatos por
Gama(a, b). Em (4.4.12), r[a] e como definido em (4.4.8). Como •.
bae-e(n+b) OL:~=l xi+a-l
= TI~=1Xi!r[a]
ba r[L:~1Xi + a]
- TI7=1Xi!r[a] (n + b)L:~=l x.+a·
e-e(n+bJoL:i=l x.+a-l
7r(OjX) = [L:n ] ,r .=h xi+a
~ x+a(n+b) i=l'
ou seja, a distribuic;ao a posteriori de 0 dado X e uma distribuic;ao gama com
panlmetros L:7=1 Xi + a e n + b que denotamos por
E[OIX] = L:~lXi + a
n+b
Alem disso, no caso da Poisson, como visto acima, priori gama leva a uma
posteriori gama, de modo que a distribui<;ao gama e conjugada para a Poisson.
Apos algumas manipula<;6es algebricas, nao e dificil verificar que (ver Exercicio
4.5)
R(O,d) = E [(L7~1:ib+ a _ 0) 2]
( 1 )2 [a2 + b202 + O(n - 2ab)],
n+b
a
r(7f, d) = E7[[R(O, d)] = b(n + b)
Exemplo 4.4.3. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da
variavel aleatoria X com distribui<;ao N(p, CT5), onde CT5 e conhecido. Conside-remos para p a priori N(a, b2), ou seja,
onde a e b sao conhecidos. A priori N(a, b2) expressa 0 fato de que a e um valor
razoavel para p enquanto que b2 (ou b) quantifica a confianc;a (ou certeza) de
que a e um valor razoavel para p. Quanto maior b2 (ou b), mais incerto 0
estatistico esta com relac;ao a escolha feita pela natureza com relac;ao a p. Apos
uma serie de manipula<;6es algebricas (verifique!), temos que
(
1 )n1g(x) = -- -v'27TCTo b 1 1 e~+{j2o
ou seja, a distribuic;ao a posteriori de J1- dado Xl, ... ,Xn e normal com media
(2:~=I xUa5 + a/b2)/(n/a5 + 1/b2) e variancia 1/(n/a6 + 1/b2), que denotamos
por
Temos, portanto, que a priori normal e conjugada para a distribuic;ao normal
quando queremos estimar J1- com variancia a5 conhecida. Com relac;ao a perda
quadratica, temos, enti'io, que
"n x-£..-;=1 ' + a
"0 jj2"
n +1~ jj2"
n 1
~ - jj2"
n 0 1 X + n 1 a,
~+/j2 ~+/j2o 0
de modo que 0 estimador de Bayes de J1- e uma combinac;ao linear convexa (co-
eficientes somam urn) entre a media amostral X (que e 0 estimador eficiente
e de maxima verossimilhanc;a de J1-) e a media a priori a. Notemos que quanta
maior n, maior 0 peso atribuido a X. Portanto para n grande a distribuic;ao a
priori tern pouca influencia na distribuic;ao a posteriori. Por outro lado, valores
pequenos de b aumentam a contribuic;ao de a no estimador dB acima. Lem-
bramos que b pequeno indica uma maior confianc;a do estatistico de que a e urn
valor razoavel para J1-. Temos tambem que (verifique!)
R(~,dB) d [(~: f -~r]
1
=---n l'
~+ij2o
0"5R(/-L,dB) -+ -,
n
quando b -+ 00, ou seja, a informac;ao a priori e pouco precisa.
Para finalizar 0 capitulo, apresentamos a seguir urn resultado importante,
relacionando os estimadores de Bayes a uma estatistica suficiente.
Teorema 4.4.2. Sejam Xl, ... , Xn uma amostm aleat6ria de tamanho n da
distribuir;ao da variavel aleat6ria X com funr;ao de densidade (ou de proba-
bilidade) f (x I8). S eja T = T (X 1, ... , X n) uma estatistica suficiente pam 8.
Conside~emos pam 8 a funr;ao de densidade (ou de probabilidade) 1r(8). Entao,
o estimador de Bayes de 8 com relar;ao Ii perda quadratica e funr;ao de T.
Prova. Vamos considerar a demostrac;ao apenas para 0 caso em que X e 8
sac variaveis aleatorias continuas. Sendo T uma estatistica suficiente para 8,
usando 0 Criterio da Fatorac;ao, podemos escrever
ou seja, glJ(t(x)) depende de x somente por t(x). Podemos, entao, escrever a
func;ao de densidade (ou de probabilidade) a posteriori como
f(xI8)1r(8)
1r(8Ix) = Ie f(xI8)1r8d8
h(x)glJ(t(x))1r(8) glJ(t(x))1r(8)
Ie h(x)glJ(t(x))1r(8)d8 Ie glJ(t(x))1r((f)d8'
de modo que a func;ao de densidade a posteriori depende de x somente atraves
de T = T(x). Como 0 estimador de Bayes de 8 com relac;ao a perda quadratica
e a media da posteriori, ele dependera de X somente atraves de T.
o resultado do Teorema 4.4.2 vale na verdade em situac;oes mais gerais no
que diz respeito a func;ao de perda. Na verdade qualquer que seja a func;ao
de perda consider ada, 0 estimador de Bayes so dependera de X atraves de
T = T(Xl, ... ,Xn), pois qualquer que seja a func;ao de perda, 0 estimador de
B~yes e obtido utilizando a distribuic;ao a posteriori 1r(8Ix).
4.1. Seja X uma unica observac;iio da distribuic;ao N(/-L, 1), onde -00 < /-L < 00.
Considere a perda quadratica.
(i) Encontre 0 risco R(/-L,d) para a classe D = {d;d(x) = eX}.
(ii) Encontre, na classe D, 0 estimador de Bayes de p.
(iii) Encontre em D 0 estimador de Bayes de /-L com relac;ao a priori 1r(/-L) =,
1/2: -1 OS /-L OS 1.
4.2. Seja X uma (mica observac;ao da variavel aleat6ria X com fum;ao de
probabilidade
onde 0 < ()< 1. Considere os estimadores d1(X) = X/2 e d2(X) = (X + 1)/4
e func;ao de perda quadnitica.
(i) Verifique se existe urn estimador uniformemente melhor (melhor para todo
()), ou seja, verifique se urn dos estimadores e inadmisslvel.
(ii) Qual dos estimadores e minimax?
4.3. Considere uma unica observac;ao da variavel aleat6ria X ~ Binomial(n, ()).
Seja l((), d) = (()- d)2.
(i) Encontre 0 risco de Bayes de d(X) = X/no
(ii) Encontre 0 risco de Bayes de d(X) em (i), com relac;ao a priori re)
1,0~()~1. ~.
4.4. Refac;a 0 Exercfcio 4.3., considerando agora a perda l((), d) = (()
a)2/()(1 - ()).
4.5. Seja uma unica observac;ao da distribuic;ao Poisson(()). Encontre 0 risco
de Bayes do estimador d(X) = X. com relac;ao a perda quadratica e a priori
Gama( a, {3).
4.6. Con sidere 0 problema de se estimar () E e = {O,I}, baseado em uma unica
observac;ao da variavel aleat6ria X, com densidade
d1(X)={1, X=O,0, X> 0,
e d2(X) = {01', X ~ 1,X> 1,
(i) Encontre R((), di(X)), i = 1,2.
(ii) Qual dos estimadores e minimax? Alguns d&.estimadores e inadmisslvel?
4.7. Seja X uma unica observac;ao da distribuic;ao U(O, ()), onde ()e uma variavel
aleat6ria com densidade
(ii) Encontre 0 estimadorde Bayes de B com respeito it. perda quadnitica.
4.8. Seja X 0 tempo de vida de uma lampada (em mil horas) fabricada por
certa companhia. Considera-se que X e uma variavel aleatoria com densidade
f(xIB.) = Be-ox, x > O.
j. ( i' \ 0; if •. ')
rl • J."f-JConsidere para B a priori I ' :..
-1 -- I.. . -,f 1),,1
" 3 L\. :}4 7r(B) = 16Be-40, B > O. r r..>
".. ~ < " -;A, - "t •.
(i) Encontre a distribui<;a.o a posteriori de B. (. , .; /:; ..0
(ii) Encontre 0 estimador de Baye; de E(X) e Var(X).
4.9. Em uma area de reflorestamento. 0 numero de arvores de determinada
especie, por hectare, com certa doen<;a tern uma distribuic;a.o Poisson(B). A
distribui<;ao a priori de B e exponencial com media igual a 1. Encontre 0 esti-
mador de Bayes de Fo(X = 0).
4.10. Sejam Xl,"" Xn uma amostra aleat6ria da distribui<;ao U(O, B). Supo-
nhamos que B seja uma variavel aleatoria com func;ao de densidade de proba-
bilidade (Pareto)
7r(B) = { aaOt/ BOtH, B 2': a,
0, B < a,
Encontre a distribui<;ao a posteriori de B e 0 estimador de Bayes de B com
rela<;ao it. perda quadratica.
4.11. Sejam Xl, .. ' ,Xn uma amostra aleat6ria da variavel aleat6ria X '"
Bernoulli(B). Considere para B a priori
7r(B) = { 2B,
0,
o < B < 1,
caso contrario,
Encontre 0 estimador de Bayes de B e seu risco de Bayes.
4.12. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da densidade
oude r e >. sao conhecidos. Encontre a distribui<;ao a posteriori de B e 0 estimador
de Bayes de B com rela<;ao it. perda quadratica.
Neste capitulo consideramos 0 problema de estima<;ao de parametros utilizando
intervalos de confian<;a. Os intervalos classicos SaDobtidos a partir de variaveis
aleat6rias especiais que denominamos quantidades pivotais. Os intervC;>s de
confian<;a Bayesianos SaD obtidos utilizando a distribui<;ao a posteriori. 'Em~-
primeiro lugar, discutimos propriedades da media e da variancia amostrais
quando asamostras SaDobtidas a partir de popula<;6es normais. A seguir in-
troduzimos os metodos de constru<;ao de intervalos.
Os resultados que apresentamos a seguir SaDutilizados com bastante freqiiencia
na constru<;ao de intervalos de confian<;a e testes de hip6teses para popula<;6es
normais.
Teorema 5.1. Sejam Xl,.'" Xn uma amostra aleatoria de tamanho n da
distribuir;ao N(fJ-, (J2). Entao
(i) X e S2 sao independentes;
( ..) (n_;)S2 2n (J" ~ Xn-l;
( ... ) v'n(X-/-L) t .zn S ~ n-l,
onde X~ denota uma varicivel aleatoria com distribuir;ao quiquadrado com II
graus de liberdade, isto C, com f.d.p. dada por
1 v /2-1 -y/2
f(ylll)=2v/2r(II/2)y e , y>O;
tv denota uma varicivel aleatoria com distribuir;ao t de Student com II graus de
liberdade,isto C, com f.d.p. dada por
f( ill) = r((11 + 1)/2) (1 + t2/1I)-(V+1)/2 -00 < t < 00;
I y r(II/2) ,
- n 2 ,\,n -)2/()e como antes, X = 2:=i=1 Xi/n e 8 = ui=1 (Xi - X n - 1 .
Prova. (i) Temos que
X '"V N(/1, u2/n),
enquanto que Xi - X '"V N (0, u2 (n:1») . Por outro lado, a func;ao geradora de
momentos (James, 1981) de Y1 = X e Y2 = Xi- X e dada por
[
(s +~)x,+~ ,\,n x.]= E e 2 n 1 n L-tj;f:.-i]
= E [e(S2+ t31 :'2) )X;] E [e (31:32) 2:=7"'i Xj] •
Como Xi '"V N(/1, (2) e 2:='j,l'iXj '"V N((n - 1)/1; (n - 1)u2), temos que
M ( )
/l(S2+(SI:32))+"22 (S2+(31:S2)r
YI,Y2 81,S2 = e
x e (n;l) (SI -~2)/l+H (31 :32)2 (n-1)a2}
que e 0 produto das func;oes geradoras de momentos das distribuic;oes de X e
Xi - X. Portanto temos que Xi - X e X san independentes, pois a func;ao gera-
clora da distribuic;ao conjunta e 0 produto das func;oes geradoras de moment os
das distribuic;oes marginais. Como 2:=7=1 (Xi - X)2 e func;ao de Xi - X que e
independente de X, temos que 82 e independente de X.
Como (Xi -/1)/U '"V N(O,l), temos que (Xi _/1)2/u2 '"V X~, i= 1, ... ,n, de
modo que
Tambem n(X - /1)2/U2 '"V X~. Como a func;ao geradora de momentos da dis-
tribuic;ao quiquadrado com g graus de liberdade ,e dada por
temos que as fun<;6es geradoras das distribui<;6es quiquadrado com 9 1 e
9 = n graus de liberdade sao dadas respectivamente por
Alem disso, como X e 52 sao independentes, temos que os dois termos do lade
direito de (5.1.1) que denotamos por Y2 e Y3, respectivamente, sao indepen-
dentes, de modo que
My, (s) = My, (s)Mys (s),
ou seja, de (5.1.2) segue que
M (s) = My, (s) = (1 _ 2s)-(n-l)/2
y, Mys(s) ,
logo a distribui<;ao de Y2 = (n - 1)52/0-2 e quiquadrado com n - 1 graus de •
liberdade.
...;n(X - J-L)
. 5
,fii,cx;J1.)
(n-l)S~
(n-l)cr
que cOlTesponde ao quociente entre duas variaveis aleat6rias independentes
em que 0 numerador e uma variavel aleat6ria com distribui<;ao N(O,I) e 0
denominador e a raiz quadrada de uma variavel aleat6ria com distribui<;ao
quiquadrado com n - 1 graus de liberdade (veja (ii)) dividido pelo numero de
graus de liberdade, de modo que a variavel (5.1.3) tern distribui<;ao t de Student
com n- 1 graus de liberdade.
A constru<;ao de intervalos utilizando quantidades pivotais e considerada a
seguir.
Defini<;ao 5.2.1. Uma variavel aleat6ria Q(X1, ... , Xn; B) = Q(X; B) e dita ser
uma quantidade pivotal para a parametro B se sua distribui9iio for independente
de B.
Notemos que uma quantidade pivotal nao e uma estatistica, pois ela depende
de urn para.metro B desconhecido. Podemos, entao, para cada 'Y = 1 - 0: fixado,
encontrar Al e A2 na distribui<;iio de Q(X; B) de modo que
Sendo a distribui<;ao de Q(X; B) independente de B, Al e A2 tambem nao de-
pendem de B. Alem disso, se para cada X existirem tl(X) e t2(X) tais que
Al ::; Q(X; B) ::; A2 se e somente se tl (X) ::; B ::; t2 (X)
e entao de (5.2.1),
de modo que [tl (X); t2(X)] e urn intervalo (aleatorio) que contem B com proba-
bilidade (coeficiente de confian<;a) "(= 1 - Q. Nos casos em que a distribui<;ao
da variavel aleatoria X e discreta, em geral, nao se consegue determinar Al e A2
de tal forma que (5.2.1) esteja satisfeita exatamente. Em tais casos, podemos
escolher Al e A2 tal que (5.2.1) esteja satisfeita para urn coeficiente de confi-
an<;a maior ou igual a"( (0 mais proximo possivel). Quando n e razoavelmente
grande, uma alternativa seria considerar os intervalos de confian<;a baseados
na distribuic;ao do estimador de maxima verossimilhan<;a que consideramos na
Se<;ao 3.5. Urn outro ponto a salientar e que, na maioria dos casos, existem
muitos pares (Al, A2) satisfazendo (5.2.1). Sempre que possivel, devemos esco-
lher (Al' A2) que produz 0 intervalo de menor comprimento. Tal procedimento
e facilitado em situa<;6es em que a distribui<;ao de Q(X; B) e simetrica, como
no caso da distribui<;ao normal.
Exemplo 5.2.1. Sejam Xl, ... ,Xn uma amostra aleatoria da distribui<;ao da
variavel aleatoria X, com densidade
Como vimos no Capitulo 2, a estatistica T = I:~=lXi e suficiente para B. Mas,
como a distribui<;ao de T e Gama(n; liB), temos que T nao e uma quantidade
pivotal para B. Por outro lado, a densidade de Q(X;B) = 2B I:~=lXi e dada
por
que corresponde a densidade deuma distribuic;ao quiquadrado com 2n graus de
liberdade, que denotamos por X~n. Portanto Q (X; B) pode ser considerada como
uma quantidade pivotal, pois sua distribuic;a,o e independente de B. Entao, dado
o coeficiente de confianc;a "( = 1 - Q, obtemos Al e A2 na tabela da distribui<;ao
X~n' de modo que
'\2 tambem nao de-
X e tz(X) tais que
X :S B :S tz(X)
logo urn intervalo de confianc;a para B com coeficiente de <
por
contem B com proba-
que a distribuic;ao
5::e determinar '\1 e '\z
~ taU; casos, podemos
- coeficiente de confi-
. n e razoavelmente
'"" confianc;a baseados
q e consideramos na
ia dos casos, existem
'vel, devemos esco-
. Tal procedimento
) e simetrica, como
Conforme enfatizado anteriormente, existem infinitos pan
quais (5.2.5) esta verificada. Sempre que possivel, (A1, A2) dl
de modo que 0 intervalo (5.2.6) seja de comprimento mil
existe, mas (AI, A2) deve ser obtido por metodos computaci<
tiva e considerarmos intervalos simetricos em que (AI, A2) ~
da distribuic;iio X~n' de modo que a area a esquerda de Al
direita de A2 e igual a 0/2. Ver Figura 5.1.
~ciente para B. Mas,
~ e uma quantidade
= 2'(} I:7=1 Xi e dada
Denotando estes pontos por ql e Q2, temos que 0 interv
por
";::ado com 2n graus de
considerada como
-e de B. Entao, dado
;;aheIa da distribuic;ao A nao ser que 0 tamanho da amostra n seja muito pequeno
bastante proximo do intervalo de comprimento minima. C.
n = 20 observac;6es simuladas a partir da distribuic;ao ex}
Como
logo um intervalo de confian<;a para () com coeficiente de confian<;a 'Ye dado
por
Conforme enfatizado anteriormente, exist em infinitos pares (AI, A2) para os
quais (5.2.5) esta verificada. Sempre que possivel, (AI, A2) devem ser escolhidos
de modo que 0 intervalo (5.2.6) seja de comprimento minimo. Tal intervalo
existe, milS (AI, A2) deve ser obtido por metodos computacionais. Vma alterna-
tiva e considerarmos intervalos simetricos em que (AI, A2) sao obtidos a partir
da distribui<;ao X~n' de modo que a area a esquerda de Al seja igual a area a
direita de A2 e igual a a./2. Ver Figura 5.1.
Denotando estes pontos por qi e q2, temos que 0 intervalo simetrico e dado
por
A nao ser que 0 tamanho da amostra n seja muito pequeno, 0 intervalo (5.2.7) e
bastante proximo do intervalo de comprimento minimo. Consideramos a seguir
n = 20 observa<;6es simuladas a partir da distribui<;ao exponencial com () = 2.
Como
ou seja, a distribui<;ao de F(X) e uniforme no intervalo (0,1), gerando obser-
va<;oes u a partir da distribui<;ao U(O, 1), temos que
(q.ii8)
"Ji
1
x = --log(l-u)e
e' uma observa<;ao slmulada da distribui<;ao exponencial com panlmetro e e com
densidade dada em (5.2.3). As n = 20 observa<;oes siniuladas a partir da U(O, 1)
saG dadas n'a Tabela 5.1 abaixo. !
0,659 0,591 0,381 0,658 0,012
0,469 0,017 0,128 0,328 0,166
0,353 0,594 0,051 0,757 0,045
0,847 0,749 0,535 0,700 0,781
Usando os valores da Tabela 5.1 na rela<;ao (5.2.8) temos na Tabela 5.2 as
n = 20 observa<;oes simuladas da distribui<;ao exponencial (5.2.3) com e = 2.
Tabe1a 5.2. n = 20 observa<;oes da distribui<;ao Exp(2)
0,5380 0,4470 0,2398 0,5365 0.0061
0,3165 0,0086 0,0064 0,1995 0,9008
0,2177 0,4507 0,0262 0,7073 0,0230
0,9339 0,6912 0,3829 0,6020 0,7593
Considerando as primeiras n = 10 observa<;oes na Tabela 5.2, temos que
L;~lXi = 3, 1992. Tomando a = 0,05, temos da tabela da distribui<;ao qui-
quadrado com 20 graus de liberdade que ql = 9,59 e q2 = 34,17, entao de
(5.2.7) segue que 0 intervalo [1,50; 5, 34] e urn intervalo de confian<;a para
e com coeficiente de confian<;a 'Y = 0,95. Considerando n = 20, temos que
L;~lXi = 7,9134 e usando a aproxima<;ao normal para a distribui<;ao qui-
quadrado (a maioria das tabelas da distribui<;ao quiquadrado nao trazem per-
centis para 40 graus de liberdade), ou seja,
de modo que, nesse caso, 0 intervalo e dado por [1,42; 3, 63] que, conforme era
esperado, tern comprimento bem menor que0 comprimento do correspondente
intervalo com n = 10.
Exemplo 5.2.2. Sejam Xl, ... , X n uma amostra aleat6ria de tamanho n da
variavel aleat6ria X com distribui<;ao uniforme no intervalo (0, B), ou seja, X '""
U(O, B). Vimos no Capitulo 2 que uma estatfstica suficiente para B e dada por
Y = X(n) = max{X1, ... ,Xn}, com fun<;ao de densidade dada por
Logo X(n) nao e uma quantidade pivotal ja que sua distribui<;ao depende~e B.
Por outro lado, a distribui<;ao da quantidade Q(X; e) = X(n)/B e dada p~ .
que nao depende de e. Portanto a variavel aleat6ria Q(X; B) e uma quantidade
pivotal, de modo que dado I = 1- a, podemos encontrar Al e A2 na distribui<;ao
de Q, tal que
Como existem infinitos pares (Al,A2) satisfazendo (5.2.10), consideramos 0
intervalo simetrico, ou seja, consideramos 0 intervalo satisfazendo
fA! aJ
o
JQ(q)dq = Z e
_ (a) l/nAl - -2 (
a)l/n
e A2 = 1- Z '
[
X(n) X(n)]
(1 - a/2)1/n' (a/2)1/n .
Considerando as primeiras n = 10 observac;6es da Tabela 5.1 e, = 0,95, temos
que 0 intervalo (5.2.12) se reduz a [0,659/(0,975)1/10; 0, 659/(0, 025)1/10], ou
seja, [0,661; 0, 953]. Considerando as n = 20 observac;6es da Tabela 5.1,0 inter-
valo se reduz a (0,848;1,019). Notemos que e = 1 nao est a contido no intervalo
com n = 10, mas esta contido no intervalo com n = 20. Como a distribuic;ao
de Q nao e simetrica, 0 intervalo (5.2.12) nao e 0 de menor comprimento para
urn dado ,. No Exercicio 5.3 apresentamos urn intervalo de menor compri-
mento que 0 do intervalo (5.2.12). It importante ressaltar que 0 coeficiente de
confianc;a, est a associado ao intervalo aleatorio que segue de (5.2.2). Quan-
to ao intervalo numerico que segue do intervalo aleatorio, afirmac;6es do tipo
prO, 848 ~ e ~ 1,019] nao san apropriadas, pois nao existem quantidades
aleatorias associadas a desigualdade 0, 848 ~ e ~ 1,019. 0 que se aplica no
caso numerico e a interpretac;ao freqiientista, ou seja, para cada 100 intervalos
numericos construidos a partir do intervalo aleatorio, aproximadamente 100,%
deles van conter e. Para urn problema particular, 0 intervalo que construimos
a partir de uma amostra observada pode ser ou nao urn daqueles 100(1 - /,)%
que nao contem e. Mas nao tern os condic;6es de sabe-Io.
Consideremos em primeiro lugar (Sec;ao 5.3.1) 0 caso de uma unica amostra. A
seguir, na Sec;ao 5.3.2, abordarnos 0 caso de duas amostras.
Sejam Xl, ... ,Xn uma amostraaleatoriade tamanho n da distribuic;ao N(/1-, (2).
Assumindo a2 conhecido, temos que uma quantidade pivotal para /1-, baseada
na estatistica suficienteL:~=1 Xi = nX e dada por
que tern distribuic;ao N(O, 1). Portanto, dado 0 coeficiente de confianc;a " de-
terrninamos Al e A2 de modo que
Conforme enfatizado anteriormente, existem infinitos pares (AI ,A2) que satis-
fazem (5.3.1). Como a distribuic;ao N(O,l) e simetrica,o intervalo de men or
comprimento e 0 intervalo simetrico, on seja, aquele em que a area a direita de
A2 e igual a area a·esquerda de Al que e igual a 0./2. Sejam entao Al = -Zo./2 e·
.A2 = Za/2, onde P(Z ~ Za/2) = 1 - 0:/2, Z '"" N(O, 1) de modo que 0 intervalo
de menor comprimento e dado por
[- (J- (J]X - Za/2 yn; X + Za/2 yn .
X - /l
Q(X,/l) = S/yn '""tn-l
que nesse caso e uma quantidade pivotal. Entao, dado 'Y, existem .AI e .A2 na
distribui<;ao tn-l de modo que «
Como a distribui<;ao da quantidade pivotal Q e simetrica, devemos escolher .AI
e .A2 de modo que a area a direita de .A2 seja igual a area a esquerda de .AI, ou
seja .AI = -ta/2 e .A2 = ta/2, onde P(T ~ ta/2) = 1 - 0:/2, T '"" tn-l de modo
que 0 intervalo de menor comprimento e dado por
[- S- S]X - ta/2 yn; X + ta/2 yn .
Quanto a (J2, considerando /l desconhecido, temos, de acordo com 0 Teorema
5.1.L(ii), que
Q(X, (J2) = (n - :)S2 '"" X;'-1
(J
e uma quantidade pivotal para (J2. Portanto, dado 'Y, podemos determinar .AI
e .A2 de modo que
Considerando 0 intervalo simetrico, ou seja, .AI = ql e .A2 = q2, onde P[X;-1 ;:::
q2] = P[X;-1 ~ qrJ = 0:/2, temos de (5.3.3), 0 intervalo
[
(n - 1) S2 ; (n - 1)S2] .
q2 ql
Vamos considerar 0 caso em' que temos Xl,.· .. ,X n, uma amostra aleatoria
da Varia-vel aleatoria X '" N (J.ll , (]"2) e Yl, ... , Ym, uma amostra aleatoria da
varia-vel aleatoria Y '" N(J.l2' 0'2), onqe Xe Y sac independentes. Sabemos que
- - ( 2 (1 1))X ~ Y '" N.. J.ll - J.l2, 0' :;:;:+ m
[- - vr:11- - . vr:11]X - Y - Za/2O' - + -; X - Y + Za/2O' - + -n m, n m
onde Za/2 e obtido como em (5.3.2). Sendo 0'2 desconhecido, temos que uma
quantidade pivotal e dada por
2 (n c- 1)S; + (m - l)S;
S = ---------,
P (n +m - 2) S; = n~ 1 t(Xi _X)2
i=l
e S2 = _1_ ~(Y; _ y)2y n-1L.,.' .
i=l '
(m -1)S;---- '" X;;'-l'0'2
(n + m - 2)S; _ (n - 1)S; + (m - 1)S; 2
0'2 - 0'2 '" Xn+m-2'
Entao do Teorema 5.1, (iii) segue 0 resultado (5.3.4). Urn intervalo de ~onfiah<;a
para ()= J.ll - J.l2, com coeficiente de confian<;a I e, entao,dado par
[- - /011 - - . /011]X - Y - ta/2S - + --; X - Y + ta/2S. - + - ,Pn Tn Pn m
onde ta/2 e obtido na tabela da distribuic;ao t com n+m - 2 graus de liberdade.
Para construirmos um intervalo de confianc;a para (T2, podemos considerar a
quantidade pivotal (5.3.5).
No caso em que X '" N (ILl, (Jf) e Y. '" N (J.L2, (Tn e 0 interesse e a construc;ao
de um intervalo de confianc;a para (Tf! (Ti, notando que
(n - l)S; 2
2 '" Xn-l e
(Tl
(m -1)S;
---- rv X;;"-l'(Ti
(m - l)S;/(Ti(m - 1)
Q(X, Y,B) = (n _ l)Si/(Tr(n _ 1) rv Fm-l,n-l,
onde Fm-l,n-l denota a distribuic;ao F com m -1 en - 1 gJ:aus de liberdade, e
uma quantidade pivotal para B. Entao, dado I, obtemos Al e A2 na distribuic;ao
Fm~l,n-l, de modo que
onde Fl eF2 sac obtidos na tabela da distribuic;ao F com m - 1 e n - 1 graus
de liberdade, temos 0 intervalo
.Nesta sec;ao consideramos intervalos de confianc;a aproximados para um para--
metro B baseados na distribuic;ao assint6tica do estimador de maxima verossi-
milhanc;a {j de B. De acordo com (3.2.3), temos que
{j - B .!!:., N(D 1)
J(nIF(B))-l ,.
Como, !F(B) pode depender de B, que nao e eonheeido, substituindo !F(B) por
!F(B), temos que
Q(X,B) = B-.B ~N(O,l),
v(n!F(B»-1
de modo que Q(X, B) e uma quantidade pivotal com distribui<;ao aproximada-
mente igual a distribui<;ao N(O,l) em grandes. amostras. Com rela<;ao a uma
fun<;ao g(B), podemos eonsiderar a variavel aleat6ria
Q(X, g(B)) = g(8) - g(B) ~ N(O, 1),
ii..®l:.
nlp(O)
Exemplo 5.4.1. Sejam Xl,"" Xn uma amostra aleat6ria da variavel aleat6ria
X '" Bernoulli(B). Como 0 estimador de maxima verossimilhan<;a de B e 8 = X
e IF(B) = l/B(l - B), de (5.4.1), temos que uma quantidade pivotal para B e
dada por .
X - B
Q(X, B) = -=== '"N(O, 1),V X (l,:;-X)
de modo que para valores grandes de n, um intervalo de eonfian<;a para Beom
eoefieiente de eonfian<;a aproximadamente 'Ye dado por
[- /X(l-Xl - /X{l-Xl]X - Za/2 n ;X + Za/2 n .
Suponhamos agora, que seja de interesse a obten<;ao de urn intervalo de
eonfian<;a para g(B) = B(l - B); Como g' (B) = 1 - 2B e IF(B) = l/B(l -B),
temos de (5.4.2) que uma quantidade pivotal para g(B) e dada por
Q(X,B)= 8(1 ~ 8) ~ B(l.~B) ~ N(O,l),V 8(1-8)~1-28)2
de modo que urn intervalo de eonfian<;a aproximado para g(B) = B(l- B) e dado
por
[
T( _ X) _ VX(l - X)(l - 2X)2 . X(l _ X) 'VX(l - X)(l - 2X)2]X 1 Z"j2 -------, + Z"j2 ------- ,n n
onde Zex/2 e obtido na tabe!a da disttibuit;iio N(O, 1).
Exemplo 5.4.2. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da
variavel aleat6ria X '" Exp(B) , com funt;ao densidade
Como Til(B) = B2 eO = I/X, segue de (5.4.,1) que uma quantidade pivotal
para B e dada por
Q(X,B) = 1/}[ - B !!:., N(O, 1),
, J02/n
de modo que urn intervalo de confiant;a com coeficiente de confiant;a apro.ado
'Y = 1 - a e dado por ~.
[
1 /II m
X - Zex/2V J2; X + Za/2V ~J .
Considerando a amostra da Tabela 5.2, temos que para n = 10 0 intervalo
(5.4.3) se reduz a (1,189;5,063) e para n = 20,temos 0 intervalo (1,427;3,627).
Notemos que 0 intervalo aproximado paraB com n = 20 coincide com 0 intervalo
exato'obtido no Exemplo 5.2.1.
Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da variavel aleat6ria
X com funt;ao densidade de probabilidade (ou funt;iio de probabilidade) f(xIB).
Consideremos para 8 a funt;ao de densidade a priori 1r(8). Portanto a funt;ao de
densidade a posteriori para B, e, de acordo com (4.4.6), dada por
Defini~iio 5.5.1. Dizemos que [tl; t2] Ii um intervalo de confian9a Bayesiano
pam B, com coeficiente de confian9a 'Y = 1 - a se
lt2. h(BIX)dB = 'Y-tl
Como no caso classico existem, em geral, infinitos intervalos [h; t2] satisfazen-
do (5.5.1). Sempte que possivel, 0 comprimento do intervalo [tl; t2] deve ser
minimo.Nos casos em que a funt;ao de densidade a posteriori e simetrica,
os intervalos simetricos sao em geral os de menor comprimento. 0 intervalo
Bayesiano de menor comprimento e usualmente conhecido como 0 intervalo
de densidade a posteriori maxima "highest posterior density (HPD) interval".
Metodos computacionais sao -emgeral necessarios para a obtenr;ao do intervalo
HPD.
Exemplo 5.5.1. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da
distribuir;ao N(/-L,l). Consider emos para /-L a distribuir;ao a priori N(/-La,l).
Do Exemplo 4.4.3, tern os que a distribuir;ao a posteriori de /-L dado X que
denotamos por /-LIX,e dada por
IX", N (L~=lXi + /-La _1_).
/-L n+1 'n+1
Sendo'Y = 0,95, temos entao de (5.5.1)e da tabela da distribuir;ao N(O, 1)que
[tl; t2] deve ser escolhido de modo que
",n Xt _ L.j=1 i+I-'O
2 n+I
J n~I
t = L~=I Xi + /-La _ 1 96) 1 e t = L~l Xi + /-La + 1 96) 1
I n+1 ' n+1 2 n+1 ' n+1'
logo 0 intervalo Bayesiano de menor comprimento (HPD) para /-L com coeficiente
de confianr;a 'Y= 0, 95 e dado por
[
L~=I Xi + /-La _ 1,96) 1 ; L~=I Xi + /-La + 1,96) 1 ].
n+1 n+1 n+1 n+1
Exemplo 5.5.2. Sejam Xl, ... , Xn uma amostra aleat6ria de tamanho n da
variavel aleat6ria X ~ U(O, B).Consideremos para B a priori com densidade
(Pareto)
bab
7r(B) = Bb+I 1(0.00) (B).
Do Exercicio 4.10, temos que a densidade' a posteriori de B dado Xl, ... ,Xn e
dada por
Entao, temos de (5.5.1)que 0 intervalo Bayesiano "simetrico" para B, com
coeficiente de confianr;a 'Y= 1 - Q' e obtido pela solur;ao das equar;6es
(n + b)max(a, X(n))n+b a
Bn+b+1 . de = 2"
max(a, X(n))
t 1 = -(1---a-/2-) -1/-n+-b
max(a, X(n))
e t2= -----
(a/2)1/n+b
de modo que 0 intervalo Bayesiano simetrico para B, com coeficiente de confi-
anc;a 'Y= 1 - a, e dado por
[
max(a,X(n)) . max(a,X(n))]
(1 - a/2)l/n+b 'a/21/n+b .
Desde que a densidade a posteriori (5.5.2) nao e simetrica, tern os que 0 intervalo
(5.5.3) nao e 0 HPD que nesse caso deve ser obtido numericamente.
5.1. Verifique a validade da expressao (5.1.1).
5.2. Considere 0 Exemplo 5.2.1. Mostre que a distribuic;ao da quantidade pi-
votal
Q(X,B) = 2BL:Xi
i=l
5.3. Considere 0 Exemplo 5.2.2. Mostre que a distibuic;ao de Q(X, B) = X(nJiB
e dada por (5.2.9). Considere 0 intervalo
Encontre seu coeficiente de confianc;a, compare seu comprimento com 0 do
intervalo obtido no Exemplo 5.2.3, e mostre que 0 intervalo (5.6.1) eo de menor
comprimento dentre todos os intervalos com coeficiente de confianc;a 'Y= 1-a.
(i) Mostre que -Olog X e uma quantidade pivotal e use-a para construir urn
intervalo de confian<;a para (J com coeficiente de confian<;a 'Y= 1 - <x.
(ii) Seja Y = (- log X) -1 . .Encontre 0 coeficiente de confian<;a assodado ao
intervalo (Y /2, Y).
5.5. Sejam Xl,.'" Xn uma amostra aleatoria da variavel aleatoria X '"
N«(J,(J). Sugira uma quantidade pivotal para construir urn intervalo de con-
fian<;a para 'Y= 1 - <x.
5.6. Sejam Xl,"" Xn uma amostra aleatoria da variavel aleatoria X com
fun<;iio de densidade de probabilidade dada por
Seja [X(l); X(n)] urn intervalo de confian<;a para (J. Calcule seu coeficiente de
confian<;a. Mostre que 0 resultado vale para qualquer distribui<;ao simetrica em
torno de (J.
5.7. Sejam Xl,.'" Xn uma amostra aleatoria da variavel aleatoria X com
fun<;ao densidade de probabilidade dada por
Encontre intervalos de confian<;a para E(X) e Var(X) com coeficientes de
confianc;a'Y = 1 - <x.
5.8. Sejam Xl, X2 uma amostra aleatoria de tamanho 2 da distribui<;ao N(J.L, 1).
Seja Y1 < Y2 a amostra ordenada correspondente.
(i) Encontre 0 coeficiente de confian<;a associado ao intervalo (Y1, Y2).
(ii) Considere 0 intervalo de confian<;a para J.L baseado na quantidade pivotal
X -J.L, onde X = (Xl +X2)/2. Compare 0 comprimento esperado deste intervalo
com 0 comprimento esperado do intervalo em (i).
5.9; Sejam Xl, ... , Xn+1, uma amostra aleatoria de tamanho n + 1 (n > 1) da
distribui<;ao N(J.L, 0-2), onde J.L e 0-2 sao desconhecidos.
(i) Encontre c tal que
.1. n
x= -LXi
n i=l
5.10. Sejam Xl,.'" Xn uma amostra aleat6ria da variavel aleat6ria X '"
Exp((h) e YI, •.. , Ym uma amostra aleat6ria da variavel aleat6ria Y '" Exp(82).
Assumindo que as duas amostras silo independentes,
(i) obtenha uma quantidade pivotal para construir um intervalo de confian<;a
para 81/82.
(ii) Suponha que 81 = 1,5 e 82 = 2, O. Simule uma amostra aleat6ria com
n = 10 da variavel X e com m = 15 da variavel aleat6ria Y. Como fica 0 seu
intervalo obtido a partir da quantidade pivotal encontrada em (i)?
5.11. Sejam Xl,"" Xn uma amostra aleat6ria de tamanho n da distribui<;ilo
Poisson(8), com priori
1l"(8) = e-o, 8> O.
Construa um int~rvalo de confian<;a Bayesiano simetrico para 8 com 'Y$0,95.
Se n = 10 e L~=lXi = 18, como fica 0 intervalo? ~.
5.12. Considere 0 Exercicio 4.9. Obtenha um intervalo de confian<;a Bayesiano
para 8 com coeficiente de confian<;a 'Y= 0,95. Como fica seu intervalo se x =
O,4?
5.13. Conside.re 0 Exercicio 4.12. Construa um intervalo de confian<;a para 8
com coeficiente de confian<;a 'Y= 1 - a, sendo r = A = 2. Considere 8 = 2 e
simule uma amostra de X com n = 10. Como fica 0 intervalo com 'Y= 0, 95?
5.14. Usando a amostra de tamanho n = 20 no Exemplo 3.1.6, construa um
intervalo aproximado para 8, onde f(xI8) e dada em (3.1.8).