Baixe o app para aproveitar ainda mais
Prévia do material em texto
Heleno Bolfarine Monica Carneiro Sandoval ~, . A • " INTRODUc;AO A INFERENCIA / ESTATISTI.CA PREF ACIo VIII CAPITULO 1. ELEMENTOS BAsIC OS 1 1.1. Alguns Modelos Especiais _ 1 1.1.1. 0 modelo normal 1 1.1.2. 0 modelo exponencial 1 1.1.3. 0 modele binomial 2 1.1.4. 0 modelo de Poisson 2 1.1.5. 0 modelo uniforme 3 1.2. Tipos de Problemas 4 1.3. Amostras, Estatfsticas e Estimadores 4 1.4. Exercfcios 13 CAPITULO 2. ESTIMADORES EFICIENTES E ESTATISTICAS SUFICIENTES 15 2.1. Estimadores Eficientes 15 2.2. Estatisticas Suficientes 20 2.3. Estatfsticas Conjuntamente Suficientes 23 2.4. Familias Exponenciais 25 2.5. Estimadores Baseados em Estatisticas Suficientes 29 2.6. Exercfcios 32 CAPITULO 3. METODOS DE ESTIMAQA.O 35 3.1. 0 Metodo de Maxima Verossimilhan<;a 35 3.2. Propriedades dos Estimadores de Maxima Verossimilhan<;a 42 3.2.1. Invariancia C 43 3.2.2. Distribui<;ao em grandes amostras ·.. 44', 3.3. Verossimilhan<;a para Amostras Independentes 45 3.4. 0 Caso Multiparametrico 46 3.5. Familia Exponencial e 0 Metodo de Maxima Verossimilhan<;a 49 3.6. 0 Metodo dos Momentos 50 3.7. Estimadores Consistentes 52 3.8. Exercfcios 52 CAPITULO 4. INTRODUQA.O A. TEORIA DAS DECISOES. OS PRINCIPIOS MINIMAX E DE BAYES 57 4.1. Os Elementos Basicos 57 4.2. 0 Princfpio Minimax 60 4.3. 0 Principio de Bayes 61 4.4. Estimadores de Bayes com Perda Quadratica 63 CAPITULO 5. ESTIMA<;Ao POR INTERVALO 73 5.1. Amostras de Populac;6es Normais 73 5.2. 0 Metodo da Quantidade Pivotal 75 5.3. Intervalos para Populac;6es Normais 80 5.3.1. 0 caso de uma unica amostra 80 5.3.2. Duas amostras independentes 82 5.4. Intervalos de Confianc;a Aproximados 83 5.5. Intervalos de Confianc;a Bayesianos 85 5.6. Exercfcios 87 CAPITULO 6. TESTES DE HIPOTESES 91 6.1. Ideias Basicas 91 6.2. Formulac;ao Estatfstica' 92 6.3. Hip6tese Nula Simples contra Alternativa Simples. Testes Mais Poderosos 94 6.4. Testes Uniformemente Mais Poderosos 100 6.4.1. Hip6tese nula simples contra alternativa composta 100 6.4.2. Hip6teses compostas 102 6.5. Testes da Razao de Verossimilhan<;as Generalizada 103 6.6. Testes Bayesianos 114 6.7. Exercfcios 115 REFERENCIAS : 119 INDICE REMISSIVO 121 o objetivo principal deste texto e propiciar aos estudantes urn material basico para urn curso introdutario de Inferencia Estatishca usualmente mini- strado em programas de bacharelado em Estatistica. Lecionando ha varios anos a referida disciplina em cursos de bacharelado e de pas graduac;ao no Departa- mento de Estatistica do Instituto de Matematica e Estatistica da Universidade de Siio Paulo, experimentamos varias alternativas didaticas, mas sempre nos ressentimos da ausencia de textos adequados em portugues e ate mesmo em ingles para 0 nivel em questao. E foi pensando em preencher essa lacuna que resolvemos elaborar este trabalho, destinado aos estudantes com conhecimentos basicos de probabilidade e calculo. o texto est a elaborado para urn curso de urn semestre com seis horas sema- nais, duas das quais devem ser reservadas para exerdcios. E dividido em seis capitulos, tendo no final de cada urn uma serie de exerdcios. o Capitulo 1 e dedicado a descric;ao de alguns modelos comumente uti- lizados em situac;oes praticas. Sao apresentados metodos de comparac;ao entre estimadores, com enfase especial ao metodo do Erro Quadratico Medio minimo. o Capitulo 2 apresenta a obtenc;ao de estirnadores eficientes, utilizando a desigualdade da informac;ao, a partir da qual se obtem 0 limite inferior da variancia dos estimadores nao viciados. Usando esses resultados em alguns modelos importantes, e possivel a obtenc;ao de estimadores atimos, ou seja, de menor variancia. Uma familia importante em que tais estimadores sao obti- dos e a bem conhecida familia exponencial de distribuic;oes, apresentada no texto com algum detalhe. A utilizac;ao de estatisticas suficientes, no sentido de apresentarem urn resume dos dados sem perda de informac;ao, e tarnbem cons i- derada nesse capitulo. Mostra-se tambem que estimadores que nao sao func;oes de estatisticas suficientes podein ser melhorados por meio do conhecido Teore- ma de Rao- Blackwell. o Capitulo 3 e dedicaclo a tecnicas de obtenc;ao de estimadores, dEmtre as quais destacamos os metodos de maxima verossimilhanc;a e dos momen- tos. Propriedades dos estimadores de maxima verossimilhanc;a em grandes amostras sao tambem consideradas. Essas propriedades permitem a realizac;ao de inferencias em modelos mais complexos que sao comumente utilizados em situac;oes praticas. No Capitulo 4 consideramos as ideias basicas da teoria das decisoes, en- fatizando a importancia da func;ao de risco como urn meio de obtenc;ao de bons estimadores. A utilizac;ao da func;ao de risco permite a derivac;ao de es- timadores do tipo minimax e tambem de estimadores de Bayes, incorporando uma distribuic;ao a priori para descrever conhecimentos subjetivos a cere a dos parametros de interesse. A construc;ao de intervalos de confianc;a com coeficientes de confianc;a exa- tos e aproximados e considerada no Capitulo 5. Urn metodo importante de constrU<;ao de intervalos e 0 uso de quantidades pivotais. Tal enfoque propicia a constrU<;ao de intervalos exatos para varios modelos importantes e aproximados em situac;6es mais complexas. Intervalos Bayesianos baseados na distribuic;ao a posteriori sao tambem considerados. o Capftulo 6 e dedicado a construc;ao de testes de hip6teses. Testes 6timos para 0 caso de hip6tese nula simples contra alternativa simples sao derivados a partir do Lema de Neyman-Pearson. Algumas generalizac;6es para hip6teses compostas sao tambem consideradas. Problemas mais complexos que podem envolver hip6teses bilaterais sao tratados utilizando a estatfstica da razao de verossimilhanc;as generalizada que, apesar de nao possuir propriedades 6timas, leva em geral a bons procedimentos que nao apresentam muita dificuldade de implementac;ao. Nao inclufmos no texto tabelas estatfsticas, pois a enfase maior e dada a problemas te6ricos. No caso de haver necessidade de utilizac;ao de tabelas, sugerimos aos estudantes utilizar as tabelas em Bussab e Morettin (1987). Agradecemos as colegas Elisete da Conceic;ao Quintaneiro Aubin, Marcia D'Elia Branco e Silvia Lopes de Paula Ferrari que leram as vers6es preliminares e contribufram com varias sugest6es. Agradecemos tambem a. aluna Jacqueline Sant'Eufemia David pela elaborac;ao das figuras. Nesta sec;ao consideramos alguns modelos probabilfsticos que sao comumente utilizados na amilise de dados em problemas praticos. 0 modelo probabilisti- co (ou estatistico) e de suma importancia para inferir resultados da amostra para a populac;ao toda. E importante que, na selec;ao do modelo a ser utilizado, o estatistico tenha em mente que 0 modelo deve representar, na medida do possivel, a complexidade que envolve 0 mundo real da populac;ao em estudo. Entre os modelos mais utilizados, temos Dizemos que X tern distribuic;ao normal com media p e vanancia u2, que denotamos por X ~ N(p, (2), se a func;ao de densidade de probabilidade de X e dada por 1 (._,,)2 f(xlp,u2) = rr>= e-~, -00 < x < 00, y 27fu em que -00 < p < 00 e u2 > O.Nesse caso, p e u2 sao denominados parametros da distribuic;ao e 0 suporte de X, isto e, A( x) = {x, f (x) > O}, e a reta6da. Notemos tambem que Situac;oes praticas em que 0 modelo normal e cornumente utilizado incluem caracteristicas populacionais, tais como: peso, altura, pressao arterial, quociente de inteligencia, etc. Dizemos que X tern distribuic;ao exponencial com parametro B, que denotamos por X ~ Exp(B), quando a func;ao de densidade de probabilidade de X e dada por f(xIB) = Be-ox, x> 0, em que B > o. Nesse caso, A(x) = {x, x> O}. Notemos tambem que E[X] = ~ 1e Var[X] = B2. o modelo exponencial e comumente ernprOegadopara descrever tempo de vida de equipamentos.Lembrernos que 0 rnodelo exponencial tern a bem conhecida propriedade da falta de memoria, ou seja, se 0 tempo de vida de urn equipamen- to segue a distribuir;ao exponencial, entao, em qualquer instante, 0 equiparnento e como se fosse novo, nao importando 0 quanta ele ja tenha sido utilizado. Dizemos que a variavel aleatoria X tern distribuir;ao binomial, com para-metros neB, que denotamos por X ~ Binomial (n, B), se sua funr;ao de probabilidade e dada por f(xIB)= (:)BX(l_B)n-X, x=O,l, ... ,n, em que 0 < B < 1. Nesse caso, 0 suporte de X e discreto e e dado por A(x) = {x, x = 0, 1, ... , n}. Temos tambem que Lembremos que, se X tern distribuir;ao Binomial(n, B), entao, podemos escre- ver X = Y1+ ... + Yn, sendo Y1, . 0 • , Yn n variaveis aleatorias independentes e de Bernoulli, ou seja, a funr;ao de probabilidade de Y,; e dada por i = 1, ... , n. 0 modelo binomial (ou de Bernoulli) e comumente empregado em situar;6es em que associamos a cada observar;ao da amostra dois tipos de respos- ta (como, por exemplo, sim e nao, ou sucesso e fracasso) aos quais associamos os valores 0 e 1. Tais situar;6es envolvem, por exemplo, pesquisas eleitorais, em que os individuos na popular;ao sac ou nao favoraveis a determinado par- tido ou candidato; proporr;ao de per;as defeituosas produzidas em uma linha de produr;ao e assim por diante. Urn outro modelo comumente empregado na pnitica e 0 modelo de Poisson. Dizemos que a variavel aleatoria X tern distribuir;ao de Poisson com para-metro B, que denotamos por X ~ Poisson(B), quando a fun<;ao de probabilidade e dada por e-8BX f(xIB)=-,-, x=O,l, ... , x. em que B > O.Nesse caso, 0 suporte de X eo conjunto A(x) = {x, x = 0,1, ... }. Temos tambem que, o modelo de Poisson e bastante utilizado para descrever situa<;6es que en- volvem, par exemplo, 0 numero de chamadas que chegam a uma central telefOnica, 0 numero de particulas a emitidas por uma fonte radioativa ou o numero de pessoas que chegam a determinada fila, sempre em urn ilervalo de tempo fixado. " " ~.; o modelo uniforme e bastante importante do ponto de vista teorico. Dizemos que X tern distribui<;ao uniforme no intervalo (0, B), que denotamos por X ~ U (0, B), se a fun<;ao de densidade de X e dada por f(xIB) = { ~, 0, 0< x < B, casQ contrario, 1 = 7/(O,8)(X), 0< x < B, caso contrario, ou seja, I(o,8)(x) e a funr;ao indicadora do intervalo (o,B). Notemos que, nesse' caso, A(x) = {x,O < x < B}, ou seja, 0 suporte da variavel X (ou de f(xIB)) depende do parametro B. No caso dos modelos normal, exponencial, binomial e de Poisson, isso nao acontece, ou seja, nesses casos, 0 suporte da distribui<;ao de X e independente de B. Temos tambem que, se X ~ U(O, B), entao, E[X] = ~ B 2 e Var[X] = 12' No decorrer do texto, outros modelos parametricos, como por exemplo, 0 mo- , delo uniforme discreto e 0 modelo gama, serao apresentados. Veremos tambem que os modelos normal, exponencial, binomial e de Poisson saG membros de uma familia bastante geral de modelos, que e a familia exponencial. No presente texto, vamos nos ater exclusivamente a problemas de estima<;ao e de testes de hip6teses. Definit;ao 1.2.1. Seja X uma variavel aleat6ria com funr;iio de densidade (ou de probabilidade) que abreviamos por f.d.p. (f.p.) e que denotamos por f(xIB), em que () e um parametro desconhecido. Chamamos de infereiicia estatistica 0 problema que consiste em especificar um ou mais valores para (), baseado em um conjunto de valores observados de X. Vamos assumir que a distribui<;ao da variavel aleat6ria X pertence a certa familia de distribui<;oes em que urn particular elemento e especificado, quando o valor do pariimetro B e especificado. No caso de urn problema de estimat;ao, 0 objetivo e procurar, segun- do algum criterio especificado, valores que representem adequadamente os pariimetros desconhecidos. No caso de problemas de testes de hip6teses, o objetivo e verificar a validade de afirma<;6es sobre urn valor (ou valores) do(s) pariimetro(s) desconhecido(s). Por exemplo, quando 0 interesse e verificar se a propor<;ao B de eleitores de determinado candidato e maior que 1/2 (ou 50%), as hip6teses a serem testadas saD Ho : B ::; 1/2 versus H1 : B > 1/2. Quando estamos interessados em verificar se 0 peso medio, f-L, de pacotes de urn quilogra- ma empacotados por determinada maquina realmente e urn quilograma, entao, as hip6teses a serem testadas podem ser representadas por Ho : f-L = 1 versus HI: wI- 1. Nesta se<;ao os conceitos de estatfstica e estimador saD introduzidos. Criterios para a compara<;ao de estimadores SM tambem consider ados. Definit;ao 1.3.1. 0 conjunto de valores de uma caracteristica (observavel) associada a uma coler;iio de individuos ou objetos de interesse e dito ser uma popular;iio. Qualquer parte (ou subconjunto) de uma popula<;ao e denominada uma amostra. De maneira mais formal, temos Definic;ao 1.3.2. Uma sequencia Xl, ... ,X n de n variaveis aleat6rias indepen- .dentes e identicamente distribuidas (i.i.d.) com funr;iio de densidade (f.d.p.) ou, no caso discreto, funr;iio de probabilidade (f.p.) f(xIB) e dita ser uma amostra aleat6ria de tamanho n da distribuir;iio de X. Nesse caso, temos, f(XI, ... ,xnIO) = IIf(XiIO) = f(XIIO) .. ·f(xnIO). i=l Concluimos, a partir da Defini<;iio 1.3.2, que usamos a amostra Xl, ... , Xn para obter informa<;ao sobre 0 parametro O. A fun<;ao de densidade (ou de probabilidade) conjunta dada em (1.3.1) e denominada func;ao de verossimi- Ihan<;a de 0, correspondente a amostra observada x = (Xl,"" Xn)' e sera denotada por n L(O; x) = IIf(XiIO). i=l Definic;ao 1.3.3. Qualquer funf;iio da amostm que nao depende de paf*metros desconhecidos e denominada uma estatistica. ~ No exemplo que apresentamos a seguir, consideramos varias estatfsticas que serao utilizadas com frequ€mcia nos capftulos seguintes. Exemplo 1.3.1. Sejam X I, ... , Xn uma amostra aleat6ria da variavel aleat6ria X, com f.d.p. ou f.p. f(xIO). Exemplos de estatisticas sac (i) X{1) = min(XI, ... ,Xn), (ii) X(n) = max(XI,· .. ,Xn), (iii) X = med(XI, ... , Xn), . - 1 ~n (IV) X = n 0i=1 Xi, (V) 0-2 = .1. ",n (X _ X)2n L..n=l t • Em (i), (ii) e (iii) acima, min(.), max(.) e med(.) denotam, respectivamente, o minimo, 0 maximo e a mediana amostral observada. Por outro lade, X e 0-2 denotam, respectivamente, a media e a variancia amostrais. Definic;ao 1.3.4 . .a conjunto 8 em que 0 toma valores e denominado espaf;o pammetrico. Exemplo 1.3.2. Sejam Xl, ... , Xn uma amostra aleatoria da variavel aleatoria X,...., N(J-L,a2). (i) Se a2 = 1, entao 0 = J-L e 0 parametro desconhecido e (ii) Se J-L = 0, entao 0 = a2 e 0 parametro desconhecido e 8={a2, a2>0}; (iii) Se J-L e a2 SaDdesconhecidos entao B = (J-L, a2) e e = {(J-L,a2), -00 < J-L< 00 e a2 > O}. Defini~ao 1.3.5. Qualquer estatistica que assuma valores em e e um esti- mador para B. Em rnuitas situa<;oes, 0 interesse e estirnar urna fun<;ao g(B). Suponha, por exernplo, que no caso (iii) do exernplo anterior, 0 objetivo e estirnar sornente J.L, sendo a2 urn pararnetro de pertuba<;ao. Nesse caso, g(B) = J.L. Defini~ao 1.3.6. Qualquer estatistica que assuma valores somente no conjunto dos possiveis valores de g(B) e um estimador para g(B). Urn dos grandes problemas da estatlstica e 0 de encontrar urn estimador razoavel para 0 parametro desconhecido B ou para uma fun<;ao g(B). Urn dos procedirnentos cornurnente utilizados para se avaliar 0 desempenho de urn es- timador e 0 seu erro quadratico medio que e consider ado a seguir. Defini~ao 1.3.7. 0 err-a quadnitico media (EQM) de um estimador II do para metro B e dado par e denominado 0 vicio do estimador fj. Dizemos que urn estimador fj e nao viciado para B se para todo BEe, ou seja B(fj) = 0, para todo BEe. Se limn-tooB(fj) = 0 para to do BEe, dizemos que 0 estimador fj e assintoticamente naoviciado para B. No caso em que fj e urn estimador nao viciado para B, temos 'que ou seja, 0 erro quadratico medio de fj se reduz a sua variancia. Urn outro conceito importante em grandes amostras (n -+ 00) e a propriedade de consistencia que sera considerada na Se<;iio3.7. Exemplo 1.3.3. Sejam Xl, ... , Xn Uma amostra aleatoriada variavel aleatoria X com E[X] = J.L e Var[X] = a2• Temos, entao, que In 2 - '" uVar[X] =2" ~ Var[Xi] =-.n n i=l Portanto X e urn estimador nao viciado para fJ-. Com relaC;ao a. variancia amostral, temos ~2 1 ~ - 2 1 L:n - 2E[u ] = -E ~(Xi - X) = - E[(Xi - X) ]n n i=l i=l 1~ - 2= - ~ E{[(Xi - fJ-) - (X - fJ-)] } n i=l (n - 1) 2= u. n Portanto (j2 e viciado para u2, mas e assintoticamente nao viciado, ou seja, a. medida que 0 tamanho da amostra aumenta, 0 vfcio diminui. o erro quadratico medio e comumente empregado na comparaC;ao de esti- madores. Dizemos, entao, que 81 e melhor que 82 se J para todo e, com :S substitufdo por < pelo menos para um valor de e. Nesse CasO, 0 estimador 82 e dito ser inadmissivel. Se existir um estimador 8* tal que para todo estimador 8 de e com 8 i- 8* para todo e com :S substitufdo por < para pelo menos urn e, entao 8* e dito ser 6timo para e. Not~mos que, se em (1.3.5) os estimadores SaDnao viciados, entao 8* e dito ser 0 estimador nao viciado de variancia uniformemente minima, se Var[8*] :S Var[8], para to do e, com :S substitufdo por < para pelo menos um e. Exemplo 1.3.4. Sejam Xl, X2, X3 uma amostra aleat6ria da variavel aleat6ria X com E[X] = e e Var[X] = 1. Consideremos os estimadores ~ 1 1 1 e ()? = -Xl + -X2 + -X3.- 2 4 4 • • 1 E[t'h] = B e Var[Bd = 3' Como {h e B2 sao ambos nao viciados, segue de (1.3.4) que X e melhor que B2, pois Var[X] < Var[B2], para todo B. Exemplo 1.3.5. Sejam Xl,.'" Xn uma amostra aleatoria da variavel aleatoria X com E[X] = B e Var[X] = 0-2, em que 0-2 e conhecido. Consideramos agora os estimadores lineares XL = LiiXi' i=l o estimador XL com a condi<;ao (1.3.7) e entao uma combina<;ao linear con- vexa de Xl, ... ,Xn. Notemos que B1 e B2 considerados no Exemplo 1.3.4 sao combina<;oes lineares convexas de Xl, X 2, X 3. Temos tambem que Var[XL] = L iTVar[Xi] = 0-2 LiT· i=l i=l Portanto 0 estimador XL, que e nao viciado e apresenta a men or variancia, e obtido minimizando-se (1.3.8) sujeito a. condi<;ao (1.3.7). Para atingir tal objetivo, sendo I = 2:7=1 idn = l/n a media dos ii'S, temos que n n n L(li - I)2 = LiT - nI2 = LiT - l/n, i=l i=l i=l n Var[XL] = (J2L l; i=l Assim, a expressao (1.3.9) sera minima quando li = 1/n, ou seja 0 estimador XL com menor variancla e a media amostral X. Portanto, dentre todos os estimadores lineares nao viciados XL, 0 que apresenta a menor variancia e a media amostral X. De (1.3.9) segue tambem que Var[X] = (J2 In. Vma outra forma de minimizar a variiincia (1.3.8), sob a condi<;ao (1.3.7), e feita utilizando- se de multiplicadores de Lagrange. Nesse caso, temos 0 "Lagrangea&' . ~t li = In, i = 1, ... ,n. Sendo 2:~=1li = 1, segue que li concluido acima. Exemplo 1.3.6. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X ~ N(p,,(J2). Conforme visto no Exemplo 1.3.3, a-2 e um estimador viciado para (J2. De (1.3.3) segue que S2 = _n_a-2 = _1_ ~(Xi _ X)2 n-1 n-1L...t i=l e um estimador nao viciado para (J2. POl' outro lado, temos (vel' Exercicio 1.4) que EQM[a-2]= 2(J4 [1- (3n-1)]. (n - 1) 2n2 Notemos que a-2, apesar de viciado, apresenta urn EQ M menor que 0 EQ M do estimador 52. Exemplo 1.3.7. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da variavel aleat6ria X, com distribui<;ao de Bernoulli com parametro B, ou seja Binomial(l, B). Conforme visto no modelo binomial, Y = Xl + ... + Xn tern distribui<;ao Binomial(n, B). Consideremos os estimadores A _ Y B1 =X =-n EQM[8d = Var[X] = B(I- B). n E[B2] = E [Y + vn/2] = nB + vn/2 = n B+ vn/2 , n+vn n+vn n+vn n+vn de modo que 82 e urn estimador viciado para B. Notemos que, na verdade, 0 vieio e uma fun<;ao linear de B. Portanto (n +lFn)' E { [(Y - nO) + Fn G - B)n (n +IvnF { Var[Y] + n (~ - B) 2} n 4(n + vnF' Urn fato importante a ser notado e que 0 EQM do estimador 82 e independente de B. 0 EQM dos dois estimadores e representado graficamente na Figura 1.1, para n = 9. Temos, entao, que nenhum dos estimadores e melhor uniformemente, isto e, para to do B. Para C1 < B < C2, EQM[82] < EQM[8d, ou seja, 82 e melhor que 81, Por outro lado, para B < C1 ou B > C2, temos que EQM[81] < EQM[82], ou seja, 81 e melhor que 82. Para 0 calculo de C1 e C2, ver Exercfcio 1.5. I 1/36 1 i i 1/64 - Exemplo 1.3.8. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleatoria X ~ U(O, B). Vamos considerar B1 = X e B2 = X(n) como estimadores de B. Como E[X] = B/2 e Var[X] = B2/12 (ver 0 modelo (1.1.4)), temos que A _ e E[ell = E[X] = 2' Portanto 0 estimador BI e viciado para e. Combinando (1.3.12) e (1.3.13) em (1.3.2), temos que EQM[BI] = ~ + (~ _ e) 2 = (1+ 3n) e2.. 12n 2 12n nxn-1 !xCn) (xle) =~, 0 < x < e, n ne2 E[X(n)] = n + 1e e Var[X(n)] = (n + 1)2(n + 2)' EQM[B ] = ne2 + e2 = 2e2 , 2 (n+1)2(n+2) (n+1)2 (n+1)(n+2)' A Tabela 1.1 mostra 0 valor do EQM dos dois estimadores para varios va- lores de n. Notemos tambem que, quando n -+ 00, EQM[B1] -+ ()2/4 e que EQM[B2] -+ O. n EQM[()d EQM[()2] EQM[()2]/ EQM[()lJ 3 58~/18 ()"L'j 10 0,27 5 4()2/15 ()2/21 0,12 10 31()2/120 ()2/662 0,04 20 6182/240 ()2/2312 0,01 Portanto X(n) e melhor que X para to do () en> 1. Exemplo 1.3.9. Consideremos uma uma com N bolas identicas marcadas com os numeros 1, ... ,N. 0 objetivo e a estima<;ao de N, 0 numero de bolas numeradas na uma. Esse problema esta muitas vezes associado ao problema da estima<;ao do numero N de taxis em uma cidade, em que os taxis estao numerados de 1 aN. Portanto uma determinada quantidade (n) de bolas (taxis) e observada, com reposi<;ao. Associada a i-esima observa<;ao, temos a variavel aleat6ria 1 P[Xi = k] = N' k = 1, ... ,N. Portanto a distribui<;ao de Xi e uniforme discreta, pois a distribui<;ao de Xi associa a mesma probabilidade a todos os possfveis valores de Xi, i = 1, ... ,N. Como possfveis estimadores de N, consideremos inicialmente Nl = X e N2 = X(n)' Nao e diffcil verificar que E[Nd = E[X] = N + 1 . 2' (N,k)n _ (kN-l)n,P[X(n) = k] = P[X(n) :S k] - P[X(n) :S k - 1] = n iN Nn+l "'(k - l)n = In + ... + (N _l)n ~ yN dy = --,~ . n+1 k=l 0 E[Hz] = E[X(n)] ~ N-n [Nn+l _ Nn+1 1] = _n_N. n+ n+1 - n + 1 N4 = --X(n),n que e aproximadamente niio viciado. Se n = 8 bolas siio retiradas com reposi<;iio da caixa e os numeros observados siio: 124, 212, 315, 628, 684, 712, 782, 926, entiio, HI = X = 547,875, H3 = 2X - 1 = 1095, Hz = X(n) = 926, e H4 = 1042. Podemos considerar tambem 0 estimador Xn+l _ (X _ l)n+l lH _ (n) (n) 5 - X('n) - (X(n) - 1)n ' 1.1. Verifique a validade da expressiio (1.3.2). 1.2. Verifique a validade da expressiio (1.3.3). 1.3. Verifique a validade da expressiio (1.3.6). 1.4. Verifique a validade das express6es (1.3.10) e (1.3.11). 1.5. Encontre CI e C2 na Figura 1.1. que siio os pontos de intersec<;iio dos err os quadraticos medios de (h e 82. 1.6. Sejam Xl,'." Xn uma amostra aleat6ria da variavel aleat6ria X rv U(O, B). Mostre que a fun<;iio de densidade de probabilidade de X(n) e como dada em (1.3.14), com esperan<;a e variancia como dadas em (1.3.15). 1.8. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da distribuic;ao da variavel aleatoria X, em que X ~ N(p" 1). Considere os estimadores ilt = X e {.tz = 10. Encontre 0 EQM de {.tl e de {.t2 como func;ao de p,. Fac;a urn grafico do EQM para n = 10. 1.9. Seja X uma unica variavel aleatoria com distribuic;ao de Bernoulli com parametro e. Sejam el = X e e2 = 1/2 dois estimadores de e. (i) Verifique se el e 82 saonao viciados para e. (ii) Compare os EQMs. Fac;a urn grafico dos EQMs como func;ao de a. 1.10. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da distribuic;ao da variavel aleatoria X com f.d.p. dada por (i) Especifique 0 espac;o parametrico e 0 suporte associado a. distribuic;ao de X. (ii) Verifique se el = X e ez = X(ll sao estimadores nao viciados para e. (iii) Encontre e compare os EQ M s dos dois estimadores. Fac;a urn grafico como func;ao de e. 1.11. Sejam Xl, ... ,Xn urn amostra aleatoria de tamanho n da distribuic;ao da variavel aleatoria X com fd.p. dada por 2x f(xla) = e2' 0 < x < a, a > o. (i) Especifique 0 espac;o parametrico e 0 suporte associado a. distribuic;ao de X. (ii) Verifique se el = X e e2 = X(n) sao nao viciados para a. (iii) Encontree compare os EQMs dos dois estimadores. Fac;a urn grafico dos EQMs como func;ao de a. 1.12. Sejam Xl,.'" Xn uma amostra aleatoria de tamanho n da distribuic;ao de uma variavel aleatoria X ~ U(O,e). Considere os estimadores el = clX e 82 = C2X(n)' (i) Encontre Cl e C2 que tornam os estimadores nao viciados. (ii) Encontre e compare os EQMs dos dois estimadores. 1.13. Sejam Xl, ... ,Xn uma amostra aleatoria de tamanho n da distribuic;ao da variavel aleatoria X N(O, (J"2). Seja 52 = L~=lXl- Considere os esti- madores ~ ·2 52 (J"c \.S::. .. (i) Encontre 0 EQM do estimador acima. (ii) Encontre 0 valor de C que minimiza 0 EQM em (i). 2. Estimadores Eficientes e Estatisticas Suficientes Neste capitulo sera apresentada a nOC;aode estimador eficiente, como sendo aq~ele que atinge 0 limite inferior da variancia dos estimadores nao viciados. Estimadores eficientes SM obtidos apenas para distribuic;6es que SaD3i-embros de uma classe especial, que e a famma exponencial de distribuic;6es. ~eremos tambem que to do estimador para ser otimo, segundo 0 criterio do menor erio quadratico medio, deveser func;ao de uma estatistica suficiente. De modo in- formal, estatisticas suficientes para urn parametro (ou para uma distribuic;ao) sao aquelas que condensam os dados sem perder nenhuma informac;ao contida nos mesmos. Ou seja, elas sao tao informativas para 0 parametro (ou para a distribuic;ao) quanta a amostra toda. Eficiencia de urn estimador {j de urn parametro e e definida a seguir. Defini<;ao 2.1.1. Chamamos de eficiencia de um estimador (j, nao viciado para o pariimetro e, a quociente e({j) = LI(e! , Var[e] onde LI (e) e 0 limite inferior da variiincia dos estimadores nao viciados de e. Convem notar que: (i) e({j) = 1 quando LI(e) = Var[{j], ou seja, quando a variancia de {j coincide com 0 limite inferior da varian cia dos estimadores nao viciados de e. Nesse caso, (j e dito ser eficiente; . (ii) como veremos no teorema seguinte, LI(e) = 1 , nE [( a log£VI8) ) 2] (iii) as condic;6es de regularidade a que nos referimos no item (ii) sac basi- camente duas, isto e, que 0 suporte A(x) = {x, f(xI8) > a} seja independente de 8 e que seja possivel a troca das ordens das operac;6es de derivac;ao e de integrac;ao sob a distribuic;ao da variavel aleat6ria X; (iv) a nao ser que mencionado 0 contrario, to do logaritmo utilizado no texto e calculado na base e. Exemplo 2.1.1. Sejam Xl, ... , X n uma amostra aleat6ria da varia vel aleat6ria X", N(p" 0-2), em que 0-2 e conhecido. Temos que olog f(xlp,) op, _ 0-2 Var[X] = - = LI(p,), n \ Definic;ao 2.1.2. A quantidade \ olog f(XI8) 08 o resultado (2.1.3) na verdade vale em geral quando valem as condi<;6es de regularidade, ou seja, pois para uma variavel aleat6ria X qualquer com E[X] = 0; Var[X] = E[X2]. Urn resultado importante (veja 0 Exercicio 2.6) estabelece que E [(8l0gf(XI8))2] = -E [82l0gf(XI8)] 88 882. Uma outra propriedade importante estabelece que para uma amostra aleat6ria, Xl, ... , Xn, da variavel aleat6ria X com f.d.p (ou f.p.) f(xI8) e informa<;iio de Fisher IF(8), a informa<;iio total de Fisher de 8 correspondente a amostra observada e a soma da informa<;iio de Fisher das n observa<;6es da amostra, ou seja, sendo L(8;x) =f(Xl, ... ,xnI8) = IIf(xiI8), i=l = -E [~ 82 log f(Xil8)] = ~ E [_ 82 log f(Xil8)] = I (())(2.1.6) ~ 882 ~ 882 n F ,. i=l i=l. o. pois Xi, i = 1, ... ,n tem a mesma informaC;ao que X. Lembremos que, sendo Xl,.' ., Xnuma amostra aleat6ria da variavel aleat6ria X, entao Xl,"" Xn San independentes e identicamente distribufdas com a mesma distribuiC;ao que X. Teorema 2.1.1. Desigualdade da Informac;ao. Quando as condir;oes de regularidade estiio satisfeitas, a variiincia de qualquer estimador niio viciado fJ do pariimetro 8 satisfaz a desigualdade • 1 Var[8J 2': n1p(8)" Prova. Vamos considerar 0 caso em que X e uma variavel aleat6ria contfnua. Sendo Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X, temos queI:...I:£(8; X)dXI ... dXn = 1, onde £(8; x) e dada em (2.1.5). Desde que e e nao viciado, ou seja, E[e] = 8, temos tambem que I:···I: e£(8;X)dxI" .dxn = 8. 8 100 100 100 1008£(8; x)r:>8 . . . £(8; X)dXI ... dXn = . . . 88 dXl ... dXn = O. u -00 -~ -00 -00 8 (00 (00. . (00 (00 .8£(8; x) 88 L oo '" J-oo 8£(8;x)dxI" .Xn = J-oo'" J-oo 8 88 dXI·· .dxn = 1. 8£(8; x) . 88 = t(8; x)£(8; x), (8, ) = 8log£(8;x)t ,x 88' temos das express6es acima que E[Bt(B; X)] = 1. E[Bt(B; X)] - E[B]E[t(B; X)] Pih = . ' VVar[BjV ar[t(B; X)] onde POt denota 0 coeficiente de correla<;ao entre Bet, de tal forma que P~t :S 1, temos que . 1 Var[B] ~ Var[t(B;X))" Como as variaveis Xl, ... ,Xn sac independentes e identicamente distribuidas com densidade f(xIB), temos de (2.1.5) e de (2.1.6) que [a log L(B; X)]Var[t(B;X)]=Var aB =nlp(B), Exemplo 2.1.2. Sejam Xl, ... , Xn uma amostra aleat6ria de tamanho n da variavel aleat6ria X ~ Poisson(B), com fun<;ao de probabilidade dada por e-(}Bx f(xIB) = -,-, x=O,I, ... ,x. alogj(xIB) = ::. _ 1 . . aB B' E [ a210gf(XIB)] =_~ aB B· LI(B) = ~. n Como Var[X] = Bin, concluimos que X e urn estimador eficiente para B. Enfatizamos que a desigualdade da informa<;ao (inicialmente chamada de Cramer-Rao) nao e urn metodo de constru<;ao de estimadores. Ela apenas possi- bilita verificar se determinado estimador e ou nao eficiente. E entao importante que sejam estabelecidos metodos para constru<;ao de estimadores que tenham alguma propriedade interessante, ou que levem a estimadores com "boas" pro- priedades. Contudo, antes de estabelecermos tais metodos (ou criterios), vamos considerar estatisticas que reduzam (condensem) os dados sem que haja perda de informa<;ao. Tais estatisticas sao conhecidas como estatisticas suficientes. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X com fun<;ao de densidade ou de probabilidade f(xI8). Quando resumimos a informa<;ao que os dados contem sobre 8, utilizando uma estatistica, e importante que nao ha- ja perda de informa<;ao sobre 8. Ou seja, a estatistica a ser considerada deve, dentro do possivel, conter toda a informa<;ao sobre 8 presente na amostra. Em outras palavras, se pudermos usar uma estatistica T = T(Xl, ... , Xn) para extrairmos toda informa<;ao que a amostra Xl, ... , X n contem sobre 8, entao dizemos que T (que pode ser urn vetor) e suficiente para 8. Desse mo- do, 0 conhecimento apenas de T (e nao necessariamente da amostra completa Xl, ... ,Xn) e suficiente para que sejam feitas inferencias sobre 8. A seguir apresentamos a defini<;ao formal. Definic;ao 2.2.1. Dizemos que a estatistica T = T(Xl, ... ,Xn) e suficiente pam 8, quando a distribtm;iio condicional de Xl, ... ,X n dado T for indepen- dente de 8. Os exemplos a seguir ilustram a obten<;ao de estatisticas suficientes pela u tiliza<;ao da Defini<;ao 2.2.1. Exemplo 2.2.1. Sejam Xl, ... ,Xn uma amostra aleat6ria da distribui<;ao· Binomial(1,8), ou seja, de Bernoulli(8). Vamos verificar se a estatistica T = 2:::7=1 Xi e suficiente para 8. De acordo com a Defini<;ao 2.2.1,T e su- ficiente para 8, se a probabilidade condicional P[XI = Xl, ... ,Xn = xnlT = t] for independente de 8. Temos, para Xl, ... , Xn = 0 ou 1 e t = 0, ... ,n, 2:::7=1 Xi i= t, 2:::~1Xi = t; '. ] P[Xl=Xl, ... ,Xn=xn,T=t] P[XI =Xl, .. ·,Xn=xnIT=t = P[T=t] P[XI = Xl, ... , Xn = Xn] P[XI = Xl] ... P[Xn = Xn] = (7)8t(1 - 8)n-t = __t1§!il - 8)n-t 8X1(1 - 8)1-Xl ... 8Xn (1 - 8)1-Xn _ 8t(1 - 8)n-t _ 1 = (7)8t(1 - 8)n-t - (7)8t(1 - 8)n-t - (7)' pois sabemos que T ,...,Binomial(n, 8). Portanto de modo que, pela Defini~iio 2.2.1, T = L:~=lXi e·suficiente para 8. Exemplo 2.2.2. Consideremos novamente a situa~ao do Exemplo 2.2.1, com n = 3 e T = Xl + 2X2 + X3. Vamos verificar se T e suficiente. Notemos que para Xl = 1,X2 = 0, X3 = 1, temos que T = 2. Logo P[XI = 1,X2 = 0,X3 = 1] P[XI = 1,X2 = 0,X3 = liT = 2] = P[X I + 2X 2 + X 3 = 2] P[XI = 1]P[X2 = 0]P[X3 = 1] - P[XI = 1,X2 = 0,X3 = 1]+ P[XI = 0,X2 = 1,X3 = 0] 82(1-8) =8. C 82(1 - 8) + (1 - 8)28 Portanto, como a probabilidade (2.2.1) depende de 8, conclufmos que T nao e suficiente para 8, pois, nesse caso, a distribui~ao condicional de Xl,"" Xn dado T depende de 8. Exemplo 2.2.3. Sejam Xl, ... ,Xn uma amostra aleatoria da distribui~ao de Poisson com panlmetro 8. Vamos verificar se T = L:~=lXi e suficiente para 8. Sabemos que r = L:7=1 Xi tern distribui~ao de Poisson com para-metro n8. Assim, para Xi = 0,1,2, ... , i = 1, ... , net = 0,1, ... , temos { 0, -.- P[XI = Xl,··· ,Xn = xnlT = t] = P[X,=X" ... ,Xn=Xn]. P[T=t] , L:~=lXi i- t, L:~=lXi = t; e-08Xn t! Xn! e-nO(n8)t t! 1= Xl!, ... , Xn! nt ' que e independente de 8. Segue, entao, da Defini~ao 2.2.1 que L:~=lXi e sufi- ciente para 8. Notemos que a Defini~iio 2.2.1 permite, apenas, que possarnos verificar se determinada estatfstica e ou nao suficiente. Contudo nao pode ser utilizada co- mo urn metodo para obten~ao de estatfsticas suficientes. Urn procedimento para a obten~ao de estatfsticas suficientes e 0 criterio da fatora~ao que apresentamos a seguir. Teorema 2.2.1. (Criterio da Fatorat:;ao de Neyman) Sejam Xl, ... ,Xn uma amostra aleat6ria da distribuit:;ao da varirivel aleat6ria X com funt:;ao de densi- dade (ou de probabilidade) f(xIB) e func;ao de verossimilhant:;a L(B; x). Temos, entao, que a estatistica T = T(XI, ... , Xn) e suficiente para B, se e somente se pudermos escrever onde h(XI,' .. , xn) e uma funt:;ao que depende apenas de Xl, ... , Xn (nao de- pen de de B) e ge (T(XI, ... , xn)) depende de B e de Xl, ... , Xn somente atraves de T. Prova. Vamos provar 0 teorema apenas para 0 caso discreto. Nesse caso, L(B; x) = Pe[X = x]. Suponhamos em primeiro lugar que (2.2.2) esteja verifi- cada e entao, { 0; . T(x) -1= t P[X = xIT(X) = t] = Pe[X=x,T(X)=t). T() - t Pe[T(X)=t], x - , quando T(x) -1= t, P[X = xIT(x) = t] = 0, que e independente de B, logo a condi<;ao da Defini<;ao 2.2.1 est a verificada. Quando T(x) = t, 0 evento {X = x, T(X) = t} esta conti do no evento {T(x) = t}, entao Pe[X = x,T(X) = t] Pe[X = x] PelT = t] PelT = t] h(x)ge(t) h(x) -:L:{X;T(X)=t} h(x)ge(t) ~ :L:{x;T(xl=t} h(x)' que e independente de B, portanto T = T(X) e suficiente para B. Suponhamos agora que T = T(X) seja suficiente, de modo que a distribui<;ao condicional de X dado T e independente de B. Sendo T(x) = t,temos que f(xIB) = Pe[X = x] = Pe[X = x, T(x) = t] = P[X = xIT(x) = t]Po[T(X) = t] = h(x)ge(t), de modo que (2.2.2) esta provada. Exemplo 2.2.4. Consideremos novamente 0 modelo de Poisson do Exemplo 2.2.3. Temos, entao, que n L(B; x) = IIf(XijB) i=l __ l__ e-nOBxl+ ...+xn Xl! ... Xn! " h( ) 1 I () e 98 (T(x)) = e-n8eI:7=1 Xi,Xl,· .. , Xn = TIn .1 {0,1,2,oo.} X i=l X,. temos, pelo criterio cia fatora<;ao, que T(X) = I:~=lXi e suficiente para e, onde X = (Xl,'" ,Xn). Exemplo 2.2.5. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleatoria X '" U(O, e). Conforme visto no Capitulo 1, temos que (veja 0 Modelo 1.1.5) 1 f(xle) = gI[o,8](x), 1 1 L(e; x) = gI[0,8J(xr) ... gI[o,8](xn) 1= en 1[0,8] (X(n) )I[o,x(~)J (X (1.) )', de modo que, pelo criterio da fatora<;ao, X(n) e uma estatistica suficiente para e. Exemplo 2.2.6. Sejam Xl, ... ,Xn uma amostra aleatoria da distribui<;ao N(p" 1). Temos, entao, que 1 _('1 _,,)2 1 _('n _,,)2 L(p,; x) = f(C.e 2 • .• f(C.e 2 y2IT y2IT ( 1 ) n _,,~ (';'2,,)2= -- e L....t=l ~ = (vk)n e-I:7=1 ;te-~+JlI:7=lXi. Portanto, pelo criterio da fatora<;ao, T(X) = I:~~lXi e uma estatistica sufi- ciente para p,. Na se<;ao anterior vimos 0 casouniparametrico, ou seja, a distribui<;ao dos dados depende de um unico parametro e. Nesta se<;ao consideramos 0 caso multiparametrico em que e e um vetor de parametros, que denotamos por e. Em muitas situa<;6es, 0 modelo estatistico depende de mais de um parametro. Eo caso do modelo N(p" (1'2), em que e = (p" (1'2), sendo p, e (1'2 desconhecidos. It 0 caso tambem do modelo Gama(a, (3), em que a e {3 saD desconhecidos e, portanto, 0 = (a, (3). Teorema 2.3.1. (Criterio dafatora<;ao. Caso Multiparametrico) Sejam Xl, ... , Xn uma amostra aleat6ria da distribui<;ao da varidvel aleat6ria X, com funr;ao de densidade (ou de probabilidade) f(xjO). Temos, entao, que a estatistica r- dimensional T = (TI, ... , Tr), Ti == Ti (X) e conjuntamente suficiente para 0 se n L(O; x) = f(xI, ... , xnlO) = IIf(XiIO) = h(XI, ... , xn)go(TI (x), ... ,Tr(x)), i=l onde h(XI, ... , Xri) e uma funr;ao que nao depende de 0 e go(TI (x), ... ,Tr(x)) depende de 0 e de x = (Xl, ... , Xn) somente por meio de (TI (x), ... ,Tr(x)). No caso do Teorema 2.3.1, dizemos que a estatfstica suficiente e de dimensao r, que em muitos casos e tambem a dimensao do espat;o parametrico 8. Mas existem situa~6es em que tal fato nao ocorre, ou seja, a dimensao de 8 e menor que r. Exemplo 2.3.1. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da variavel aleat6ria X "" N(p" (TZ), onde p, e (Tz saD desconhecidos. Temos, entao, que 0 = (p" (TZ). Nessecaso, a funt;ao de verossimilhant;a pode ser escrita como . (1) n ,,",n (Zi _1")2L(Oj x) = -- e- 0'=1 ---,;r- V2if(T = (_1_) n ~e-~ L:~=Ix~+~L:~=1x;-n,s V2if (Tn . , com -00 < p, < 00 e (TZ> O. Tomando h(XI, ... ,xn) = 1/ (V2if)n e temos, de acordo com 0 criterio da fatorat;a~, que T = (L:~=lXi, L:~=lXl) e conjuntamente suficiente para (p" (TZ). Definil;ao 2.3.1. Dizemos que duas estatisticas TI e Tz sao equivalentes se existir uma rela<;ao1:1 entre elas. Em outra palavras, TI e Tz siio equivalentes se TI puder ser obtida a partir de Tz e vice-versa. Nesse caso, temos que, se TI e suficiente para e, entao Tz tambem e suficiente para O. Esse resultado vale tambem para 0 caso multidi- mensional. Exemplo 2.3.2. Consideremos novamente a situa<;ao do Exemplo 2.2.6. Vi- mos que Tl = ~~=l Xi e suficiente para /1. Como Tl e equivalente a T2 = ~~=l Xiln = X, temos que T2 = X tambem e suficiente para /1. Exemplo 2.3.3. Consideremos novamente a situa<;ao do Exemplo 2.3.1. Nao e dificil verificar que Tl = (~~=l Xi, ~i=l xl) e T2 = (X, 82) sao equivalentes. Como Tl e suficiente para 8 (Exemplo 2.3.1), temos que T2 tambem e suficiente para 8 = (/1, a2). Exemplo 2.3.4. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X com distribui<;ao Gama(ex, (3). Dizemos que X ,...,Gama(ex, (3), se sua f.d.p. e dada por onde r(.) e a fun<;ao gama definida por r(t) = 1000 xt-le-Xdx, para t > O. Entao, 8 = (ex, (3). Temos que a fun<;iio de verossimilhan<;a correspondente a ~ ''''- I 1 1 amostra observada e dada por . . . (3nOl n ,in '" £(8; x) = rn (ex) IIXf-l e-{3 _ ;=1 ~i)I(o,oo~ (x).' . >=1 /~ ex > 0, (3 > O. Portanto, pelo criterio da fatora<;ao, temos que Tl (n~=l Xi, ~~=l Xi) e conjuntamente suficiente para 8. Notemos que a es- tatfstica T2 = (~~=l log Xi, X) e equivalente a Tl. ~ 2.4 Familias Exponenciais Muitos dos modelos estatfsticos consideradosnas se<;6es anteriores podem ser considerados como casos especiais de uma familia mais geral de distribui<;6es . Defini«ao 2.4.1. Dizemos que a distribuif;iio da variavel aleat6ria X pertence a famz'lia exponencial unidimensional de distribuif;oes, se pudermos escrever sua f.p. ou f.d.p. como onde c, d siio funf;oes reais de 8,. T, 8 siio funf;oes reais de x e A niio depende de 8. Notemos que no caso em que X e continua, para que f(xI8) em (2.4.1) seja uma fun<;ao de densidade, e necessario quei ec{IJ)T(x)+d(IJ)+S{x)dx = 1, i ec(IJ)T(x)+S(x)dx = e-d(IJ), de modo que d(B) esta associado a constante de normaliza<;ao da densidade. Resultado similar vale para 0 caso em que X e uma variavel aleatoria discreta. Exemplo 2.4.1. Seja X uma variavel aleatoria com distribui<;ao de Bernoul- li(B). Entao, podemos escrever Portanto a distribui<;ao de X pertence a familia exponencial unidimensional com c(B) = log C ~B)' d(B) = log(1 - B), T(x) = x, S(x) = 0, A = {O, I}. Exemplo 2.4.2. Seja X uma variavel aleatoria com distribui<;ao N(t-t, 1). Temos, entao, que Portanto a distribui<;ao da variavel aleatoria X pertence a familia exponencial unidimensional com t-t2 c(t-t) = t-t, d(t-t) = -2' x2 e S(x) = -2 -log~, Outras distribui<;6es que podem ser colocadas na forma da familia exponen- cial unidimensional sao, por exemplo, binomial, de Poisson e exponencial. 0 proximo result ado estabelece que amostras aleatorias de familias exponenciais unidimensionais SaDtambem membros· da familia exponencial unidimensional. Teorema 2.4.1. Sejam Xl, ... ,Xn uma amostra aleat6.,.ia de tamanho n da va.,.iavel aleat6.,.ia X, com fun{:iio de densidade (ou de probabilidade) dada po.,. (2.4.1). Entiio, a distribui{:iio conjunta de Xl,'" ,Xn e dada po.,. f(XI"'" xnlB) = eC*(IJ)L:~=lT(Xi)+d*(IJ)+S*(x), X E An, que tambem e da famz1ia exponencial com T(x) = L:~lT(Xi), c*(B) = c(B), d*(B) = nd(B), e S*(x) = L:~=lS(Xi)' n h(Xl,""Xn) =e2:~=lS(X;)rrIA(Xi)' e ge(T) =eC(e)2:~=IT(Xi)+nd(e), i=l temos, pelo criterio da fatora~ao, que a estatistica T(X) = 2:~=1 T(Xi) e sufi- ciente para B. Defini«iio 2.4.2. Dizemos que a distribui9ao da variavel aleat6ria (ou de um vetor aleat6rio) X pertence Ii famz1ia exponencial de. dimensao k se a fun9ao de densidade (ou de probabilidade) de X e dada por f(xIB) = e2:;=1 cj(e)Tj(x)+d(e)+S(x), x E A, onde Cj, Tj, deS sao fun90es reais, j = 1, ... , k, e como no caso unidimen- sional, d(B) estri associado Ii constante de normaliza9ao de (2.4.3) e A nao depende de e. Tambem, no caso de dimensao k,' amostras de familias exponenciais de di- mensao k tern distribuic;6es que saD membros da familia exponencial de di- mensao k. Para uma amostra Xl, ... , Xn de 'uma varia-vel aleat6ria com func;ao de densidade (ou de probabilidade) dada por (2.4.3), temos que a fun~ao de densidade (ou de pro babilidade) conjunta de Xl, ... , X n e dada por f( Ie) = 2:;=1 ~;(e) 2:~=1Tj(x;)+d*(e)+s*(x)Xl, ... , Xn e , n Tj*(x) = LTj(Xi), cj(e) = Cj(e), i=l S*(x) = L S(Xi), d*(e) = nd(e). i=l Exemplo 2.4.3. Consideremos mais uma vez a situac;ao do Exemplo 2.3.l. Nesse caso, temos que e = (/-£,0'2), com d(B) = -2~2 - ~log(T2, S(x) = -logJ2;, A = IR. A distribui<;ao de uma amostra aleat6ria da densidade (2.4.4) e tambem da familia exponencial com T1 (X) = L~=lXi e T2(X) = L~=lXl, que sao con- juntamente suficientes para (J-l, (T2). Exemplo 2.4.4. Vamos considerar agora 0 caso em que 0 vet or (X, Y) e dis- tribufdo de acordo com a distribui<;ao normal bivariada com B = (J-lx, J-ly, (T;, (T;, p), que denotamos por que corresponde a uma densidade na forma da familia exponencial de dimensao 5, em que cdB) = (1 ~ p2) [~~ - :::J, T1(x,y) = x, c2(B) = (1 ~ p2) [~~ - :::J, T2(x,y) = y, 1 c3(B) = - 2(1- p2)(Ti' T3(x,y) = x2, 1 c4(B) =- 2(1- p2)(T~' T4(x,y) = y2, Pc5(B) = (1 2) , T5(x,y) = xy.- P (Tx(Ty As func;6es d(B) e S(x, y) SaGobtidas de maneira similar. Consideremos uma amostra aleatoria (Xl, Yl), ... , (Xn, Yn) da densidade normal bivariada (2.4.5). Temos, portanto, que a estatistica e conjuntamente suficiente para B = (f.Lx, f.Ly, 0';,0';, p). Notemos que a es- tatistica - - 2 2T2 = (X, Y, Sx, Sy, Sxy), onde S; = L~=l (Xi - X)2 In, S; = L:Z:l (Yi - y)2 In e Sxy = L:~,A(Xi - X)(Yi - Y)ln e equivalente a Tl e, portanto, e tambem conjuntamente ·sufi.;!' ciente para B. Estimadores comumente consider ados para Beque SaGfunc;6es de T2 SaG ~2 ~ - 2fly = Y, O'x = L)Xi - X) In, i=l o estimador p e conhecido como coeficiente de correlaC;ao de Pearson. Podemos mostrar que os estimadores de B dados por (2.4.6) e (2.4.7) SaGestimadores de maxima verossimilhanc;a. Sejam Xl,'" ,Xn uma amostra aleatoria da variavel aleatoria X com funC;ao de densidade (ou de probabilidade) f(xIB). Seja T = T(Xl, ... ,Xn) uma es- tatistica suficiente para B e S = S(Xl, ... ,Xn) urn estimador de B que nao e func;ao da estatistica suficiente T. Entao, e urn estimador de B, ou seja, e uma func;ao de T que nao depende de B, pois, sendo T suficiente, a distribuic;ao condicional de Xl, ... , Xn dado T e independente de B. Notemos que S = S (X 1, ... , X n) e uma func;ao apenas de Xl,'" ,Xn. Temos, tambem, que se S e urn estimador nao viciado de B, entao Be tambem nao viciado para B (veja 0 Exercicio 2.8). Contudo 0 resultado mais importante, conhecido como Teorema de Rao-Blackwell, estabelece que, se S e urn estimador nao viciado de 0, entao, Var[S] = E{Var[SjT]} + Var{E[SIT]} ~ V ar{ E[SIT]} = Var[B], pois E{Var[SIT]} ~ O. Portanto temos de (2.5.2) que 0 estimador 8 basea- do na estatfstica suficiente T apresenta uma variancia menor (ou igual) que a variancia do estimador nao viciado S. Desse modo, qualquer estimador S que nao e fun<;ao de uma estatfstica suficiente pode ser melhorado pelo pro cedi- men to (2.5.1). Exemplo 2.5.1. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X ~ Poisson(O). Queremos estimar P(X = 0) = e-O. Temos que a estatfstica T = 2:~1Xi e suficiente para O. Consideremos S = {I, Xl = 0, 0, caso contrario. Temos que E(S) = P(XI = 0) = e-o, logo S e nao viciado para e-o. Notemos que, para t = 0,1,2, ... , E[SIT = t] = P(XI = 0IT = t) = P(2:7=2 X~ = t)P(XI = 0) P(2:i=1 Xi = t) =e-ln-I)O((n-1)O)te_o t! =(n_1)t t! e-nO(nO)t n· ' portanto de acordo com (2.5.1) tern os que 0 estimador A seguir apresentamos a defini<;ao de estatfstica completa que, em conjunto com a defini<;ao de suficiencia, possibilita a obten<;ao do estimador 6timo, isto e, 0 estimador nao viciado de variancia uniformemente mfnima. Defini~iio 2.5.1. Uma estatistica T = T(XI, ... , Xn) e dita ser completa em relar;iio d famz1ia f(xIO) : 0 E 8, se a unica funr;iio real g, definida no dominio de T, tal que E[g(T)] = 0, para todo B e a funr;ao nula, isto e, g(T) = 0 com probabilidade 1. E[g(T)] = ~g(X) (:)BX(l- Bt-x = 0 para todo B, C onde p =B/(l- B). Como 0 lado esquerdo de (2.5.3) e urn polin6mio em p de grau n temos que g(x) = 0 para todo x. Portanto T = L~:"'lXi e completa em relac;ao a famflia Binomial. Exemplo 2.5.3. Sejam Xl, X2 uma amostra aleat6ria da variavel X ~ Bernoulli(B). Seja T = Xl - X2. Temos que E(T) = E(X1 - X2) = 0, logo existe a func;ao g(T) = T tal que E(g(T)) = 0, mas g(T) =j:. 0 com probabilidade 1. Portanto T = Xl - X2 nao e completa. A demonstrac;ao do teorema a seguir pode ser encontrada em Lehmann (1986) . Teorema 2.5.2. Suponha que X tenha distribuir;ao da fam{lia exponencial k- dimensional (como definida em 2.4.2). Entao, a estatistica n n T(X) = (LTl(Xi), ... ,LTk(Xi)) i=l i=l e suficiente para B. T(X) sera tambem completa desde que 0 dom{nio de variar;ao de (cl(B), ... ,cdB)) contenha um retangulo k-dimensional. No caso uniparametrico, e necessario que 0 dominio de variac;ao de c(B) contenha urn intervalo da reta. No caso bidimensional, urn quadrado e assim pordiante. Teorema 2.5.3. (Lehmann-Scheffe) Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X com f.d.p. (ou f.p.), f(xIB). Seja T uma estatistica suficiente e completa. Seja S um estimador nao viciado de B. Entao B = E(SIT) e 0 unico estimador nao viciado de B baseado em Tee 0 estimador nao viciado de variancia uniformemente m{nima (ENVVUM) para B. Prova. De (2.5.1) e (2.5.2) temos que e e urn estimador nao viciado de Beque, na procura de ENVVUM's para B, basta procurar entre os que san func;ao de T (pois os que nao san podem ser melhorados). Falta provar, entao, que ha urn unico estimador nao viciado de 8 que e fun<;ao de T. Para isso, suponha que existam fh e e2, ambos fun<;6es de T, tais que de modo que E(el - (2) = 0 e como T e completa, el - e2el = e2 com probabilidade 1. Exemplo 2.5.4. Sejam Xl, ... , Xn uma amostra aleat6ria da distribui<;ao de Poisson com parametro 8. Pelos Exemplos 2.2.4 e 2.5.2 temos que T = .2::7=1 Xi e uma estatlstica suficiente e completa. Como X e urn estimador nao viciado de 8 e e fun<;ao de T, eo ENVVUM. 2.1. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X ~ N(O, cr2). (i) Encontre 0 limite inferior·da variancia dos estimadores nao viciados de cr2. (ii) Encontre uma estatistica suficiente para cr2. (iii) Obtenha a partir desta estatistica urn estimador nao viciado para cr2 . . (iv) Verifique se este estimador e eficiente. 2.2. Sej am Xl, ... , X n uma amostra aleat6ria da varia vel aleat6ria X ~ Binomial(2,8). ® Encontreo limite inferior da variancia dos estimadores nao viciados de 8. l® Encontre uma estatistica suficiente para 8. (iii) Obtenha urn estimador nao viciado para 8 que seja fun<;ao da estatistica suficiente. (iv) Verifique se 0 estimador e eficiente. 2.3. Sejam Xl, ... , Xn uma amostra aleat6ria da distribui<;ao da variavel aleat6ria X com fun<;ao densidade de probabilidade dada por (i) Mostre que a f.d.p. pertence a familia exponencial. (ii) Encoiltre 0 limite inferior da variancia dos estimadores nao viciados de 8. (iii) Encontre uma estatistica suficiente para 8 e sua distribui<;ao. (iv) Sugira urn estimador nao viciado para 8 que seja fun<;ao da estatistica suficiente e verifique se e eficiente. 2.4. Sejam Xl, X2 uma amostra aleat6ria da variavel aleat6ria X rv Poisson(8). Mostre que T = Xl + 2X2 nao e suficiente para 8. 2.5. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X com funr;ao de densidade (ou de probabilidade) f(xI8) para a qual as condir;6es de regularidade estao satisfeitas. Seja l' urn estimador nao viciado para g(8). Mostre que V arb) > (g' (8))2 . - nE [ ( a log £~X[O) ) 2] 2.6. Seja f(xI8) uma funr;ao densidade para a qual as condir;6es de regularidade estao satisfeitas. Mostre que 2.7. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X com f.d.p. dada por f(xI8) = e-(X-O), x> 8, 8> O. (i) Encontre uma estatistica suficiente para 8. (ii) Baseado nesta estatistica, obtenha urn estimador nao viciado para 8. 2.8. Mostre que se 5 e urn estimador nao viciado de 8, entao (j dado por (2.5.1) tambem e nao viciado para 8. 2.9. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X N(p"1). (i) Mostre que 0 estimador l' = X2 - 1jn e nao viciado para g(p,) = p,2. (ii) Existe ENVVUM para p,2? (iii) Encontre 0 limite inferior da variancia dos estimadores nao viciados de g(p,) = p,2 e verifique se l' e eficiente: 2.10. Sejam Xl, .. ' ,Xn uma amostra aleat6ria da variavel aleat6ria. X '" Bernoulli(8). Obtenha 0 ENVVUM para 8(1 - 8). Sugestao: verifique se 52 = (n~l) X (1 - X) e nao viciado para 8(1 - 8). 2.11. Sejam Xl, ... ,X n uma amostra aleat6ria da variavel aleat6ria X com distribuir;ao geometrica com parametro 8, isto e, f(xI8) = 8(1 - 8)X, x = 0,1,2, ... , 0 < 8 < 1. Encontre 0 ENVVUM para 1j 8. 2.12. Sejam Y1, ... ,Ynvariaveis aleat6rias independentes onde Yi '" N((3xi, 0-2), onde xi e conhecido, i = 1, ... ,n. Note que, neste caso, as variaveis Yi nao SaD identicamente distribuidas. (i) Encontre uma estatistica conjuntamente suficientepara (3 e 172. (ii) Baseado nessa estatistica, obtenha OS ENVVUM para (3 e para 172. No capitulo anterior consideramos urn criterio para verificar se determinado estimador e ou nao eficiente. Contudo tal procedimento nao e urn metodo que possibilita, em geral, a obten<;ao de estimadores em situa<;6es especfficas. Vim os tambem que todo born estimador deve ser fun<;ao de uma estatistica s~iente. Neste capitulo vamos considerar alguns inetodos que possibilitam a obten<;ab de estimadores em situa<;6es especfficas. 0 primeiro metodo que consideramos e o metodo de maxima verossimilhan<;a em que estimadores saG obtidos a partir da maximiza<;ao da fun<;ao de verossimilhan<;a. 0 segundo metodo considerado e 0 metodo dos momentos em que estimadores saG obtidos igualando-se os momentos amostrais aos correspondentes momentos populacionais. o conceito de fun<;ao de verossimilhan<;a, enunciado a seguir, e central na teoria da verossimilhan<;a. Defini<;iio 3.1.1. Sejam Xl,'" ,Xn uma amostm aleataria de tamanho n da variavel aleataria X com funr;iio de densidade (ou de probabilidade) f(xI8), com 8 E e, onde e Ii 0 espar;o pammetrico. A funr;iio de verossimilhanr;a de 8 correspondente Ii amostm aleataria observada e dada por L(8; x) = IIf(XiI8). i=l Defini<;iio 3.1.2. 0 estimador de maxima verossimilhanr;a de 8 Ii 0 valor iJ E e que maximiza a funr;iio de verossimilhanr;a L(8; x). o logaritmo natural da func,;ao de verossimilhanc,;a de 8 e denotado pOl' Nao e dificil verificar que 0 valor de 8 que maximiza a fun<;ao de verossimi- lhan<;a L(8; x), tambem maximiza l(8; x) dada por (3.1.2). Alem disso, no caso uniparametrico onde e e urn intervalo da reta e l(8; x) e derivavel, 0 estimador de maxima verossimilhanc;a pode ser encontrado como a raiz da equac;ao de verossimilhanc;a l'(8;x) = 8l~~x) = o. Em alguns exemplos simples, a soluc;ao da equac;ao de verossimilhanc;a pode ser obtida explicitamente. Em situac;oes mais complicadas, a soluc;ao da equac;ao (3.1.3) sera em geralobtida por procedimentos numericos. Para se conc1uir que a soluc;ao da equac;ao (3.1.3) e urn ponto de maximo, e necessario verificar se l"(8'. )=82IogL(8;x)1 . 0, x 882 B=B < . Em situac;oes em que e e discreto ou em que 0 maximo de l(8; x) ocorre na fronteira de e (Exemplo 1.3.8), 0 estimador de maxima verossimilhanc;a nao pode ser obtido a partir da soluc;ao de (3.1.3). Em tais situac;oes, 0 maximo e obtido a partir da inspec;ao da func;ao de verossimilhanc;a. Exemplo 3.1.1. Sejam Xl,'" ,Xn uma amostra aleat6ria da distribuic;ao da variavel aleat6ria X ,.....,N(p, 1). Nesse caso, a func;ao de verossimilhanc;a e dada por L(p; x) = (~) n e-~ L:~=1(X;-f.L)2, com e = {Pi -00 < P < oo}. Como 1 n l(p; x) = -n log y'2; - 2""2)Xi - p)2, i=l :L(Xi - fl) = 0, i=l 1 n _ fl=-:LXi=X. n i=l Nao e dificil verificar nesse caso que (3.1.4) esta satisfeita. Entao X, alem de ser eficiente (Exemplo 2.1.1) e func;ao da estatlstica sufi- ciente, e tambem estimador de maxima verossimilhanc;a. Exemplo 3.1.2. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X ~ Bernoulli(B). Nesse caso, a fun<;ao de verossimilhan<;a de B e dada por n (n)I(B;x)=~XilogB+ n-~Xi log(1-B). 2=~1Xi _ (n - 2=~1 xd = 0, B 1- B pois neste caso, (3.1.4) tambem est a verificada. o exemplo a seguir ilustra uma situa<;ao em que a equa<;ao (3.1.3) nao pode ser utilizada. Exemplo 3.1.3. Sejam Xl, ... ,Xn uma amostra aleat6ria da variavel aleat6ria X ~ U(O, B). Conforme visto no Exemplo 2.2.5, podemos escrever a fun<;ao de verossimilhan<;a como onde e = {B; B > O}. Nesse caso, a equa<;ao de verossimilhan<;a (3.1.3) nao leva a nenhum estimador para B. Por outro lado, 0 grafico da fun<;ao de verossimi- Ihan<;a de B e dado pela Figura 3.1. Como a fun<;ao de verossimilhan<;a (3.1.5)e nula para B < x(n) e vale l/Bn para B ~ X(n), temos que 0 maximo de L(B; x) e dado por (j = X(n), que e uma estatistica suficiente para B. Nesse caso 0 estimador de maxima verossimilhan<;a de B e viciado (ver Exemplo 1.3.8.). L(8.x)''! I 1 i-+----------------------------------------- X;:d I I J No caso discreto, 0 estimador de maxima verossimilham;a de e, B, pode ser interpret ado como 0 valor de e que maximiza a probabilidade de se observar a amostra que foi selecionada. 0 exemplo a seguir ilustra bem esse fato. Exemplo 3.1.4. Temos uma caixa com bolas brancas e vermelhas_ Sabe-se que a propor<;ao e de bolas vermelhas na caixa e 1/3 ou 2/3. Portanto e = {1/3,2/3}. Para obtermos informa<;:ao sobre e, uma amostra de n = 3 bolas e observada com reposi<;:ao e apresenta bola vermelha na primeira extra<;:ao e branca na segunda e na terceira extra<;:6es_Definindo Xi = { 1, 0, se a i-esima retirada apresenta bola vermelha se a i-esima retirada apresenta bola branca, para i = 1,2,3, temos que a fun<;:aode verossimilhan<;:a de e associada a amostra observada e dada por Como L (~;x) = ~ (~r4-27 e L (~;x) = ~ (~r227' temos que a estimativa de maxima verossimilhan<;a de 8 e dada por fj = 1/3, pois o exemplo que apresentamos a seguir ilustra uma situa<;8,oem que 0 esti- mador de maxima verossimilhan<;a nao e unieo. /Exemplo 3.1.5. Sejam Xl,"" Xn uma amostra aleat6ria da distribui<;ao da variavel aleat6ria X ~ U(8 - 1/2,8 + 1/2), isto e f(xI8) = I[8-1/2;9+1/2j(X), L(8; x) = I[8-1/2;8+1/2j(XJ)'" I[8-1/2;8+1/2j(Xn) = I[X(n)-1/2;x(1)+1/2j(8), . ' 8 s: X(l) + 1/2 e X(n) - 1/2 s: 8. A Figura 3.2 apresenta 0 grafieo da fun<;ao L(8; x). 4- L(e,x) I ! I ! , _· ••••1 -----~i -'un,'_n ' nn __ a Como L(B; x) e nula para B < x(n) - 1/2 e para B > X(l) + 1/2 e constante no intervalo [X(n) - 1/2; X(l) + 1/2]' temos que qualquer ponto desse intervalo e urn estimador de maxima verossimilhan<;:a de B. Em particular, e urn estimador de maxima verossimilhan<;:a de B. Em alguns casos, principalmente quando a verossimilhan<;:a esta associada a modelos mais complexos, a fun<;:ao de verossimilhan<;:a nao apresenta solu<;:ao analitica explicita. Em tais casos, os estimadores de maxima verossimilhan<;:a podem ser obtidos pormeio de metodos numericos. Vamos denotar por U(B) a fun<;:aoescore, ou seja, U(B) = 8log L( B; x) 8B ' de modo que, expandindo U(8) em serie de Taylor em torno de urn ponto Bo, obtemos . 0= U(8) ~ U(Bo) + (8 - Bo)U'(Bo), 8 ~ B _ U(Bo) . - 0 U'(Bo)· que e iniciado com 0 valor eo e entao urn novo valor Bl e obtido a partir de (3.1.7) e assim por diante, ate que 0 processo se estabilize, ou seja, para urn dado I: pequeno, IBj+l - Bjl < (. Nesse caso, 0 ponto 8 em que 0 processo se estabiliza e tornado como 0 estimador de maxima verossimilhan<;:a de B. Em alguns casos, a substitui<;:ao de U'(Bj) em (3.1.7) por E[U'(Bj)], ou seja, a informa<;:ao de Fisher em Bj correspondente a amostra observada multiplicada por -1, apresenta significativa simplifica<;:ao no procedimento. Esse metodo e conhecido como metodo do escore. 0 exemplo a seguir ilustra uma aplica<;:ao de tal procedimento. Exemplo 3.1.6. Sejam Xl, ... ,Xn uma amostraaleat6ria da distribui<;:ao da variavel aleat6ria X com fun<;:ao de densidade dada por 1 f(xI8) = 2(~ + 8x); -1:S x :s 1, -1:S 8 :s 1. 1 n L(8;x) = 2" II(1 +8Xi), i=l U(8)=&logL(8;x) ~ Xi &8 . =L..,.1+8x·· i=l ' n 2 U'(8) = - L (1 +X~xY' i=l ' de modo que 0 proc~dimento iterativo (3.1.7) se reduz a I:11 Xi 8 - 8 i=l 1+0jXij+l - j + 2"n x. 6i=1 (1+0;Xi)2 Ip(8) = 2~3{logC~:) -28}, de modo que um procedimento alternativo a (3.1.9) e dado por I:n Xi8. - 8. _ i=l i+9jXi' J+l - J nIp (8j) Vma amostra de tamanho n = 20 e gerada a partir da densidade (3.1.8) com 8 = 0,4. Os dados foram gerados a partir do metodo da fun<;ao de distribui<;iio, ou seja, sendo F(X) = U, temos que u", U(O, 1). Nesse caso, 'como -1 + 2}1/4 - 8(1/2 - 8/4 - u) x = ------8------ tem distribui<;ao com fun<;ao de densidade dada por (3.1.8), ou seja, para u gerado a partir da U(O, 1), x obtido a partir de (3.1.11) e um valor gerado a partir da distribui<;ao com fun<;aode densidade dada par (3.1.8). As observa<;6es geradas sac dadas na Tabela 3.1. 0,3374 0,9285 0,6802 -0,2139 0,1052 -0,9793 -0,2623 -0,1964 0,5234 -3,4919 -0,6082 0,7509 0,3424 -0,7010 -0,2605 +0,4077 -0,7435 0,9862 0,9704 0,5313 Escrevendo urn program a em Fortran (outra linguagem poderia tambem ser facilmente utilizada) para calcular 0 estimador de maxima verossimilhanc;a, obtemos, ap6s 10 iterac;oes do programa, a Tabela 3.2 em que a segunda coluna corresponde ao procedimento dado em (3.1.9) e a terceira coluna corresponde ao procedimento (3.1.10). Como valor inicial para 0 procedimento iterativo foi usado eo = x = 0,1282' Tabela 3.2. Valores de {j obtidos nas 10 iterac;oes Iterac;ao Usando (3.1.9) Usando (3.1.10) 1 0,128188 0,128188 2 0,358745 0,371861 3 0,351170 0,349163 4 0,351140 0,351328 5 0,351140 0,351123 6 0,351140 0,351142 7 0,351140 0,351140 8 0,351140 0,351140 9 0,351140 0,351140 10 0,351140 0,351140 3.2 Propriedades dos Estimadores de Maxima Verossimilhanc;a o teorema a seguir apresenta uma propriedade importante dos estimadores de maxima verossimilhanc;a, estabelecendo que 0 estimador de maxima verossimi- Ihanc;a e func;ao de uma estatistica suficiente. Teorema 3.2.1. Sejam Xl,' .. ,Xn uma amostra aleat6ria da variavel aleat6ria X com fun<;ao de densidade (ou de probabilidade) f(xle). Seja T = T(XI, ... , Xn) uma estatistica suficiente para e. Entao 0 estimador de maxima verossi- milhan<;a {j (se existir) e fun<;ao de T. ' Prova. De acordo cOm 0 criterio da fatorac;ao, temos que se T e suficiente para e, entao, onde glJ(T(x)) depende de x somente atraves de T. Como hex) e constante com relac;ao a B, temos que maximaT L(B; x) com relac;ao a B e equivalente a maximizar glJ(T(x)) com relac;ao a B. Como glJ(T(x)) depende de x somente atraves de T, temos que e sera obrigatoriamente uma func;ao de T. Outras propriedades saD apresentadas nas subsec;6es seguintes. A seguir apresentamos uma propriedade bastante importante do metodo de maxima verossimilhanc;a. Seja g(.) uma func;ao real 1 : 1 (inversivel) definida erne. Teorema 3.2.2. (0 principio da invariancia.) Sejam Xl, ... ,Xn uma #nostra aleat6ria da variavel aleat6ria X com funr;ao de densidade (ou de probabilid'adel' f(xIB). Se e Ii um estimador de maxima verossimilhanr;a de B, entao gee) Ii um estimador de maxima verossimilhanr;a de g(B). Prova. Provamos 0 resultado para 0 caso em que 9 e 1:1. Sendo g(.) uma fun<;ao 1: 1, temos que g(.) e inversivel, de modo que B = g-l(g(B)). Assim i(e) = gee), ou seja, 0 estimador de maxima verossimilhan<;a de g(B) e gee). Exemplo 3.2.1. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da variavel aleat6ria X '" Bernoulli(B). Nesse caso, 0 parametro de interesse e g(B) = B(l-B). De acordo com 0 principio da invariancia, temos que 0 estimador de maxima verossimilhanc;a de g(B) e dado por De acordo com 0 Exercicio 2.10 temos que 0 estimador dado em (3.2.2) e viciado para g(B). Par outro lado, usando 0 Exercicio 2,10, temos que , 1 E[g(B)) - g(B) = -B(l - B), n Exemplo 3.2.2. SejamXI, ... ,Xn uma amostra. aleatoria da distribuic;ao da variavel aleatoria X ""' N(fL, 1). Vimos que p, = X eo estimador de maxima verossimilhanc;a de fL. Suponhamos que queremos estimar eo estimador de maxima verossimilhanc;a de g(fL) . ./~ Exemplo 3.2.3. Sejam Xl, .. ',Xn uma amostra aleatoria da distribuic;ao da variavel aleatoria X ""' Exp(B) com densidade B> 0 ex> O. Nesse caso, fJ = X-I eo estimador de maxima verossimilhanc;a de B. Suponhamos que e de interesse estimar De acordo com 0 principio da invariancia, temos que 0 estimador de maxima verossimilhanc;ae Nos tres exemplos acima, vimos situac;6es em que 0 estimador de maxima verossimilhanc;a e uma func;ao complicada da amostra observada. Certamente, nao e uma tarefa facil encontrar a distribuic;ao do estimador <f>( -X), por exem- plo. Contudo, se 0 tamanho da amostra for grande, 0 estimador de maxima verossimilhanc;a apresentara uma distribuic;ao aproximadamente normal, como veremos adiante. Alem disso, veremos que 0 estimador de maxima verossimi- Ihanc;a e eficiente, em grandes amostras. '"No caso em que 0 tamanho da amostra e grande, e as condic;6es de regularidade, especificadas no Capitulo 2, estao satisfeitaS, temos que ·f A IJ~O ",c"'~·E D e vn(fJ - B) !!:, N (0, IF~e)) , onde ,,-t" significa distribuic;ao assintotica. Temos entao que, para amostras grandes, os estimadores de maxima verossimilhanc;a de 8 e g(8) sao aproxi- madamente nao viciados, cujas variancias coincidem com os correspondentes limites inferiores das variancias dos estimadores nao viciados de 8 e g(8). Por- tanto, em gran des amostras, temos que 0 estimador de maxima verossimilhanc;a e eficiente. Exemplo 3.2.4. Considere 0 modelo do Exemplo 3.2.1. De acordo com (3.2.4), temos que a distribuic;ao do estimador de maxima verossimilhanc;a (3.2.2) e dada por .jii(g(e).c- 8(1 - 8)) -t N (0, (1 - 28)28(1 - 8)) , pois g'(8) = 1 - 28. Exemplo 3.2.5. Sejam Xl," ., Xn uma amostra aleatoria da variavel aleatoria X ,.,. Poisson(8). Nesse casa, temos que 0 estimador de maxima verossimi- lhanc;a de 8 e e = X (verifique!). De acordo com 0 princfpio da invariancia, temos que 0 estimador de maxima verossimilhanc;a de e-e e dado por Existem situac;i5es em que temos duas ou mais amostras independentes de dis- tribuic;i5es que dependem de urn parametro 8 de interesse. No caso de duas amostras aleatorias independentes, Xl, ... ,Xn e Yl, ... ,Yn, podemos escrever devido a independeJ)cia entre as amostras. Portanto a verossimilhanc;a conjunta e igual ao produto da verossimilhanc;a correspondente a amostra Xl, ... ,Xn pela verossimilhanc;a correspondente a amostra Yl, ... ,Yn. De (3.3.1), podemos escrever l(8; x, y) = l(8; x) + l(8; y), de modo que 0 logaritmo da verossimilhanc;a conjunta e igual a soma do logari- tmo das verossimilhanc;as correspondentes a cada uma das amostras. 0 exemplo que apresentamos a seguir ilustra uma tal situac;ao. Exemplo 3.3.1. Sejam Xl,." ,Xn uma amostra aleatoria correspondente a X ,.,.N(f-l, 4) e Yl, ... ,Y" uma amostra aleatoria correspondente a Y ,.,.N(f-l, 9). Assumindo que as duas amostras san independentes, temos que a verossimi- lhan<;a correspondente a amostra conjunta e dada por (2~) n e- 2:~=,(Zi~,,)2 C~) m e- 2:::1 (y;;:)2 = (2~) n (3~) m e- 2:~=,(Zi~,,)2 -2:::, (Yi;:)2. Usando 0 criterio da fatora<;ao, nao e dificil verificar que uma estatfstica sufi- ciente para IJ- e dada por T(x, y) = 2:~1Xi + 2:::1}Ii 4 g' n m ~ (Xi - IJ-)2 ~ (Yi - IJ-)2 l(IJ-;x,Y) = --2 log 871' - -2 log 1871' - 0 8 - 0 ---, i=1 i=1 18 810gL(IJ-;x,y) = ~ (Xi - p.) ~ (Yi - p.) = 0 8 0 4 +0 9 , IJ- i=1 i=1 Podemos notar que 0 estimador de maxima verossimilhan<;a e fum;ao da es- tatfstica suficiente dada em (3.3.3). Nas se<;oes anteriores discutimos a obten<;ao dos estimadores de maXIma verossimilhan<;a e estudamos suas propriedades no caso em que a fun<;ao de verossimilhan<;a depende apenas de urn parametro. Nesta se<;ao vamos cons i- derar situa<;oes em que 8 = (81, ... ,8r), ou seja, a verossimilhan<;a depende de dois ou mais parametros. 0 espa<;o parametrico sera denotado por e. Nos cas os em que as condi<;oes de regularidade estao satisfeitas, os estimadores de maxima verossimilhan<;a de 81, ... ,8r podem ser obtidos como solu<;ao das equa<;oes ologL(B;x) =0 OBi ' i = 1, ... , T. Nos cas os em que 0 suporte da distribuic;ao de X depende de B ou o maximo ocorre na fronteira de e, 0 estimador de maxima verossimilhanc;a e em geral obtido inspecionando 0 grafico da func;ao de verossimilhanc;a, como no caso uniparametrico. Nos casos em que a func;ao de verossimilhanc;a depende de dois panlmetros, Bl e B2, utilizando a equac;ao ologL(Bl,B2;x) = 0 OBI ' obtemos uma soluc;ao para 81 como func;ao de 82, que podemos denotar por 81(82). Substituindo a soluc;ao para 81 na verossimilhanc;a conjunta, temo~gora uma func;iio apenas de 82, ou seja, • conhecida como verossimilhanc;a perfilada de B2 que pode ser usada para que 0 estimador de maxima verossimilhanc;a de 82 possa ser obtido. A maximizac;ao de g(82; x) pode, entao, ser feita de maneira usual, ou seja, atraves de derivac;ao, quando possivel. Exemplo 3.4.1. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X ~ N(/-£, (7"2),onde /-£ e (7"2sac desconhecidos. Temos, entao, que B = (/-£, (7"2), com l(/-£, (7"2;x) = -~log27l"(7"2 - t (Xi 2 ::)2 .=1 que leva ao estimador fl = X. Portanto 0 logaritmo da verossimilhanc;a perfilada de (7"2e dada por logo 0 estimador de maxima verossimilhanc;a de (7"2e obtido como soluc;ao da equac;ao ,2 1~ - 2 U = - L..,,(Xi - X) , n i==l de modo que os estimadores de maxima verossimilhan<;a de fl e (J2 san dados, respectivamente, por _ 1 n p, = X = - LXi n i==l No caso multiparametrico, as mesmas propriedades como invariancia, fun<;ao da estatistica suficiente e outras, continuam valendo. 0 mesmo se aplica ao caso de varias amostras independentes, conforme ilustra 0 exemplo a seguir. Exemplo 3.4.2. Sejam Xl, ... , Xn uma amostra aleat6ria de X '" N(flx, (2) e Yl'''',Ym uma amostra aleat6ria de Y '" N(fly,U2). Nesse caso, B = (flx, fly, (2). Portanto a verossimilhan<;a correspondente a amostra observada e dada por L(B; x, y) = (~U) n (~U) m e-~ ~~=1(x;-/l,)2_~ ~::1(Yi-/ly)2, logo l(B ) (n + m) 1 2 (m + n) 1 2 ~ (Xi - flx)2; x, Y .= - 2 og 7r- 2 og U - L.." 2u2 ,==1 8l(B; x, y) _ ~( . _ ' ) _ 0o - L.." X, flx - , flx i==l ol(B; x, y) _ ~( . _ A ) _ 0- L.." Y, fly- Ofly j==l 8l(B;x,y) (m+n) 1 1 {~ ,2 ~ '2} Ou2 = - 2 3-2 + 23-4 ~(Xi - flx) + f;;;(Yj - fly) = 0, A2 2::~=1(Xi - X')2 + 2::;:1 (Yj - V)2 (Y = m+n 3.5 Familia Exponencial e 0 Metodo de Maxima Verossimilhan<;a 5e a distribuic;ao da variavel aleat6ria X pertence a familia exponencial unidi- mensional de distribuic;6es, entao 0 estimador de maxima verossimilha~.a de B baseado na amostra X = (Xl,' .. ,Xn) e soluc;ao da equa<;ao ~ • ~-1 des de que a soluc;ao pertenc;a ao espa<;o parametrico correspondente ao para- metro B. Esse resultado pode ser estendido para 0 caso k-parametrico em que os estimadores de maxima verossimilhanc;a de Bl, ... ,Bk seguem como soluc;6es das equa<;6es Exemplo 3.5.1. Consideremos uma populac;ao com 3 tip os de individuos de- nominados (rotulados) 1, 2, e 3, ocorrendo nas proporc;6es de Hardy-Weinberg o < B < 1. Por exemplo, p( 1;B) = B2 significa que a probabilidade de se observar um indivfduo do tipo 1 e B2. Para uma amostra de n = 3 individuos, se Xl = 1, X2 = 2 e X3 = I, onde Xl = 1 significa que 0 primeiro individuo observado e do tipo I, X2 = 2 significa que 0 segundo indivfduo observado e do tipo 2 e X3 = 1 significa que 0 terceiro indivfduo observado e do tipo 1, temos que a func;ao de verossimilhan<;a correspondente e dada por L(Bj x) = p(lj B)p(2; B)p(3; B) = 2B5(1 - B), de modo que de (3.1.3), f(B;x) = ~ - ~ =0 B I-B leva ao estimador fj 5/6 (verifique que ["(8; x) < 0). Em geral, para uma amostra de n individuos, sendo nl, n2, n3 0 numero de elementos de {Xl, ... , Xn} iguais a 1, 2 e 3, respectivamente, temos que Entao c(8) = log(8/(1 - 8)) e T(X) = 2N1 + N2 de modo que E[T(X)] = E[2N1 + N2] = 2n82 + 2n8(1 - 8) = 2n8. 2N1 + N2 = 2ne que produz 0 estimador e = (2N1 + N2)/2n. Exemplo 3.5.2. Consideremos (Xl, Yd, ... , (Xn, Yn) uma amostra aleat6ria da distribuic;ao normal bivariada dada no Exemplo 2.4.4, em que e obtida a estatistica suficiente T = (T1, T2, T3, T4, T5), com T1= 2:7=1 Xi, T2 = 2:7=1 Yi, T3 = 2:7=1 Xl, T4 = 2:7=1 Y?, T5 = 2:7=1 XiYi, para 8 = (/-Lx,/-Ly,(J;,(J~,p). Como E[Xi] = /-Lx, E[Yi] = /-Ly,E[XtJ = /-Li + (J;, E[Y?] = /-L~ + (J~ e E[XiYi] = /-Lx/-Ly+ P(Jx(Jy, i = 1, ... , n, segue que E[T1] = n/-Lx, E[T2] = n/-Ly, E[T3] = n/-L; + n(J;, E[T4] = n/-L~+ n(J~ e E[T5] = n/-Lx/-Ly+ n(J;(J~, entao de (3.5.2), temos que 0 estimador de maxima verossimilhanc;a de 8 tern componentes dadas pelas expressoes (2.4.6) e (2.4.7). o metodo dos momentos e urn dos metodos de estimac;ao mais simples e antigos. Esse metodo tern sido utilizado desde 0 seculo XVIII. Seja 1 n mr = - EX;' n i=l r ~ 1, 0 r-esimo momento populacional. 0 metodo dos moment os consiste na obtenc;ao de estimadores para 8 = (81, ... ,8k) resolvendo-se as equac;oes Exemplo 3.6.1. Consideremos novamente 0 problema da estimac;ao do numero de taxis em uma cidade. Sendo N 0 numero de taxis, vimos que 1 P[Xi = k] = 1'\/' k = 1, ... ,N,' onde Xi e 0 numero do i-esimo taxi observado. Como 0 primeiro momento populacional e dado por N+1 f.1l = E[X] = -2-' temos que urn estimador para N, utilizando-se os primeiros momentos popula- cional e amostral, e dado pela solU<;aoda equa<;ao , - "N = 2X-1. Notemos que, nesse caso, 0 estimador obtido pelo metodo dos momentos ILi;i,o e fun<;aQd<:t estatistica s!1ficiente X(n)' Exemplo 3.6.2. Sejam Xl, ... ,Xn. uma amostra aleatoria da distribui<;ao da variavel aleatoria X, com densidade gama com parametros a e /3 dados por /3cxxCX-le-/3x f(xla,/3)= r(a) , x>O,a>O,/3>O. a a E[X] = e e Var[X] = /32' temos que estimadores para a e /3 saD obtidos como solu<;ao das equa<;6es a 1 n -;:= - '2:Xi ~ . n i=l -2 , X a = (j2 ' , X e /3 = ';:z, (J onde (j2 2:~=1(Xi - X)2 In, como antes. Nesse caso, nao e possivel obter- mos estiinadores de maxima verossimilhan<;a explicitos para a e /3. Metodos computacionais como 0 metodo do escore consider ado na Se<;ao 3.1 devem ser utilizados. Como valores iniciais para esses metodos computacionais, podemos utilizar os estimadores dados por (3.6.1). Notemos tambem que os estimadores dados por (3.6.1) nao saD fun<;6es da estatistica conjuntamente suficiente, que nesse caso e dada por (TI~=lXi, 2:~=1Xi)' Os metodos de estima<;ao considerados nest a se<;ao produzem, em geral, esti- madores consistentes, ou seja, a medida que 0 tamanho da amostra aumenta, os estimadores ficam tao proximos do panlmetro que esta sendo estimado quanta desejado. Consistencia esta ligada ao conceito de convergencia em probabilida- de (veja James, 1981). Definic;ao 3.7.1. Sejam Xl, ... ,Xn uma amostra aleat6ria da distribuir;iio da variavel aleat6ria X que depende do parametro O. Dizemos que 0 estimador B = B(X I, ... , Xn) e consistente para 0 parametro 0, se, Em geral, usamos a desigualdade de Chebyshev (veja James,1981) para a veri- fica<;ao dessa propriedade. Exemplo 3.7.1. Sejam Xl .... ,Xn uma amostra aleatoria de tamanho n da distribui<;ao da variavel aleatoria X com media 0 e variancia a2. Temos, usando a desigualdade de Chebyshev, que limn~ooP(IX - 01 > €) = 0, e portanto X e consistente para O. 3.1. Sejam Xl,"" Xn uma amostra aleatoria da variavel aleatoria X com fun<;ao de densidade de probabilidade o f(xIO) = 2' x 2: 0, 0> O. x 3.2. Sejam Xl"" ,Xn uma amostra aleatoria de tamanho n da variavel aleatoria X com fun<;ao de densidade de probabilidade dada por • f(xIO) = OxO-I, 0 < x < 1,0 > O. (i) Encontre os estimadores de maxima verossimilhan<;a de 0 e de g(O) = 0/(1+ 0). (ii) Encontre a distribui<;ao aproximada dos estimadores em (i) quando n e grande. 3.3. Sejam Xl, ... ,Xn' uma amostra aleat6ria da variavel aleat6ria X ~ N(/-L, 1). Encontre 0 estimador de maxima verossimilhanc;a de g(/-f) = PJ.LIX > 0] . e sua distribuic;ao aproximada quando n e grande. 3.4. Sejam Xl, .. " Xn uma amostra aleat6ria de tamanho n da variavel aleat6ria X com func;ao de densidade de probabilidade dada por f(xIB) = ; e-x/8, x 2: 0, B > O. (i) Encontre 0 estimador de maxima verossimilhanc;a de B e verifique se ele e eficiente. (ii) Encontre 0 estimador de maxima verossimilhanc;a de Var[X]e Ccontre sua distribui<;ao aproximada em grandes amostras. ~, 3.5. Encontre a distl}buic;ao aproximada para grandes amostras do estimador de maxima verossimilhan<;a de .p( -8), considerado no Exemplo 3.2.2. 3.6. Encontre 0 estimador de maxima verossimilhanc;a de 82 no Exercicio 2.9 e compare seu erro quadratico medio com 0 do estimador eficiente l' dado no Exercicio 2.9, (i). 3.7: Considere uma amostra aleat6ria de tamanho n da distribui<;ao da variavel aleat6ria X onde cada observa<;ao apresenta urn de tres resultados possfveis (por exemplo, favonivel, contra e indiferente), que denotamos por "0", "I" e "2". Suponhamos que a probabilidade de "0" e Pl = (1 - 8)/2, a probabilidade da ocorrencia do resultado "I" e P2 = 1/2 e do resultado "2" e P3 = 8/2. Seja nl: o numero de vezes que "0" ocorre, n2: 0 numero de vezes que "I" ocone e n3: o numero de vezes que 0 "2" ocorre. (i) Encontre, como fun<;ao de nl, n2, n3, uma estatfsticasuficiente para B. (ii) Encontre 0 estimador de maxima verossimilhanc;a de B. 3.8. Sejam Xl, ... , Xn uma amostra aleat6ria de tamanho n da variavel aleat6ria X com func;ao de densidade de probabilidade dada por (i) Encontre, usando 0 metodo dos momentos, urn estimador para E[X]. (ii) Encontre 0 estimador de maxima verossimilhanc;a de B e sua distribuic;ao aproximada em grandes amostras. 3.9. Sejam Xl,.'" Xn uma amostra aleat6ria de tamanho n da variavel X com fun<;ao de densidade de probabilidade dada por (x-a) 1 (x-a) -e - fJ f(xIB) = _e--fJ-e (3 (i) Encontre a distribui<;ao de Y = eX. (ii) Discuta a obten<;ao do estimador de maxima verossimilhan<;a para (3, quan- do a = O. (iii) Encontre estatfsticas conjuntamente suficientes para a e (3. (iv) Discuta a obten<;ao dos estimadores de maxima verossimilhan<;a para a e (3 e verifique se sac fun<;6es das estatfsticas obtidas em (iii). (v) Usando (i), gere uma amostra aleat6ria de tamanho n =20 da variavel aleat6ria Y. A partir desta amostra, obtenha uma amostra de tamanho n=20 para a variav€l aleat6ria X e usando urn programa de computador, obtenha os estimadores de maxima verossimilhan<;a de a e (3. 3.10. Sejam Xl, ... ,Xn uma: amostra aleat6ria de tamanho n da variavel aleat6ria X com fun<;ao de densidade de probabilidade f( 18) = (x + 1) -x/9 0 8 0x 8(8 + 1)e , x > , > . (i) Encontre 0 estimador de maxima verossimilhan<;a para 8 e sua distribui<;ao em grandes amostras. (ii) Obtenha urn estimador para 8 usando 0 metodo dos momentos. 3.11. Refa<;a 0 Exercfcio 3.7 supondo agora que PI = 82, P2 = 28(1 - 8) e P3 = (1 - 8)2. 3.12. Sejam Xl, ... ,Xn uma amostra aleat6ria de tamanho n da distribui<;ao N(0,0'2). Encontre 0 estimador de maxima verossimilhan<;a de 0' e sua .dis- tribui<;ao em grandes amostras. 3.13. Sejam Xl, ... , Xn uma amostra aleat6ria da variavel aleat6ria X com distribui<;ao exponencial com parametro 8. Encontre 0 estimador de maxima verossimilhn<;a de g(8) = PIX > 1] e sua distribui<;ao aproximada quando n for grande. 3.14. Sejam Xl, ... , Xn uma amostra aleat6fia da variavel aleat6ria X com fun<;ao de densidade de probabilidade Weibull dada'. por f(xI8, a) = 8axa-Ie-9x"; x, a, 8 > O. (i) Suponha que a seja conhecido. Encontre 0 estimador de maxima verossimi- lhan<;a de 8 e sua distribui<;ao aproximada para quando n for grande. (ii) Suponha agora que 8 e a sac desconhecidos. Encontre as equa<;6es de verossimilhan<;a para os dois parametros. Proponha urn procedimento iterativo para encontrar os estimadores de maxima verossimilhan<;a dos dois parametliOs. Discuta a implementa<;ao do procedimento no computador. (iii) Gere uma amostra com n = 10 elementos da: distribui<;ao de X assumindo que a = 8 = 1. Usando 0 procedimento iterativo em (ii), obtenha estimadores
Compartilhar