Baixe o app para aproveitar ainda mais
Prévia do material em texto
Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 1 ECO 1721 – Introdução à Estatística Econômica UNIDADE II – Inferência Estatística 8. Conceitos Fundamentais da Inferência e Estimação de Parâmetros Referências: Resumo Teórico 8, Rice – Cap. 6, Cap.7 e Cap. 8, Montgomery e Runger – Cap. 6, Cap. 7 e Cap. 8, Larson – Cap. 6 e Cap. 7 e Meyer – Cap. 13 e Cap. 14 Conceitos Fundamentais de Inferência Estatística (RT 8 – Seções 8.1 a 8.7) Exemplo 1 Certa universidade tem 10.000 alunos matriculados em todos os seus cursos. A reitoria da universidade está planejando uma ampliação do parque de estacionamento. Para tanto, pretende realizar uma pesquisa com o propósito de apurar qual é a proporção de alunos que utilizam carros próprios para frequentar seus respectivos cursos, de modo a melhor dimensionar a área de estacionamento. Ao invés de realizar uma pesquisa exaustiva, planeja-se coletar uma amostra de 1.000 alunos para poder estimar a proporção desejada. Nesse caso, tem-se: a) a população alvo da pesquisa é o conjunto formado pelos 10.000 alunos matriculados na universidade; b) a população é finita e tem tamanho N = 10.000 c) a característica de interesse é o atributo A = “o aluno frequenta a universidade com carro próprio”; d) a função que expressa matematicamente a característica de interesse é definida por: g :C W {0,1} onde i 0, se A ="o aluno não frequenta a universidade com carro próprio" g(c ) 1, se A = "o aluno frequenta a universidade com carro próprio" para i = 1, 2, 3, ... , 10.000 e) a população matriz considerada é W = {0, 1}; f) o universo considerado é a variável aleatória X que representa o valor eventual da característica de interesse para um aluno selecionado ao acaso dentre o conjunto de matriculados e pode ser definido por Juliana Realce Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 2 0, se A ="o aluno não frequenta a universidade com carro próprio" X 1, se A = "o aluno frequenta a universidade com carro próprio" g) supondo que um número total AN de alunos frequentam a universidade com carro próprio, a proporção desses alunos, a ser estimada, é expressa por ANp N ; h) admitindo-se que a seleção da amostra de alunos é realizada com igual probabilidade de seleção para todos os alunos matriculados, então o universo X tem distribuição de Bernoulli de parâmetro p acima definido; ou seja, a sua função de probabilidade é X q 1-p, se x 0 p (x) p , se x 1 i) a amostra aleatória de tamanho n = 1.000 a ser selecionada é a variável aleatória n- dimensional 1 2 3 nX ,X ,X ,...,X com n = 1.000; j) Se for empregada como estatística para realizar a estimação pretendida a proporção amostral, definida por n i i=1 1 pˆ Y X n com n = 1.000; k) Admitindo-se que a seleção de alunos para integrar a amostra é realizada sem reposição, a distribuição amostral da estatística acima é A A y n y N N N Y n N C 1 2 3 P Y y p (y) , para y 0, , , , ...,1 com n 1000 C n n n C (admitindo-se que mais do que 1.000 alunos frequentem a universidade com carro próprio, isto é que AN > 1.000) Note-se que essa distribuição é similar à distribuição hipergeométrica. Se a seleção de alunos para compor a amostra fosse realizada com reposição a distribuição amostral da estatística seria y n y y A A Y n N N 1 2 3 P Y y p (y) 1 , para y 0, , , , ...,1 com n 1000 N N n n n C Note-se que essa distribuição é similar à distribuição binomial. Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 3 População, Característica, População Matriz, Universo e Parâmetro Populacional Exemplo 2 Exemplo 2a Em certa região existem 532 empresas que atuam em certo setor econômico. Uma pesquisa por amostragem está sendo planejada para examinar a receita mensal média das empresas ocorrida em certo mês. Então: a) A população que é objeto de pesquisa é o conjunto formado pelas empresas daquele setor econômico considerado naquela região; é finita e o seu tamanho é N = 532. b) A característica de interesse é a receita mensal no mês de referência da pesquisa. c) Suponha-se que todas as empresas são listadas. Denotando por ia o valor da receita mensal (nesse mês de referência) para a i-ésima empresa da lista, a população matriz é 1 2 3 532W a ,a ,a ,...,a . d) Nesse caso, a população é finita e a característica de interesse é fixa. Assim sendo, podem ser definidos os seguintes parâmetros populacionais: i) Receita média: 532 i i=1 1 μ a 532 ii) Receita total: 532 i i=1 τ a iii) Variância da receita: 532 532 22 2 2 i i i=1 i=1 1 1 σ a μ a μ 532 532 Isto é, nesse caso os parâmetros são definidos em função dos valores (fixos e desconhecidos) da característica – receita mensal – considerando-se todos os valores populacionais. e) O universo é a variável aleatória que representa o valor eventual da receita mensal de uma empresa selecionada ao acaso da população. f) O parâmetro considerado é a média do universo (receita média mensal). Exemplo 2b Certa máquina produz peças de determinado tipo. Admita-se que haja interesse em avaliar a probabilidade, p, dessa máquina produzir uma peça defeituosa. Para tanto será selecionada uma amostra de n peças dessa máquina, escolhidas ao acaso da produção. a) A população considerada é o conjunto formado por todas as peças daquele tipo possíveis de serem fabricadas pela máquina. Nesse caso a população é infinita. Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 4 b) A característica de interesse é o atributo dicotômico - possuir ou não defeito – das peças. c) Associando-se o valor 0 a uma peça produzida sem defeito e o valor 1 a uma peça defeituosa, a população matriz nesse caso é W 0,1 . d) O parâmetro populacional que apresenta interesse é definido a partir da distribuição de probabilidade do universo, X. e) No caso, o universo considerado tem distribuição de Bernoulli e a sua função de probabilidade é expressa por X q 1 p , se x 0 p (x) p , se x 1 onde p é a probabilidade de uma peça ter defeito f) Lembrando que a média (expectância) de uma distribuição de Bernoulli é E X p , verifica-se que o parâmetro de interesse é a média do universo. Exemplo 2c Certa indústria produz lâmpadas de um determinado tipo. Admita-se que haja interesse em conhecer o tempo de vida médio dessas lâmpadas. a) Nesse caso, também, a população considerada é infinita pois é o conjunto formado por todas as lâmpadas daquele tipo possíveis de serem fabricadas pelo processo de fabricação adotado. b) A característica de interesse é o tempo de duração das lâmpadas, logo é uma característica variável. c) O universo é a variável aleatória que representa o valor eventual do tempo de vida de uma lâmpada daquele tipo. d) O parâmetro de interesse somente pode ser definido em termos da distribuição de probabilidade do universo. Seja Tf (t) a função de densidade de probabilidade (desconhecida) do universo considerado. Então, o referido parâmetro é a média(expectância) desse universo. Ou seja, T T R μ E T t f (t)dt Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 5 Estimadores e Propriedades dos Estimadores (RT 8 – Seções 8.8 a 8.12) Exemplo 3 Seja 1 2 3X ,X ,X uma amostra aleatória de tamanho 3 de um universo X de média μ e variância 2σ . Para os seguintes estimadores da média, μ , do universo, determinar a expectância, a tendenciosidade, a variância e o erro quadrático médio: a) 1 1μˆ X b) 2 1 2μˆ 3X -X c) 3 1 2 1 μˆ X +X 2 d) 4 1 2 3 1 μˆ X +X X 3 Solução: a) 1 1ˆE(μ ) E X E(X) μ 1 1 ˆ ˆ(μ ) E(μ ) μ μ μ 0t (o estimador é não tendencioso) 21 1ˆV(μ ) V X V(X) σ 2 2 1 1 1 ˆ ˆ ˆEQM(μ ) V(μ ) (μ ) σt b) 2 1 2 1 2 ˆE(μ ) E(3X X ) 3E(X ) E(X ) 3μ μ 2μ 2 2 ˆ ˆ(μ ) E(μ ) μ 2μ μ μ 0t (o estimador é tendencioso) 2 2 2 2 1 2 1 2 ˆV(μ ) V(3X X ) 9V(X ) V(X ) 9σ σ 10σ 2 2 2 2 2 2 ˆ ˆ ˆEQM(μ ) V(μ ) (μ ) 10σ μt c) 3 1 2 1 2 1 1 1 1 ˆE(μ ) E (X X ) E(X ) E(X ) μ μ 2μ μ 2 2 2 2 3 3 ˆ ˆ(μ ) E(μ ) μ μ μ 0t (o estimador é não tendencioso) Juliana Realce Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 6 2 2 2 23 1 2 1 2 1 1 1 1 1 ˆV(μ ) V (X X ) V(X ) V(X ) σ σ 2σ σ 2 4 4 4 2 2 2 3 3 3 1 ˆ ˆ ˆEQM(μ ) V(μ ) (μ ) σ 2 t d) 4 1 2 3 1 2 3 1 1 1 ˆE(μ ) E (X X X ) E(X ) E(X ) E(X ) 3μ μ 3 3 3 4 4 ˆ ˆ(μ ) E(μ ) μ μ μ 0t (o estimador é não tendencioso) 2 24 1 2 3 1 2 3 1 1 1 1 ˆV(μ ) V (X X X ) V(X ) V(X ) V(X ) 3σ σ 3 9 9 3 2 2 4 4 4 1 ˆ ˆ ˆEQM(μ ) V(μ ) (μ ) σ 3 t Propriedades Assintóticas dos Estimadores e Análise de Convergência (RT 8 – Seções 8.13 a 8.15) Exemplo 4 Seja 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de tamanho n de um universo X de média μ e variância 2σ . Para os seguintes estimadores da média, μ , do universo, verificar quais são assintoticamente não tendenciosos e quais são convergentes em média quadrática: a) 1 1 n μˆ X n 1 b) n 2 1 j j 2 n 1 μˆ X X n 1 n 1 c) n 3 2 3 j j 1 1 1 μˆ X X X 2 n Solução Juliana Realce Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 7 a) 1 1 n n ˆE(μ ) E(X ) μ n 1 n 1 1 1 n n 1+1 1 1 ˆ ˆ(μ ) E(μ ) μ μ μ μ μ μ + μ μ μ n 1 n 1 n 1 n 1 t 2 2 2 1 1 n n ˆV(μ ) V(X ) σ n 1 n 1 2 2 2 2 1 1 1 2 n 1 ˆ ˆ ˆEQM(μ ) = V(μ ) + (μ ) = σ + μ n 1 (n 1) t 1 n n 1 ˆlim (μ ) lim μ 0 n 1 t O estimador é assintoticamente não tendencioso. 2 2 2 1 2n n n ˆlim V(μ ) lim σ = σ 0 (n 1) O estimador não é convergente (consistente) em média quadrática. ---------------------------------------------------------------------------------------------------------- b) n 2 1 j j=2 n 1 n 1 n ˆE(μ ) E(X ) E(X ) μ (n 1)μ μ μ n 1 n 1 n 1 n 1 n 1 2 2 n n ˆ ˆ(μ ) E(μ ) μ μ + μ μ μ n 1 n 1 t 2 2 2 n 2 2 2 1 j 2 j 2 n 1 n 1 ˆV(μ ) V(X ) V(X ) σ + n 1 σ n 1 n 1 n 1 n 1 2 2 2 2 2 n 1 ˆV(μ ) = σ + σ n 1n 1 2 2 2 2 2 2 2 2 2 2 2 n 1 n ˆ ˆ ˆEQM(μ ) V(μ ) (μ ) σ + σ + μ n 1n 1 n 1 t Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 8 2 n n n ˆlim (μ ) lim μ μ 0 n 1 t O estimador não é assintoticamente não tendencioso. 2 2 2 2 2 2 2n n n 1 ˆlim V(μ ) lim σ σ σ 0 (n 1) (n 1) O estimador não é convergente (consistente) em média quadrática. ---------------------------------------------------------------------------------------------------------- c) n n 3 2 3 j j=1 j=1 1 1 1 1 ˆE(μ ) E(X ) E(X ) E(X ) μ +μ μ 2 n 2 n 1 1 2μ + nμ =μ +μ = 2μ 2 n 3 3 ˆ ˆ(μ ) E(μ ) μ 2μ μ μ 0t n n 3 2 3 j 2 3 j2 j 1 j=1 1 1 1 1 ˆV(μ ) V(X )+V(X ) V(X ) 2 Cov X X , X 4 n 2 n n n 2 2 2 j 3 j2 j=1 j=1 1 1 1 2σ + n σ Cov X , X Cov X , X 4 n n n n 2 2 2 j 3 j j=1 j 1 1 1 1 σ + σ Cov X ,X Cov X ,X 2 n n 2 2 2 2 2 2 2 1 1 1 1 1 2 σ + σ + σ +σ = σ + σ + σ 2 n n 2 n n 2 2 21 3 1 3σ + σ = + σ 2 n 2 n Cálculo alternativo para a variância (método indireto) A expressão do estimador pode ser reescrita como n n 3 2 3 j 1 2 3 j j 1 j=4 1 1 1 1 1 1 1 1 μˆ X X X X + X + X X 2 n n 2 n 2 n n Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 9 Então 2 2 n 3 1 2 3 j2 2 j=4 1 n 1 n 1 1 ˆV(μ ) V(X )+ V(X ) V(X ) V(X ) n 2n 2n n 2 2 n 2 2 2 2 3 2 2 j=4 1 n 1 n 1 1 ˆV(μ )= σ + σ + σ + σ n 2n 2n n 222 2 2 2 2 3 2 2 2 2 n +11 n 1 n 3 n 2 ˆV(μ ) = σ +2 σ + σ = σ + σ n 2n n n 2n 2 2 2 3 3 3 1 3 ˆ ˆ ˆEQM(μ ) = V(μ ) + (μ ) = σ + μ 2 n t 3 n n ˆlim (μ ) lim μ μ 0t O estimador não é assintoticamente não tendencioso. 2 2 3 n n 1 3 1 ˆlim V(μ ) lim σ = σ 0 2 n 2 O estimador não é convergente (consistente) em média quadrática. Exemplo 5 Seja 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de tamanho n de um universo X de média μ e variância 2σ . Mostrar que a média aritmética amostral, definida por n j j 1 1 X X n é um estimador não tendencioso e convergente da média μ do universo X. Solução a) a média aritmética amostral, X , é um estimador não tendencioso n n n j j j 1 j 1 j 1 1 1 1 1 E X E X E X μ nμ μ n n n n b) a média aritmética amostral, X , é um estimador convergente pois: Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatísticae Estimação 10 b-i) como é não tendencioso, é assintoticamente não tendencioso; e, além disso, b-ii) a variância de X é n n n 2 2 2 j j2 2 2 j 1 j 1 j 1 1 1 1 1 1 V X V X V X σ n σ σ n n n n n Logo, no limite quando o tamanho da amostra tende a infinito, a variância tende para zero 2 n n 1 lim V X lim σ 0 n Portanto, a média aritmética amostral, X , é um estimador não tendencioso e convergente em média quadrática da média μ do universo X. Por essa razão esse é o estimador usualmente empregado na estimação da média de um universo X. Exemplo 6 [Convergência em Probabilidade] Seja 1 2 3 nX ,X ,X ,...,X uma amostra aleatória de tamanho n de um universo X de média μ e variância 2σ . Mostrar que a média aritmética amostral, definida por n j j 1 1 X X n é um estimador convergente em probabilidade da média μ do universo X. Solução A média aritmética amostral, X , é um estimador convergente em probabilidade de μ se n lim P X μ 1 qualquer que seja 0ε ε Seja um ε > 0 qualquer, então existe algum k > 0 tal que ε k σ , logo XP X μ P X μ k σε e pela desigualdade de Chebychev segue X 2 1 P X μ k σ 1 k Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 11 Ou seja, como ε k σ , tem-se X 2 2 X 1 P X μ k σ 1 ε σ donde 2 X 2 σ P X μ ε 1 ε Por outro lado, como 2 2 X σ σ n decorre que 2 2 σ P X μ ε 1 n ε Agora, fazendo a passagem ao limite quando n decorre 2 2n n σ lim P X μ ε lim 1 n ε Mas 2 2 2 2n n σ σ lim 1 1 lim 1 0 1 n ε n ε Logo n lim P X μ ε 1 (1) Concomitantemente, a probabilidade de qualquer evento é menor ou igual a 1, e assim n P X μ ε 1 consequentemente lim P X μ ε 1 (2) Portanto, de (1) e (2) acima conclui-se que n lim P X μ ε 1 Exemplo 7 [Estimador da variância] Sejam um universo X de média μ e variância 2σ e 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de X. Sejam os dois seguintes estimadores da variância de X: Juliana Realce Juliana Realce Juliana Realce Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 12 i) segundo momento central amostral n n 2 2 2 2 j j j=1 j 1 1 1 M' X X X X n n ii) variância amostral n n 2 2 2 2 j j 2 j=1 j 1 1 n 1 n S X X X X M' n 1 n 1 n n 1 Verificar se os dois estimadores são tendenciosos; e considerando que a variância de 2S é expressa por 2 2 2 2 4 2 4 2 4 22 2 2 2(μ' 2μ' ) μ' 3μ'n V S μ' μ' (n 1) (n 1) n (n 1) onde k kμ' E X E(X) é o k-ésimo momento central, em relação à média, do universo X, verificar também se os estimadores são convergentes em média quadrática. Solução a) n n 2 2 2 2 j j j=1 j=1 1 1 E M' E X X E X X n n n 2 2 j j=1 1 E X E X n Mas 2 2 2 2i i iE X V X E X σ μ e 2 2 2σE X V X E X μ n Assim, por substituição dos resultados acima no desenvolvimento anterior tem-se 22 2n 2 2 2 2 2 2 2 j=1 n 1 σ1 σ σ E M' σ μ μ n σ μ μ n n n n n logo 2 2 2 n 1 σ n 1 E M' σ n n Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 13 O que mostra ser esse estimador tendencioso. Porém, é fácil verificar que ele é assintoticamente não tendencioso 2 2 2 n n n 1 lim E M' lim σ σ n Por outro lado, também é fácil verificar que sendo definido n n 2 2 2 2 j j 2 j=1 j 1 1 n 1 n S X X X X M' n 1 n 1 n n 1 Então, decorre imediatamente que 2 2 22 n n n 1 E S E M' σ σ n 1 n 1 n e assim a variância amostral 2S é um estimador não tendencioso da variância do universo. b) Examinado a expressão da variância da variância amostral, é fácil perceber que 2 2 2 2 4 2 4 2 4 22 2 2n n 2(μ' 2μ' ) μ' 3μ'n lim V S lim μ' μ' 0 (n 1) (n 1) n (n 1) portanto 2S é um estimador convergente em média quadrática. Por outro lado, como 2 2 n 1 M' S n então 2 2 2 n 1 V M' V S n e consequentemente 2 2 2 n n n 1 lim V M' lim V S 0 n Logo o estimador 2M' também é convergente em média quadrática. Exemplo 8 [ Outro exemplo de análise de estimador linear da média] Seja 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de tamanho n de um universo X de média μ e variância 2σ . Seja o seguinte estimador da média do universo Juliana Realce Juliana Realce Juliana Realce Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 14 n 2 3 j j 1 1 1 μˆ X X X 2n n Determinar a tendenciosidade, a variância e o erro quadrático médio desse estimador; e, também, verificar se ele é convergente em média quadrática. Solução n n 2 3 j j=1 j=1 1 1 1 1 ˆE(μ) E(X ) E(X ) E(X ) μ +μ μ 2n n 2n n 1 1 1 2μ + nμ μ +μ 2n n n 1 1 ˆ ˆ(μ) E(μ) μ μ μ μ μ 0 n n t n n 2 3 j 2 3 j2 2 j 1 j=1 1 1 1 1 ˆV(μ) V(X )+V(X ) V(X ) 2 Cov X X , X 4n n 2n n n n 2 2 2 j 3 j2 2 2 j=1 j=1 1 1 1 2σ + n σ Cov X , X Cov X , X 4n n n n n 2 2 2 j 3 j2 2 j=1 j 1 1 1 1 σ + σ Cov X ,X Cov X ,X 2n n n 2 2 2 2 2 2 22 2 2 2 1 1 1 1 1 2 σ + σ + σ +σ σ + σ + σ 2n n n 2n n n 2 2 2 2 2 2 2 5 1 5 1 2n 5 σ + σ + σ σ 2n n 2n n 2n Cálculo alternativo para a variância (método indireto) A expressão do estimador pode ser reescrita como n n 2 3 j 1 2 3 jj 1 j=4 1 1 1 1 1 1 1 1 μˆ X X X X + X + X X 2n n n 2n n 2n n n Então Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 15 2 2 n 1 2 3 j2 2 j=4 1 3 3 1 ˆV(μ) V(X )+ V(X ) V(X ) V(X ) n 2n 2n n 2 2 n 2 2 2 2 2 2 j=4 1 3 3 1 ˆV(μ) = σ + σ + σ + σ n 2n 2n n 2 2 2 2 2 2 2 2 2 2 2 2 2 2 1 9 n 3 22 n 3 4n 10 2n 5 ˆV(μ) = σ 2 σ σ σ σ σ σ n 4n n 4n n 4n 2n 2 2 2 2 2 2n 5 1 ˆ ˆ ˆEQM(μ) = V(μ) + (μ) = σ + μ 2n n t n n 1 ˆlim (μ) lim μ 0 n t O estimador é assintoticamente não tendencioso. Além disso, 2 2n n 2n 5 ˆlim V(μ) lim σ 0 2n Portanto, o estimador é convergente (consistente) em média quadrática. Exemplo 9 [Tendenciosidade e Eficiência Relativa] Seja X um universo com distribuição exponencial de parâmetro 1 θ e seja 1 2X ,X uma amostra aleatória de tamanho 2 desse universo. Considerem-se os dois seguintes estimadores da média do universo X: i) 1 2 1 μˆ X X X 2 a média aritmética amostral ii) 1 2μˆ X X X a média geométrica amostral Verificar que a média aritmética é um estimador não tendencioso enquanto a média geométrica é um estimador tendencioso. Corrigir a tendenciosidade do estimador média geométrica por meio de uma constante adequadamente escolhida. Calcular as variâncias dos dois estimadores – a média aritmética e a média geométrica corrigida da tendenciosidade e verificar qual desses dois estimadores é o mais eficiente. Solução A função de densidade de probabilidade de X é Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 16 x θ 1 f(x) , para x 0 θ e E além disso tem-se que 1 μ E X θ 1 θ e 2 2 2 1 σ V X θ 1 θ Portanto, segue: a) 2 2 2 2 1 1 1 1 E X μ +μ μ θ e V X σ +σ σ θ 2 4 2 2 b) 1 2 1 2E X E X X E X E X 1 2Mas E X E X E X donde 2 E X E X Como x x1 θ θ2 0 0 1 1 E X x dx x dx θ θ e e Fazendo a substituição x u θ donde dx θdu segue 1 1 u u2 2 0 0 πθ1 3 1 1 1 E X θ u θdu θ u du θ θ θ π θ 2 2 2 2 2 e e Logo 2 2 πθ πθ E X E X θ 2 4 e assim o estimador é tendencioso; porém, como é fácil perceber, o estimador 4 X' X π é não tendencioso, isto é 4 π E X' θ θ π 4 Além disso 22 2 1 2 1 2 1 22 2 2 2 16 16 16 16 E X' E X E X X E X X E X E X π π π π Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 17 ou seja 2 2 2 2 16 16 E X' θ.θ θ π π donde a variância desse estimador é 2 2 2 2 2 2 2 2 16 16 V X' E X' E X' θ θ 1 θ 0,621θ π π Como 2 2 1 V X θ 0,5θ 2 verifica-se que V X V X' e, portanto, a média aritmética é o estimador mais eficiente. Exemplo 10. [Desigualdade de Cramer-Rao] Sejam X um universo com distribuição de Poisson de parâmetro α e 1 2 3 nX ,X ,X ,...,X uma amostra aleatória de tamanho n desse universo. Determinar o limite inferior de Cramer-Rao para a variância dos estimadores não tendenciosos de X. Solução A função de probabilidade de X é α xα p(x) , para x 0,1,2,... x! e E além disso tem-se que 2μ E X α V X σ Desse modo, tem-se α xα ln p(x) ln α + x ln α ln x! x! e Portanto, 1 x α ln p(x) 1+ x α α α e assim 2 2 22 2 2 X α 1 1 E ln p(X) E E X α E X E X V X α α α α α Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 18 Consequentemente, O limite inferior de Cramer-Rao (LICR) é 2 1 1 α LICR 1 n n n E ln p(X) α α Considerando que a média aritmética amostral é um estimador não tendencioso da média do universo e que 2σ α V X LICR n n verifica-se que X é o estimador mais eficiente da média do universo X. Exemplo 11. [Desigualdade de Cramer-Rao] Seja X um universo com distribuição exponencial de parâmetro igual a 1 θ e seja 1 2 3 nX ,X ,X ,...,X uma amostra aleatória de tamanho n desse universo. Determinar o limite inferior de Cramer-Rao para a variância dos estimadores não tendenciosos de X e verificar que esse estimador é eficiente. Solução A função de densidade de probabilidade de X é x θ 1 f(x) , para x 0 θ e E além disso tem-se que 1 μ E X θ 1 θ e 2 2 2 1 σ V X θ 1 θ Desse modo, tem-se x 1θ θ 1 x ln f(x) ln ln θ ln θ θ θ x e e Portanto, 2 2 1 x x θ ln f(x) + θ θ θ θ Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 19 E consequentemente 2 2 2 2 2 4 4 4 2 X θ 1 1 θ 1 E ln f(X) E E X θ V X θ θ θ θ θ θ Assim, tem-se que o LICR é 2 2 2 1 1 θ LICR 1 n n n E ln f(X) θ θ Finalmente, assim como no caso anterior, verifica-se que a média aritmética amostral, X , é o estimador mais eficiente da média de X, pois 2 2σ θ V X LICR n n Exemplo 12 [Estatística Suficiente] Sejam X um universo com distribuição de Bernoulli de parâmetro p = 0,5 e 1 2X ,X uma amostra aleatória de tamanho 2 desse universo. Seja T a estatística que representa a soma dos valores obtidos na amostra. Verificar, por condicionamento aos valores da sua distribuição, que T é uma estatística suficiente para o parâmetro p. Solução Inicialmente, observe-se que a estatística T somente pode assumir três valores possíveis: T = 0, T = 1 e T = 2. Portanto, condicionando-se aos três valores possíveis de T segue: i) a distribuição de 1 2X ,X dado que T = 0 é 1 2P X 0,X 0 |T 0 1 e por outro lado 1 2P X 0,X 1 |T 0 0 , 1 2P X 1,X 0 |T 0 0 e 1 2P X 1,X 1 |T 0 0 ii) a distribuição de 1 2X ,X dado que T = 1 é 1 2P X 0,X 0 |T 1 0 e 1 2P X 1,X 1 |T 1 0 mas por outro lado, 1 2 1 P X 0,X 1 |T 1 2 e 1 2 1 P X 1,X 0 |T 1 2 Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 20 iii) a distribuição de 1 2X ,X dado que T = 2 é 1 2P X 1,X 1 |T 2 1 e poroutro lado 1 2P X 0,X 1 |T 2 0 , 1 2P X 1,X 0 |T 2 0 e 1 2P X 0,X 0 |T 2 0 Nenhum desses valores depende do parâmetro p. Assim sendo, a distribuição de 1 2X ,X |T p não depende de p e, portanto, a estatística T é suficiente. Exemplo 13 [Estatística Suficiente] Seja X um universo com distribuição de Bernoulli de parâmetro p e 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de tamanho n de X. Mostrar, por condicionamento, que a estatística n j j 1 T X é suficiente para o parâmetro p. Solução A função de probabilidade do universo X é x 1 x Xp (x) p (1 p) para x 0,1 Portanto, a distribuição de probabilidade da amostra aleatória 1 2 3 nX ,X ,X ,...,X é expressa por n n i i i=1 i=1 1 2 n x n x 1 1 2 2 3 3 n n X X ...X 1 2 nP X x ,X x ,X x ,...,X x p (x ,x ,...,x ) p (1 p) Considere-se agora uma determinação qualquer da amostra, 1 2 3 nx , x , x ,..., x ; então o valor de T associado a essa determinação amostral é n j j 1 t x e portanto n 1 1 2 2 3 3 n n i i=1 P X x ,X x ,X x ,...,X x | t x n 1 1 2 2 3 3 n n i t n t i=1 t t n t tn n n i i=1 P X x ,X x ,X x ,...,X x t x p (1 p) 1 p (1 p) P x t C C Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 21 t n t n it n t t i=1n p (1 p) 1 se x t p (1 p) C Como se pode verificar examinando a expressão acima, o resultado não depende do parâmetro p, o que significa que o número total de sucessos, n j j 1 t x , contém toda a informação sobre o parâmetro p desconhecido e portanto a estatística n j j 1 T X é suficiente para p. Exemplo 14 [Estatística Suficiente] Reconsidere-se o exercício anterior. Mostre agora pelo teorema da fatoração que a estatística T é suficiente para o parâmetro p. Solução A função de probabilidade do universo X é x 1 x Xp (x) p (1 p) para x 0,1 Logo, a distribuição de probabilidade da amostra aleatória 1 2 3 nX ,X ,X ,...,X é expressa por n n i i i=1 i=1 1 2 n x n x 1 1 2 2 3 3 n n X X ...X 1 2 nP X x ,X x ,X x ,...,X x p (x ,x ,...,x ) p (1 p) Considere-se agora uma determinação qualquer da amostra, 1 2 3 nx , x , x ,..., x ; então o valor de T associado a essa determinação amostral é n j j 1 t x e portanto segue que a distribuição conjunta da amostra pode ser expressa por 1 2 n t n t 1 1 2 2 3 3 n n X X ...X 1 2 nP X x ,X x ,X x ,...,X x p (x ,x ,...,x ) p (1 p) Um exame da expressão acima mostra que é da forma 1 2 ng(t,p) h(x ,x ,..., x ) onde t n t 1 2 ng(t,p) p (1 p) e h(x ,x ,..., x ) 1 Portanto, pode-se aplicar diretamente o teorema da fatoração para concluir que a estatística T é suficiente para o parâmetro p. Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 22 Exemplo 15 [Estatística Suficiente] Sejam X um universo com distribuição normal de média μ e variância 2σ e 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de X. Mostre que se 2σ for conhecida a média aritmética amostral é um estimador suficiente para μ ; mas, ao contrário, se μ for conhecida, a variância amostral não é um estimador suficiente para 2σ . Solução A função de densidade de probabilidade de X é 2 2 1 (x μ) 2 σ 1 f(x) , para x R 2π σ e Para uma amostra aleatória simples 1 2 3 nX ,X ,X ,...,X a função de densidade de probabilidade conjunta é n 22 ii 22 i 1 i n (x μ)1(x μ)1n n 2 σ2 σ X i i=1 i=1 1 1 f (x ) 2π σ 2π σ e e Um exame da expressão acima leva à conclusão que o tratamento matemático restringe- se ao desenvolvimento do seu expoente. Assim sendo, foi destacado apenas o termo relativo ao expoente no desenvolvimento apresentado a seguir. 2n n n 22i i i2 2 2 i 1 i 1 i 1 (x μ)1 1 1 (x μ) (x x) (x μ) 2 σ 2σ 2σ n 2 2 2 i i2 i 1 1 (x x) (x μ) 2(x μ) x x 2σ n n 2 2 i i2 i 1 i 1 1 (x x) (x μ) 2(x μ) (x x) 2σ n n 2 2 i2 i 1 i 1 1 (x x) (x μ) 2σ pois n i i 1 (x x) 0 e consequentemente segue n n n 2 2 2 2 i i2 2 i 1 i=1 i=1 1 1 (x x) (x μ) (x x) (x μ) 2σ 2σ Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 23 n n 2 2 2 2 i i2 2 2 i=1 i 1 1 1 1 (x x) n (x μ) (x x) n (x μ) 2σ 2σ 2σ n 2 2 2 2 i2 2 2 2 i 1 n 1 1 n n (x x) n (x μ) s (x μ) 2σ n 2σ 2σ 2σ Substituindo agora na expressão original esse expoente, tem-se n 2 2 i 1 i n n1 (x μ) 2nn 2 σ X 2 i=1 i 1 1 1 1 (x μ) f (x) exp 2 σ2π σ 2π σ e n n 2 2n i 2 2 2 i 1 (x μ)1 1 1 n s n exp exp exp (x μ) 2 σ 2σ 2σ2π σ 2π σ Isso mostra que a expressão pode ser escrita como o produto de dois fatores, o segundo dos quais contém o estimador x e o parâmetro μ , enquanto o primeiro não contém μ . Então, conhecida 2σ , x é suficiente para estimar μ . Por outro lado, o primeiro fator contém 2s e 2σ enquanto o segundo também contém 2σ . Assim, 2s não é um estimador suficiente para 2σ . Considerando-se a expressão inicial da distribuição conjunta da amostra, n 2 2 i 1 i n n1 (x μ) 2nn 2 σ X 2 i=1 i 1 1 1 1 (x μ) f (x) exp 2 σ2π σ 2π σ e e definindo n 2 2 i i 1 1 S (x μ) n tem-se i n 2n X 2 i=1 1 n s f (x) exp 2σ2π σ O que mostra que 2S é estimador suficiente para 2σ , quando μ é conhecida. Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 24 Exemplo 16. [Método dos Momentos] Seja 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de tamanho n, de um universo X, cuja distribuição depende de um único parâmetro desconhecido θ . Determinar um estimador de θ pelo método dos momentos, nas seguintes hipóteses sobre a distribuição de X: a) distribuição exponencial, de parâmetro 1 θ ; b) distribuição de Poisson, de parâmetro θ ; c) distribuição geométrica, de parâmetro θ ; d) distribuição gama de parâmetros θ e 2; e) função de distribuição θF(x) 1 (1 x) para 0 < x < 1 ; f) função de densidade (x θ)f(x) para x > θe ; g) distribuição uniforme no intervalo 1 1 θ ,θ 2 2 Solução a) X ~ exponencial ( 1/ θ )Então a função de densidade de X é x θ 1 f(x)= , para x >0 ,comθ 0 θ e Logo, o primeiro momento ordinário teórico de X é x - θ 1 0 1 1 μ μ = E X x e dx = =θ 1θ θ Por outro lado, o primeiro momento ordinário amostral é n i i 1 1 X = X n Assim sendo, identificando agora o primeiro momento ordinário teórico com o primeiro momento ordinário amostral, segue 1μ μ =θ= X Consequentemente, o estimador do parâmetro θ é Juliana Realce Juliana Realce Juliana Realce Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 25 n i i=1 1 θˆ X = X n ---------------------------------------------------------------------------------------------------------- b) X ~ Poisson ( θ ) Então a função de probabilidade de X é x θ θp(x)= , para x 0,1,2,3,... ,comθ 0 x! e Logo, o primeiro momento ordinário teórico de X é x θ 1 x 0 θ μ μ = E X x =θ x! e Por outro lado, o primeiro momento ordinário amostral é n i i 1 1 X = X n Identificando agora o primeiro momento ordinário teórico com o primeiro momento ordinário amostral, segue 1μ μ =θ= X Consequentemente, o estimador do parâmetro θ é n i i=1 1 θˆ X = X n ---------------------------------------------------------------------------------------------------------- c) X ~ Geométrica ( θ ) Então a função de probabilidade de X é x -1p(x)= θ(1 θ) , para x 1,2,3,... ,com 0 θ<1 Logo, o primeiro momento ordinário teórico de X é x-11 x 0 1 μ μ = E X xθ(1-θ) = θ Por outro lado, o primeiro momento ordinário amostral é n i i 1 1 X = X n Identificando agora o primeiro momento ordinário teórico com o primeiro momento ordinário amostral, segue Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 26 1 1 1 μ μ = = X ou seja, θ = θ X Portanto, o estimador do parâmetro θ é n n i i i=1 i=1 1 1 n θˆ = 1X X X n ---------------------------------------------------------------------------------------------------------- d) X ~ Gama ( θ ,2 ) Então a função de densidade de probabilidade de X é 2 2 θx θx 2 θxθ θf(x) x x θ x , para x 0 , com θ > 0 (2) 1! e e e Portanto, o primeiro momento ordinário de X é 2 θx 2 2 θx1 0 0 2 μ μ = E X xθ x dx x θ dx θ e e Por outro lado, o primeiro momento ordinário amostral é n i i 1 1 X = X n Identificando agora o primeiro momento ordinário teórico com o primeiro momento ordinário amostral, segue 1 2 2 μ μ = = X ou seja, θ = θ X Portanto, o estimador do parâmetro θ é n n i i i=1 i=1 2 2 2n θˆ = 1X X X n ---------------------------------------------------------------------------------------------------------- e) O universo X tem função de distribuição expressa por: θ F(x) 1 1 x , para 0 x 1 Então a função de densidade de probabilidade de X é Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 27 θ θ 1 θ 1d d f(x) F(x) 1 1 x θ 1 x ( 1) θ 1 x , para 0 x 1 dx dx Logo, o primeiro momento ordinário de X é 1 θ-1 1 0 μ E(X) xθ 1 x dx Fazendo u = 1 – x segue que x = 1 – u e dx = – du ; logo 0 1 θ 1 θ 1 1 1 0 μ E(X) (1 u)θ u ( du) (1 u)θ u du 11 1 1 1 θ-1 θ-1 θ θ 1 0 0 0 0 0 1 μ (1-u)θ u du θ u du θ u du u θ θ +1 1 θ θ +1-θ 1 μ 1 θ +1 θ +1 θ +1 Por outro lado, o primeiro momento ordinário amostral é n i i 1 1 X = X n Identificando agora o primeiro momento ordinário teórico com o primeiro momento ordinário amostral, segue 1 1 1 1 1 X μ μ = = X ou seja, θ +1 donde θ 1 θ +1 X X X Portanto, o estimador de θ pelo método dos momentos é 1 X θˆ X ---------------------------------------------------------------------------------------------------------- f) A função de densidade de probabilidade de X é (x θ)f(x) , para x θe Logo, o primeiro momento ordinário de X é 1 (x θ) 1 0 μ E(X) x dxe Juliana Realce Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 28 Fazendo na integral u x θ segue que x u θ e dx du , logo u u u 1 0 0 0 μ E(X) (u +θ) du u du θ du (2) θe e e 1μ 1! θ = 1 θ Por outro lado, o primeiro momento ordinário amostral é n i i 1 1 X = X n Identificando agora o primeiro momento ordinário teórico com o primeiro momento ordinário amostral, segue 1μ μ = θ+1 =X ou seja, θ X 1 Portanto, o estimador de θ pelo método dos momentos é θˆ X 1 ---------------------------------------------------------------------------------------------------------- g) X ~ Uniforme 1 1 θ , θ 2 2 Então a função de densidade de probabilidade de X é: 1 1 f(x) = 1 , para θ x θ 2 2 Logo, o primeiro momento ordinário de X é 1 1 1 θ θ 2θ2 2μ = E(X) = θ 2 2 Por outro lado, o primeiro momento ordinário amostral é n i i 1 1 X = X n Identificando agora o primeiro momento ordinário teórico com o primeiro momento ordinário amostral, segue θ = X Portanto, o estimador de θ pelo método dos momentos é Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 29 n i i=0 1 θˆ = X = X n ---------------------------------------------------------------------------------------------------------- Exemplo 17. [Método dos Momentos] Seja X uma variável aleatória do tipo discreto com a seguinte função de probabilidade 1 4 x θ p(x) 1 2 x 0 com θ > 0 1 4 x θ Solução Considerando a função de probabilidade de X, o primeiro momento ordinário é θ x = θ 1 1 1 μ E X x p(x) θ 0 θ 0 4 2 4 resultado que não é útil; por outro lado, o segundo momento ordinário é 2 2θ 2 2 2 2 2 2 x = θ 1 1 1 2θ θ μ E X x p(x) ( θ) 0 θ 4 2 4 4 2 enquanto o segundo momento ordinário amostral é n 2 2 i i=0 1 M X n Igualando esses dois momentos segue 2 n 2 2 i i=0 θ 1 M X 2 n donde 2 2θ 2M ou seja 2θ 2M (a raiz negativa deve ser descartada pois θ 0 ) Portanto, n 2 2 i i=0 2 θˆ 2M X n ou ainda, considerando que 2 ' 2 2S M X , tem-se então 2 ' 2 2M S X o que permite expressar o estimador como 2 ' 2 2θˆ 2M 2 S X Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 30 Exemplo 18. [Método dos Momentos] Sejam X um universo com distribuição normal de média igual a μ e variância igual a 2σ e 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de tamanho n de X. Determinar estimadores para os parâmetros μ e 2σ pelo método dos momentos. Solução Nesse caso, os dois primeiros momentos ordinários de X são: i) 1μ E X μ ii) 2 2 2 22μ E X V X E X σ μ Dessa última equação resulta 2 2 2σ μ μ Por outro lado, os dois primeiros momentos ordinários amostrais são: i) n 1 i i 1 1 M X X n ii) n n 22 2 2 2 i 2 1 i i 1 i 1 1 1 M X M M X X X n n Portanto, igualando os momentos teóricos e amostrais correspondentes, tem-se: n 1 1 i i 1 1 μˆ M X X n e n n 22 2 2 2 i i i 1 i 1 1 1 μˆ M X X X X n n donde n n 22 2 2 2 2 2 2 1 i i 2 i 1 i 1 1 1 ˆ ˆ ˆσ μ μ M M X X X X M n n Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 31 Exemplo 19. [Método de Máxima Verossimilhança] Sejam X um universo com distribuição de Bernoulli de parâmetro igual a p e 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de tamanho n de X. Determinar um estimador para o parâmetro p pelo método de máxima verossimilhança. Solução A função de probabilidade do universo X é x 1 x Xp (x) p (1 p) para x 0,1 Portanto, a função de verossimilhança da amostra de X é n n i i i i i=1 i=1 1 2 n x n x n x 1 x X X ...X 1 2 n i=1 L(p) p (x ,x ,...,x ) p (1 p) p (1 p) A função de log-verossimilhança é n n i i i=1 i=1 n nx n x i i i=1 i=1 l(p) ln L(p) ln p (1 p) x ln p + n x ln (1 p) Para maximizar essa função deve-se inicialmente calcular os pontos que podem ser pontos extremos da função os quais podem ser obtidos pela solução da seguinte equação n n n n i i i i i=1 i=1 i=1 i=1 d d 1 1 (p) 0 x ln p+ n x 1 p x n x ( 1) 0 dp dp p 1 p l ou seja n in n i=1 i i n n n i=1 i=1 i i i i=1 i=1 i=1 1 x 1 1 1 p 1 n 1 n x n x 1 1 p 1 p p p p x x x donde se tem a seguinte solução n * i i=1 1 p x n Além disso, a segunda derivada da função de logverossimilhança em relação a p é 2 n n n n i i i i2 2 2 i 1 i 1 i 1 i 1 d d 1 1 1 1 (p) x n x x n x dp dp p 1 p p (1 p) l Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 32 Agora, para verificar se o ponto n * i i=1 p x é ponto de mínimo da função basta analisar o sinal da segunda derivada nesse ponto. Como a variável X somente assume os valores 0 ou 1, é evidente que n i i=1 x 0 e que n i i=1 n x 0 ; por outro lado, 2 2p 0 e 1 p 0 Portanto * 2 2 p=p d (p) 0 dp l e consequentemente verifica-se que n * i i=1 p x é ponto de máximo. Assim sendo, finalmente tem-se a expressão do estimador de máxima verossimilhança do parâmetro p que é n i i=1 1 pˆ X n Exemplo 20. [Métodos de Máxima Verossimilhança] Determinar, para cada uma das cinco primeiras distribuições consideradas no exemplo 16, um estimador para θ pelo método de máxima verossimilhança. Solução a) X ~ exponencial ( 1/ θ ) Então a função de densidade de X é x θ 1 f(x)= , para x >0 ,comθ 0 θ e Logo, a função de verossimilhança de X é n n i i i i i 1 i 1 x 1nx x xn n θ θθ θ n ni=1 i=1 1 1 1 1 L(θ) θ θ θ θ e e e e e a função de log-verossimilhança é n i i=1 1 (θ) = n ln θ x θ l A pesquisa de ponto extremo pode ser realizada empregando-se o cálculo diferencial. Para tanto, inicialmente calcula-se a derivada da função de log-verossimilhança. A derivada da função de log- verossimilhança em relação a θ é n i2 i=1 d 1 1 (θ) = n x dθ θ θ l Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 33 Igualando a derivada a zero e considerando que θ >0 , o que permite simplificar a expressão, segue n n i i2 i=1 i=1 d 1 1 1 (θ) 0 n x 0 n + x 0 dθ θ θ θ l donde a solução da equação para θ é n n * i i i=1 i=1 1 1 x n θ x x θ n Para verificar se esse é um ponto de máximo torna-se agora necessário calcular a segunda derivada e avaliar se ela é negativa no ponto. A segunda derivada da função de log-verossimilhança é 2 n n i i2 2 2 3 i=1 i=1 d d 1 1 1 1 (θ) n x n 2 x dθ dθ θ θ θ θ l E fazendo agora n i i=1 s x tem-se que * 2 3 3 3 2 2 3 2 2 2 θ θ d (θ) 1 1 n n n n 2 s 2 0 dθ s s ss s n n l pois n > 0 e s > 0 . Logo o valor encontrado para θ é ponto de máximo. Então, o estimador de máxima verossimilhança de θ é n i i=1 1 θˆ X X n ---------------------------------------------------------------------------------------------------------- b) X ~ Poisson ( θ ) Então a função de probabilidade de X é x θ θp(x)= , para x 0,1,2,3,... ,comθ 0 x! e Logo, a função de verossimilhança de X é n ii i i i=1 n xx x xn nn i=1θ θ nθ nθ n ni=1 i=1 i i i i i=1 i=1 θ θ θ θ L(θ) x ! x ! x ! x ! e e e e Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 34 e a função de log-verossimilhança é n n i i i 1i=1 (θ) nθ x lnθ ln x !l A derivada da função de log-verossimilhança em relação a θ é n n i i i=1 i=1 d 1 1 (θ) = n x 0 n x dθ θ θ l Igualando a derivada a zero segue n n i i i=1 i=1 d 1 1 (θ) 0 n x 0 x n dθ θ θ l donde a solução da equação para θ é n * i i=1 1 θ x x n Desenvolvendo raciocínio similar ao que foi apresentado no exemplo anterior verifica- se que este é um ponto de máximo. Então, o estimador de máxima verossimilhança de θ é n i i=1 1 θˆ X X n ---------------------------------------------------------------------------------------------------------- c) X ~ Geométrica ( θ ) Então a função de probabilidade de Xé x 1p(x)= θ(1 θ) , para x 1,2,3,... ,com 0 θ<1 Consequentemente, nesse caso a função de verossimilhança é n n i i i i i=1 i=1 (x 1) x nn n x 1 x 1n n n i=1 i=1 L(θ) θ (1 θ) θ (1 θ) θ (1 θ) θ (1 θ) e a função de log-verossimilhança é n i i=1 (θ) = n lnθ x n ln (1 θ)l Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 35 A derivada da função de log-verossimilhança em relação a θ é n i i=1 d 1 1 (θ) n x n dθ θ 1 θ l Igualando a derivada a zero segue n i i=1 d 1 1 (θ) 0 n x n 0 dθ θ 1 θ l Portanto n n i i i=1 i=1 1 1 1 θ 1 n x n x n θ 1 θ θ n donde n n i i i=1 i=1 1 1 1 1 1 x 1 x x θ n θ n ou seja * n i i=1 1 n θ x x Logo, o estimador de máxima verossimilhança de θ é n i i=1 1 n θˆ X X ---------------------------------------------------------------------------------------------------------- d) X ~ Gama ( θ ,2 ) Então a função de densidade de probabilidade de X é 2 2 θx θx 2 θxθ θf(x) x x θ x , para x 0 , com θ > 0 (2) 1! e e e Logo, a função de verossimilhança de X é i n θ x2 i i=1 L(θ) θ x e Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 36 Donde e a função de log-verossimilhança é nn i i i 1 i=1 (θ) 2n lnθ ln x θ xl A derivada da função de log-verossimilhança em relação a θ é n i i=1 d 1 (θ) 2n 0 x dθ θ l Igualando a derivada a zero segue n i n i=1 i i=1 d 2n 2n (θ) 0 x θ dθ θ x l donde a solução da equação para θ é * n i i=1 2n θ x Desenvolvendo raciocínio similar ao que foi apresentado nos exemplos anteriores pode- se verificar que este é um ponto de máximo. Então, o estimador de máxima verossimilhança de θ é n n i i i=1 i=1 2n 2 2 θˆ 1 X X X n ---------------------------------------------------------------------------------------------------------- e) O universo X tem função de distribuição expressa por: θ F(x) 1 1 x , para 0 x 1 Então a função de densidade de probabilidade de X é θ θ-1 θ-1d d f(x) F(x) 1 1 x θ 1 x ( 1) θ 1 x , para 0 x 1 dx dx Logo, a função de verossimilhança de X é Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 37 n θ 1 i i=1 L(θ)= θ 1 x donde n θ 1n i i=1 L(θ)= θ 1 x e a função de log-verossimilhança é θ 1n n θ 1n i i i=1 i=1 (θ)= θ + 1 x θ + 1 xln ln n ln lnl ou seja n i i=1 (θ) θ + θ 1 1 xn ln lnl A derivada da função de log-verossimilhança em relação a θ é n i i=1 d 1 (θ) + 1 x dθ θ n lnl Igualando a derivada a zero segue n i i=1 d 1 (θ) θ + 1 x 0 dθ θ n lnl donde n i i=1 1 1 x θ n ln Logo, a solução da equação para θ é * n i i=1 θ 1 x n ln Desenvolvendo raciocínio similar ao que foi apresentado nos exemplos anteriores pode- se verificar que este é um ponto de máximo. Então, o estimador de máxima verossimilhança de θ é Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 38 n nn i ii i=1 i=1 i=1 1ˆ ˆθ ou θ 1 1 X 1 X1 X n n n ln lnln Exemplo 21. [Método de Máxima Verossimilhança] Seja 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples, de tamanho n, de um universo X com distribuição uniforme no intervalo (0, θ ). Determinar um estimador de máxima verossimilhança para o parâmetro θ . Solução A função de densidade de probabilidade de X é X 1 f (x) para 0 x θ θ Então, a função de verossimilhança é n in i=1 1 1 L(θ) para 0 x θ i 1,2,3,...,n θ θ Esse é um exemplo de caso irregular – que não pode ser resolvido com emprego das técnicas de Cálculo Diferencial – pois a equação resultante da igualdade da primeira derivada em relação a θ a zero não conduz a nenhum resultado. Entretanto, note-se que L(θ) é uma função decrescente de θ . Logo, o máximo corresponde ao menor valor possível de θ para a amostra observada e que satisfaz as desigualdades acima, ou seja i0 x θ i 1,2,3,...,n Portanto, verifica-se que * 1 2 nθ Max x ,x ,..., x . Logo, o estimador máximo-verossímil é 1 2 nθˆ Max X ,X ,...,X Exemplo 22. [Método de Máxima Verossimilhança] Sejam X um universo com distribuição normal de média igual a μ e variância igual a 2σ e 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de tamanho n de X. Determinar estimadores para os parâmetros μ e 2σ pelo método de máxima verossimilhança. Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 39 Solução A função de densidade de probabilidade de X é 2 2 2x μ 2σ X 2 x μ1 1 f (x) exp 2σ2π σ 2π σ e Então, a função de verossimilhança é i n2 2 n n n i i2 X i 2 22 i 1i 1 i 1 x μ x μ1 1 L μ,σ f (x ) exp exp 2σ 2σ2π σ 2πσ Ou seja i n2 2 n n n i i2 X i 2 22 i 1i 1 i 1 x μ x μ1 1 L μ,σ f (x ) exp exp 2σ 2σ2π σ 2πσ donde n/2 n 22 i2 2 i 1 1 1 L μ,σ exp x μ 2πσ 2σ A função de logverossimilhança é n 22 2 2 i2 i 1 n 1 μ,σ ln L μ,σ ln 2πσ x μ 2 2σ l donde n 22 2 i2 i 1 n n 1 μ,σ ln 2π ln σ x μ 2 2 2σ l Agora, calculando as derivadas parciais em relação a μ e 2σ e igualando a zero tem-se: n n 2 i i2 2 i 1 i 1 1 1 μ,σ 2 x μ ( 1) x μ 0 μ 2σ σ l n n 2 22 i i22 2 2 42 i 1 i 1 n 1 n 1 μ,σ ( 1) x μ x μ 0 σ 2σ 2σ 2σ2 σ l Da primeira equação resulta Unidade II – Inferência Estatística – Cap.8 – Conceitos Fundamentais da Inferência Estatística e Estimação 40 n n n n i i i i 1 i 1 i 1 i 1 x μ 0 x μ 0 x nμ E assim tem-se n * i i 1 1 μ x n (1) Da segunda equação resulta n n *2 22 i i4 2 i 1 i 1 1 n 1 x μ σ x μ σ σ n (2) Agora, substituindo (1) em (2) segue n * 2 2 * i i 1 1 σ x μ n Portanto, finalmente tem-se: n i i 1 1 μˆ X X n e n 22 i 2 i 1 1 σˆ X X M n Note-se que o estimador da variância é tendencioso mas assintoticamente não tendencioso. Exemplo 23. [Estimação pontual de parâmetros de distribuições e ajuste de modelos] Os dados a seguir apresentados foram obtidos em um experimento (famoso) realizado por Rutherford e Geiger sobre a emissão de partículas α por uma fonte radioativa. Na tabela apresentada abaixo, x é o número de partículas observadas em uma unidade de tempo, sendo essa unidade igual a 1/8 do minuto, ou seja 7,5 segundos e f representa a frequência absoluta da contagem do número de intervalos com cada valor observado do número de partículas emitidas. x 0 1 2 3 4 5 6 7 8 9 10 11 Total f 57 203 388 525 532 408 273 130 49 27 10 6 2612 Tabela 1 – Distribuição das frequências absolutas do número de partículas emitidas É sabido que o fenômeno emissão de partículas por uma fonte radioativa pode ser concebido como um processo de Poisson. Assim, sejam λ a taxa média de emissão de Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 41 partículas α por minuto para esse processo e X a variável aleatória representa o número eventual de partículas α emitidas em um intervalo de tempo igual a 1/8 de minuto (ou seja 7,5 segundos). Supondo que X tenha distribuição de Poisson, estimando o parâmetro λ tem-se a especificação de um modelo probabilístico para o fenômeno aleatório. λ x 8 X λ 8 P X x p (x) , para x 0,1,2,3,... x! e Um estimador para o parâmetro λ , obtido pelo método de máxima verossimilhança (e também pelo método dos momentos), é a média aritmética amostral, isto é n j j=1 1 1 λˆ X X 8 n No caso, tem-se 2.612 contagens distribuídas em 12 classes e assim a média aritmética da amostra é 12 * j j j=1 1 1 λˆ x x f 3,87 partículas 8 2612 e ainda *λˆ 8x 8.3,87 30,96 partículas por minuto Pode-se então considerar que a distribuição de Poisson especificada constitui um modelo probabilístico para a variável aleatória X, ou em outras palavras que foi ajustado um modelo (teórico) de distribuição aos dados relativos à variável observada. É interessante examinar o grau de ajuste desse modelo, o que pode ser feito facilmente comparando-se as frequências relativas observadas com as probabilidades calculadas com base no modelo especificado ou, alternativamente (como é mais comum) as frequências absolutas observadas com aquelas esperadas com base no modelo. Isso é mostrado a seguir. As frequências esperadas com base no modelo ajustado são determinadas multiplicando-se o tamanho da amostra, n, pelas probabilidades calculadas empregando- se o modelo de distribuição ajustado. No caso, empregando a distribuição de Poisson com a estimativa do parâmetro λ obtida na amostra observada obtem-se a seguinte distribuição ajustada 3,87 x X 3,87 P X x p (x) , para x 0,1,2,3,... x! e Na tabela a seguir são mostradas as frequências observadas e esperadas com o modelo. Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 42 x 0 1 2 3 4 5 6 7 8 9 10 11 Total f 57 203 388 525 532 408 273 130 49 27 10 6 2612 n p(x) 55 211 408 526 509 394 254 141 68 29 11 4 2610 Tabela 2 – Frequências absolutas observadas e esperadas com base no modelo Deve-se ressaltar que a diferença existente entre a totalização das frequências esperadas de classe (igual a 2610) e a frequência total observada (igual a 2612) se deve ao fato de que o modelo de distribuição teórica empregado no ajustamento aos dados observados envolve uma infinidade de valores. Com efeito, no modelo teórico (distribuição de Poisson) admite-se todos os valores inteiros não negativos, enquanto o maior valor observado foi 11. Considerando-se a probabilidade (calculada com base no modelo) de serem obtidos valores maiores do que 11, que é igual a 0,000692 (sendo calculada por 1 0,999308 0,000692 ), verifica-se que com o número de 2612 observações seria de se esperar que houvesse, aproximadamente, 2 superiores a 11. Para avaliar o ajustamento pode ser elaborado um gráfico de barras com as frequências relativas observadas e as probabilidades estabelecidas com m o modelo adotado. Gráfico com as frequências observadas e probabilidades calculadas com o modelo Como se pode perceber, o ajuste do modelo teórico aos dados observados é excelente. 0,000 0,050 0,100 0,150 0,200 0,250 0 1 2 3 4 5 6 7 8 9 10 11 Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 43 Exemplo 24. [Estimação pontual de parâmetros de distribuições e ajuste de modelos] Os dados a seguir apresentados foram obtidos com base na observação sistemática do funcionamento e registro do tempo transcorrido até um certo tipo de componente eletrônico falhar, em unidade de 100 horas. Há interesse em ajustar um modelo teórico aos dados amostrais. 262,8 1,0 36,4 4,0 59,4 35,3 70,5 22,6 3,7 5,8 32,1 0,5 17,4 77,6 46,7 182,4 76,7 3,5 13,4 29,7 6,1 15,1 110,5 45,9 31,7 22,4 27,8 10,0 33,0 26,7 8,0 6,8 63,0 70,9 30,0 12,2 29,6 3,3 32,2 12,3 128,2 24,6 7,0 39,8 71,1 19,4 5,4 4,4 54,4 24,8 Tabela 1 – Tempos de funcionamento até a ocorrência de alguma falha Sabe-se que a distribuição exponencial é um bom modelo probabilístico para o tempo de funcionamento até falhar de componentes eletrônicos. Será então empregado esse modelo no ajustamento. Para examinar essa questão pode-se inicialmente elaborar uma distribuição de frequências e depois construir um gráfico – histograma – relativo a essa distribuição. A tabela a seguir mostra a distribuição de frequências dos dados observados, juntamente com as frequências esperadas com base no modelo adotado de distribuição exponencial, com parâmetro igual a 1 41,1 , como é justificado a seguir. A média aritmética dos valores observados de tempo de funcionamento até ocorrer uma falha é 50 j j=1 1 x x 41,1 50 e o estimador de máxima verossimilhança para o parâmetro α é 1 αˆ X , logo * 1 1αˆ 0,0243 x 41,1 é a estimativa máximo-verossímil. Classes ni fi P(a < X < b) n P(a < X < b) 0 |-- 20 21 0,42 0,385 19 20 |-- 40 15 0,30 0,236 12 40 |-- 60 4 0,08 0,145 7 60 |-- 80 6 0,12 0,089 5 80 |-- 100 0 0,00 0,055 3 100 |-- 4 0,08 0,088 4 Total 50 1,00 1,000 50 Tabela 2 – Distribuição de frequências observadas e esperadas com o modelo Ressalta-se que nesse caso a última classe é aberta no seu extremo superior, de modo a permitir a sua melhor adequação ao modelo de distribuição teórica ajustado.Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 44 Gráfico 1 – Histograma das frequências relativas dos tempos de funcionamento Gráfico 2 – Histograma com as probabilidades calculadas com o modelo 0 0,05 0,1 0,15 0,2 0,25 0,3 0,35 0,4 0,45 0 a 20 20 a 40 40 a 60 60 a 80 80 a 100 100 ou + 0 0,05 0,1 0,15 0,2 0,25 0,3 0,35 0,4 0,45 0 a 20 20 a 40 40 a 60 60 a 80 80 a 100 100 ou + Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 45 Gráfico 3 – Função de densidade de probabilidade do modelo ajustado Como se pode perceber pelo exame dos gráficos acima – histogramas da distribuição de frequências dos tempos de funcionamento e das probabilidades calculadas com base no modelo e, também, da função de densidade do modelo ajustado – apesar do reduzido número de dados disponíveis o modelo parece ajustar-se bem aos dados. Exemplo 25. [Estimadores dos principais parâmetros populacionais] Sejam X um universo de média μ e variância 2σ e 1 2 3 nX ,X ,X ,...,X uma amostra aleatória sem reposição de tamanho n de X. Demonstrar que a expectância e a variância da média aritmética são, respectivamente, μ e 2σ N n n N 1 . Solução n n j j=1 j=1 1 1 1 E X E X μ nμ μ n n n e 0 0,005 0,01 0,015 0,02 0,025 0,03 0 5 10 15 20 Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 46 n n n n i i i j2 2 i=1 i=1 i=1 j=2 j>i 1 1 1 V X V X V X 2 Cov(X ,X ) n n n n n n 2 2 2 ij2 2 2 2 i=1 i 1 j=2 j>i 1 1 1 1 n(n 1) 1 V X σ 2 σ n σ 2 σ n n n n 2 N 1 2 2 2 21 n 1 1 1 n 1 1 N 1 n 1σ σ 1 σ σ n n N 1 n N 1 n N 1 Donde, finalmente, tem-se 2σ N n V(X) n N 1 Exemplo 26. [Estimadores dos principais parâmetros populacionais] Sejam C uma população finita de tamanho N , X um universo relativo a essa população de média μ e variância 2σ e 1 2 3 nX ,X ,X ,...,X uma amostra aleatória sem reposição de X. Demonstrar que a estatística 2 Fσ , definida por n 22 F i i=1 N-1 1 σˆ X -X N n 1 é um estimador não tendencioso da variância desse universo. Solução n n 2 22 F i i i=1 i=1 N 1 1 N 1 n 1 ˆE σ E X X E X X N n 1 N n 1 n n n 22 2 2 F i i i=1 i=1 N 1 n 1 N 1 n 1 ˆE σ E X X E X X N n 1 n N n 1 n n 2 2 2 F i i=1 N 1 n 1 ˆE σ E X E X N n 1 n Mas 2 2 2 2i i iE X V X E X σ μ e Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 47 2 2 2σ N nE X V X E X μ n N 1 Assim, por substituição dos resultados acima no desenvolvimento anterior tem-se 2 2 2 2 2 F N 1 n 1 σ N n ˆE σ n σ μ μ N n 1 n n N 1 2 2 2 2 F N 1 n σ N n N 1 n N n σ ˆE σ σ n N n 1 n N 1 N n 1 N 1 n 22 F n N 1 N nN 1 n σ ˆE σ N n 1 N 1 n 22 2 F N n 1N 1 n σ ˆE σ σ N n 1 N 1 n Exemplo 27. [Estimadores dos principais parâmetros populacionais] Sejam C uma população infinita, A um atributo dicotômico (isto é, todo elemento da população possui ou não esse atributo), p a probabilidade de seleciona-se um elemento população com o atributo A, X o universo associado a essa população por meio de uma variável indicadora da presença ou não desse atributo (portanto X com distribuição de Bernoulli de parâmetro p) e 1 2 3 nX ,X ,X ,...,X uma amostra aleatória simples de X. Demonstrar que: i) a estatística proporção amostral é um estimador não tendencioso de p; ii) o estimador é convergente em média quadrática; iii) um estimador não tendencioso da variância do universo é 2 2n nˆ ˆ ˆ ˆ ˆσˆ V(X) (p p ) p(1 p) n 1 n 1 Solução No caso, a função de probabilidade do universo X é X q 1 p , se x 0 p (x) p , se x 1 Portanto, sua média e sua variância são: Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 48 1 X x =0 μ E(X) x p (x) 0.q 1.p p 1 2 2 2 2 X x =0 E(X ) x p (x) 0 .q +1 .p p 2 2 2 2σ V(X) E(X ) E (X) p p p(1 p) A estatística proporção amostral é expressa por n A j j=1 n1 pˆ X X n n Portanto, a média (expectância) de pˆ é n n j j=1 j=1 1 1 1 ˆE p E X E X p n p p n n n O que mostra que o estimador é não tendencioso. A variância de pˆ é n n n j j2 2 2 j=1 j=1 j=1 1 1 1 1 1 ˆV p V X V X V X p(1 p) n p(1 p) p(1 p) n n n n n Logo, no limite quando o tamanho da amostra n tende para infinito tem-se n n 1 ˆlim V p lim p(1 p) 0 n Portanto, o estimador é convergente em média quadrática (logo é também convergente em probabilidade). Como é sabido do estudo de estimadores pontuais, a proporção amostral equivale à média do universo, isto é n A j j=1 n 1 pˆ X X n n Logo, um estimador para a variância do universo é o segundo momento central amostral n n 22 2 2 i i i=1 i=1 1 1 M X X X X n n Como o universo só pode assumir dois valores – 0 e 1 – decorre que Unidade II – Inferência Estatística – Cap. 8 – Conceitos Fundamentais da Inferência Estatística e Estimação 49 n n 2 i i i 1 i 1 1 1 ˆX X X p n n e então que a expressão do estimador pode ser reescrita de forma equivalente como n n 22 2 2 2 i i i=1 i=1 1 1 ˆ ˆ ˆ ˆM X X X X p p p(1 p) n n A expectância desse estimador é n n n 22 2 2 2 2 i i i i=1 i=1 i=1 1 1 1 E M E X X E X X E X E X n n n 2 2 2 1 E M n σ μ V X E X n Mas 2 2 2σV X e E X μ n donde 2 2 2 2 2 2 2 2 21 σ 1 n 1E M n σ μ V X E X σ μ μ 1 σ σ n n n n E como no caso 2V X σ p(1 p) então 2 2 n 1 n 1 E M σ p(1 p) n n Como se percebe, o estimador é tendencioso. Entretanto, pelo exame da expressão acima, verifica-se facilmente que um estimador
Compartilhar