Baixe o app para aproveitar ainda mais
Prévia do material em texto
Cap. 7: Estimação de Parâmetros Conceitos a serem introduzidos neste capítulo: Estimador pontual Viés de um estimador, Estimador não tendencioso Erro Quadrático Médio Conceito amostral x Conceito populacionalConceito amostral x Conceito populacional Erro absoluto e erro relativo de uma estimativa pontual Distribuição t de Student Intervalo de Confiança Inferência Estatística Figura 3.1 As etapas típicas do tratamento estatístico de um problema real Conhecimentos Factuais Poder de Abstração Modelo Probabilístico Teórico RespostasDados Reais Conhecimento de Técnicas de Inferência Estatística Paramétricos Não Paramétricos Pontual Por Intervalo Estimação de Parâmetros Testes de Hipótese Grandes Temas da Inferência Estatística Estimação Pontual de Parâmetros Dado um modelo que pretende descrever probabilisticamente uma dada realidade, como estimar os valores de determinados parâmetros a partir de um conjunto de dados? Exemplos: (a) Estimar a proporção p de pessoas que sofrem de uma determinada doença em dada população.uma determinada doença em dada população. Modelo: Bernoulli(p) (b) Estimar o valor médio µ e o desvio padrão σ dos logaritmos dos depósitos em conta corrente em uma agência bancária. Modelo: Normal( µ, σ ) (Por que tomar logaritmos?) Conceitos Básicos Suponha que a variável aleatória que descreve o comportamento do fenômeno em exame tem densidade f , que depende do parâmetro θ (desconhecido). Como estimar o valor do parâmetro θ a partir de n observações (dados, medições) independentes x1, x2, x3, ..., xn dessa variável? Admitiremos que cada valor observado xi corresponde a uma variável aleatória Xi, i=1, 2, ..., n. Conceitos Básicos(Cont.) Temos então n variáveis aleatórias iid X1, X2, X3, ..., Xn, ou seja, - elas são independentes entre si; - todas obedecem ao mesmo modelo probabilístico f, que depende de θ (parâmetro a ser estimado) . Um estimador pontual, de θ é, portanto, uma função das variáveis aleatórias X1, X2, X3, ..., Xn, cujo valor, espera-se, está perto do verdadeiro valor de θ. Obs.: Como é função de X1, X2, X3, ..., Xn, ele é também uma variável aleatória e portanto podemos falar em E( ), Var( ), etc. ɵθ ɵθ ɵθ ɵθ No exemplo anterior (a), uma vez coletada uma amostra aleatória com n pessoas da população, temos n variáveis aleatórias X1, X2, X3, ..., Xn, onde : Xi = 1, se a pessoa sofre da doença considerada e Xi = 0, caso contrário, i = 1, 2, ..., n Além disso, p = P[X = 1], ∀ i Exemplos X n ∑Além disso, p = P[Xi = 1], ∀ i Neste caso, um estimador natural de p seria ( ou seja, é a proporção de pessoas na amostra que sofrem daquela doença). Como Y = é uma Binomial com parâmetros n e p, E(Y) = np e Var(Y) = np(1-p). Logo, E( ) = p e Var( ) = (usando propriedades da esperança e da variância). ɵp X n i i 1= = ∑ X i i 1 n = ∑ ɵp ɵp p(1 p) n − No exemplo anterior (b), uma vez coletada uma amostra aleatória com n clientes daquela agência bancária, sejam X1, X2, X3, ..., Xn os valores dos logaritmos na base 10 de seus depósitos em conta corrente. Xi ∼ Normal (µ, σ), ∀i = 1, 2 ..., n Exemplos(Cont.) ∑X n Um estimador natural para µ seria: Já vimos anteriormente que E( ) = µ e Var( ) = σ2/n . Um estimador natural para σ2 seria: Por que? ɵ (X X) n i 2 i 1 n σ1 2 = − = ∑ X X ɵµ = == ∑X n X i i 1 É comum preferir-se, como estimador de σ2, porque E( ) = σ2, enquanto que E(S2) = σ2. Define-se o viés do estimador como sendo B( ) = E ( ) - θ. Diz-se que o estimador do parâmetro θ é não tendencioso se Observações ɵ (X X) n i 2 i 1 n σ2 2 2 1 = − − == ∑ S ɵσ1 2 n n − ⋅ 1 ɵθ ɵθ ɵθ ɵθDiz-se que o estimador do parâmetro θ é não tendencioso se E( ) = θ, para todo valor possível de θ. Se é não tendencioso para θ, B( ) = 0. Exemplos: - é estimador não tendencioso de µ no exemplo (a). - é estimador não tendencioso de p no exemplo (b). - S2 é estimador não tendencioso de σ2 no exemplo (b).Mas não o é. Na realidade, B( ) = − σ2/n ɵθ ɵθ ɵθ ɵθ ɵp ɵµ ɵσ1 2 ɵσ1 2 Um bom estimador deveria gerar estimativas que estivessem próximas do verdadeiro valor de θ. Uma medida muito usada do grau de precisão de como estimador de θ é o seu erro quadrático médio , definido por EQM( ) = E[( − θ)2] Assim, quanto menor for EQM( ), mais preciso será o estimador. Pode-se provar que: Observações ɵθ ɵθ ɵθ ɵθ ɵEQM( ) = Var( ) + [B( )]2 ou seja, tanto uma variância grande quanto um viés grande podem prejudicar a precisão do estimador. Observe que: -Var( ) é uma medida da variabilidade de em torno do seu valor esperado E( ); Enquanto que, -[B( )]2 é uma medida do afastamento entre a sua esperança E( ) e o valor real θ do parâmetro. ɵθ ɵθ ɵθ ɵθɵθ ɵθ ɵθ ɵθ Vários dos conceitos que foram estudados, anteriormente, sobre Análise Exploratória são na verdade estimadores pontuais dos seus correspondentes conceitos sobre o Cálculo de Probabilidades: � a média amostral é um estimador natural da média populacional E(X); � a mediana amostral é um estimador natural da mediana populacional med(X); O elo entre a versão amostral e a versão populacional de diversos conceitos X ~x � a variância amostral S2 é um estimador natural da variância populacional var(X); � o desvio padrão amostral S é um estimador natural do desvio padrão populacional DP(X) � o intervalo interquartil amostral IIQ é um estimador natural do intervalo interquartil populacional IIQ(X); � o coeficiente de correlação amostral r é um estimador natural do coeficiente de correlação populacional ρ(X,Y); � a covariância amostral C é um estimador natural da covariância populacional cov(X,Y). Digamos que, em uma dada situação, se pretende usar a média amostral como estimativa da média populacional de uma certa variável. Qual deveria ser o tamanho n da amostra a ser utilizada para que se possa garantir uma boa precisão na estimativa? Dimensionamento de Amostra dµX <− Suponha que µ e σ são respectivamente a média e o desvio padrão populacionais. Admita também que, nesse processo de estimação, o erro absoluto máximo considerado tolerável com uma probabilidade pré-fixada 1 − α, é igual a d, ou seja: [ ]P X d− < = −µ α1 . dµX <− Como Var( ) = , admitindo que n é suficientemente grande para que o Teorema Central do Limite seja aplicável, temos Dimensionamento de Amostra(Cont.) X σ2 n P X n d n − < = − µ σ σ α1 Então, se Z = , esta v.a. tem distribuição aproximadamente Normal(0;1), e a igualdade acima implica que onde é o quantil 1 - α/2 da Normal(0,1)(*) n n X n − µ σ z d n 1 2 − =α σ z 1 2 − α Figura 3.2 - O quantil z1-αααα/2 da Normal(0,1) 1−−−− αααα /2 Logo n = z1 −−−− αααα / 2 1−−−− αααα /2 2 0 ⋅ d z σ Z0= Já vimos que se é um estimador pontual do parâmetro , é uma variável aleatória e por isso há uma certa dose de incerteza inerente a esse processo de estimação. O objetivo aqui é obter, com base nos dados, um intervalo de valores ao qual o valor correto do parâmetro deve ter grande Estimação por Intervalo θˆ θ chance de pertencer. � Fixado uma tolerância d, do parâmetro distar de sua estimativa; � Fixado uma probabilidade 1- αααα; � Achar um LS e um LI (limites superiores e inferiores) dµX <− [ ]P X d− < = −µ α1 .I.C. Para µ : Esquema do Conceito de Intervalo de Confiança População X( µ, σ2 ) x1 σ 1,96 x n ± n xσ 1,96µ − xσ 1,96µ + µ 95% x2 σ 1,96 x ± xk σ 1,96 x n ± . . . Aproximadamente 95% dos intervalos comtém µ 1x 2x kx µ
Compartilhar