Buscar

aula 5 30 08 2018 mOdulo ii analise de regressao 2.3 propriedades dos estimadores mq

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 41 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 41 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 41 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

MÓDULO II- ANÁLISE DE REGRESSÃO 
(continuação)
AULA 5- 30-08-2018
DISCIPLINA:ECONOMETRIA 1 
PROFª: Graciela Profeta
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓O Modelo Linear de Regressão Clássico (MLRC) se
sustenta em 10 premissas:
✓Primeiramente analisaremos essas 10 premissas em
um contexto de um modelo de regressão com apenas
duas variáveis e depois estenderemos esta análise
para um modelo de regressão múltipla.
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖
Sabemos da eq. (24) que መ𝛽2 =
σ 𝑥𝑖𝑦𝑖
σ 𝑥𝑖
2 → መ𝛽2 =
𝑥𝑖 σ 𝑦𝑖
σ 𝑥𝑖
2
dado que 𝑘𝑖 =
𝑥𝑖
(σ 𝑥𝑖
2)
, então: መ𝛽2 = 𝑘𝑖 σ𝑦𝑖 → ෡𝜷𝟐 = σ𝒌𝒊𝒚𝒊
✓Logo, observa-se que መ𝛽2 é um estimador linear de Y. 
✓Na verdade é uma média ponderada de Yi, em que ki são os pesos.
PREMISSA 1: O modelo de regressão é LINEAR NOS PARÂMETROS.
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓Voltando ao exemplo
do consumo e da 
Renda. O valor fixo 
aqui é, por exemplo,
o 80
✓Observe, que esta
é uma Análise 
condicional
PREMISSA 2: Os valores de X são fixos em amostras repetidas
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓Dado o valor de X, temos que E(ui/xi)=0 
PREMISSA 3: O valor médio do termo de erro (ui) é zero 
✓Para cada X tem-se os Y’s que se distribuem 
em torno da média. Logo, temos os erros (ui)
E o desejamos é que E(ui/xi)=0 
✓Além disso, E(ui/xi)=0 indica que demais 
variáveis omitidas no modelo não afetariam 
de forma sistemática o valor médio de Y;
✓Dado que E(ui/xi)=0 , →
𝐸 Τ𝑌𝑖 𝑋𝑖 = 𝛽1 + 𝛽2𝑋𝑖
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO
✓Dado o valor de X, a variância de ui é a mesma para todas as
observações.
✓Isto é, as variâncias condicionais de ui são idênticas.
✓Matematicamente, temos:
PREMISSA 4: Homocedasticidade ou variância igual de ui
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓𝑯𝒐𝒎𝒐𝒄𝒆𝒅𝒂𝒔𝒕𝒊𝒄𝒊𝒅𝒂𝒅𝒆 → 𝝈𝟏 = 𝝈𝟐 = 𝝈𝒊
𝑉𝑎𝑟 𝑢𝑖 ∕ 𝑋𝑖 = 𝐸 𝑢𝑖 − 𝐸(𝑢𝑖 ∕ 𝑋𝑖)
2 , 𝑐𝑜𝑚𝑜 𝐸 𝑢𝑖 = 0, temos:
𝑉𝑎𝑟 𝑢𝑖 ∕ 𝑋𝑖 = 𝐸 𝑢𝑖
2 ∕ 𝑋𝑖
𝑉𝑎𝑟 𝑢𝑖 ∕ 𝑋𝑖 = 𝜎
2
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓Observe agora a seguinte Figura
✓Em ambos os casos, o 
consumo aumenta com o 
aumento da renda
✓Agora, não há Homocedasticidade 
e sim hetorocedasticidade. Neste caso, 
nota-se que famílias mais ricas apresentam 
maior variabilidade no consumo
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓Ainda, de acordo com a Premissa 4, temos que as variâncias
condicionais de Yi também são homocedásticas:
𝑉𝑎𝑟 Τ𝑌𝑖 𝑋𝑖 = 𝜎
2 (35)
✓Logo a variância incondicional de Y é 𝜎𝑌
2
PREMISSA 4: Homocedasticidade ou variância igual de ui 
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓Dado quaisquer dois valores de X (Xi e Xj, com i ≠ 𝑗) a
correlação entre quaisquer ui e uj (i ≠ 𝑗) é zero.
𝐶𝑂𝑉 Τ𝑢𝑖 𝑢𝑗 = 𝐸 𝑢𝑖 − 𝐸(𝑢𝑖 ) ∕ 𝑋𝑖 {[𝑢𝑗 − 𝐸(𝑢𝑗)]/𝑋𝑗]}
𝐶𝑂𝑉 Τ𝑢𝑖 𝑢𝑗 = 𝐸( Τ𝑢𝑖 𝑋𝑖)( Τ𝑢𝑗 𝑋𝑗)
𝐶𝑂𝑉 Τ𝑢𝑖 𝑢𝑗 =0 (36)
Ausência de correlação serial entre os termos de erros.
PREMISSA 5: Não há autocorrelação entre os termos de erro
00
0
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
PREMISSA 5: Não há autocorrelação entre os termos de erro
Correlação serial 
positiva
Correlação serial 
negativa
Ausência de Correlação, ou 
correlação zero→ ausência de 
padrão sistemático
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
𝐶𝑜𝑣 𝑢𝑖𝑋𝑖 = 𝐸 𝑢𝑖 − 𝐸(𝑢𝑖) 𝑋𝑖 − 𝐸(𝑋𝑖)
𝐶𝑜𝑣 𝑢𝑖𝑋𝑖 = 𝐸 𝑢𝑖(𝑋𝑖 − 𝐸(𝑋𝑖)
𝐶𝑜𝑣 𝑢𝑖𝑋𝑖 = 𝐸 𝑢𝑖𝑋𝑖 − 𝐸 𝑢𝑖 𝐸(𝑋𝑖)
𝐶𝑜𝑣 𝑢𝑖𝑋𝑖 =0 (37)→ logo, U e x não estão correlacionados
Intuitivamente, porque? 
PREMISSA 6: Ausência de covariância entre Ui e Xi ou E(uiXi)=0
0
0 0
2- ANÁLISE DE REGRESSÃO
2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓ Quando expressamos uma FRP→ 𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖
presumimos que X e U exercem influências separadas sobre os Y.
✓ Logo, se X e U estivessem correlacionados, não seria possível 
mensurar os efeito individuais sobre Y.
✓ Observe que se a premissa 3 for atendida, então: 
✓ 𝐶𝑜𝑣 𝑢𝑖 , 𝑋𝑖 = 𝑋𝑖 − 𝐸(𝑋𝑖) 𝐸 𝑢𝑖 − 𝐸(𝑢𝑖) → 𝐶𝑜𝑣 𝑢𝑖 , 𝑋𝑖 =0
E(ui/xi)=0 o valor médio do erro é zero
2- ANÁLISE DE REGRESSÃO
2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓O número de observações deve ser maior do que o 
número de variáveis explicativas;
PREMISSA 7: O número de observações (n) deve ser maior do que o 
número de parâmetros estimados
2- ANÁLISE DE REGRESSÃO
2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓ Os valores de X em uma dada amostra não devem ser os 
mesmos; 
✓ Tecnicamente: 𝑣𝑎𝑟 𝑋 =
σ(𝑋𝑖− ത𝑋)
2
𝑛−1
✓ Se todos os valores de X são iguais, temos que 𝑋𝑖 = ത𝑋, logo 
não conseguimos obter, por exemplo o መ𝛽2:
✓ መ𝛽2 =
σ 𝑋𝑖− ത𝑋 (𝑌𝑖−ത𝑌)
σ(𝑋𝑖− ത𝑋)
2 ou 
መ𝛽2 =
σ 𝑥𝑖𝑦𝑖
σ 𝑥𝑖
2 →
PREMISSA 8: Variabilidade nos valores de X
As variáveis 
precisam variar!
2- ANÁLISE DE REGRESSÃO
2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO
✓Em outras palavras, devemos assumir que não há viés ou
erros de especificação no modelo empregado na análise
empírica.
✓Para tanto, devemos nos preocupar em responder às
seguintes questões:
PREMISSA 9: O modelo de regressão está especificado de forma correta
2- ANÁLISE DE REGRESSÃO
2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓i) Que variáveis devem ser incluídas no modelo? 
✓ii) Qual é a forma funcional do modelo? Ou seja, ele será 
linear nos parâmetros, nas variáveis ou em ambos?
✓iii)Quais são as pressuposições probabilísticas feitas a 
respeito dos Yi, dos Xi e dos ui ?
2- ANÁLISE DE REGRESSÃO
2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓Esta premissa é mais adequada para o caso de modelos de
regressão múltipla;
✓Nos diz que não há relações lineares perfeitas entre as
variáveis explicativas do modelo.
PREMISSA 10: Não há multicolinearidade perfeita
2- ANÁLISE DE REGRESSÃO
2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓Vale lembrar que todas as premissas do MRLC (1 a 10) se 
aplicam apenas à FRP e não à FRA.
✓Contudo, o MQ tenta justamente “duplicar” algumas 
destas premissas de modo a ser possível trabalharmos com 
a FRA.
✓Por exemplo:
2- ANÁLISE DE REGRESSÃO
2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO 
✓i) σ ො𝑢𝑖 = 0 → തො𝑢 = 0 → 𝐹𝑅𝐴; é semelhante a 𝐸 Τ𝑢𝑖 𝑋𝑖 = 0 →
𝐹𝑅𝑃;
✓ii) σ ො𝑢𝑖𝑋𝑖 = 0 → 𝐹𝑅𝐴; é semelhante a 𝑐𝑜𝑣 𝑢𝑖 , 𝑋𝑖 = 0 → 𝐹𝑅𝑃
✓Para refletir?
✓Até que ponto todas as premissas são realistas?
✓Milton Friedam→ defensor da tese da “irrelevância”;
✓Em qualquer estudo científico o pesquisador lança mão de 
pressupostos.
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓Retomando às fórmulas do betas de MQO, temos:
መ𝛽2 =
σ 𝑋𝑖− ത𝑋 (𝑌𝑖−ത𝑌)
σ(𝑋𝑖− ത𝑋)
2 ou 
መ𝛽2 =
σ 𝑥𝑖𝑦𝑖
σ 𝑥𝑖
2
መ𝛽1 =
σ 𝑋𝑖
2 σ 𝑌𝑖−σ 𝑋𝑖 σ 𝑋𝑖𝑌𝑖
𝑛 σ 𝑋𝑖
2−(σ 𝑋𝑖)
2 ou 
መ𝛽1 = ത𝑌 − መ𝛽2 ത𝑋
✓Notamos que os betas são uma função dos dados amostrais 
de X e Y.
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓Logo, se os dados tendem a variar/mudar quando mudamos
de amostra, é necessário alguma medida para verificar a
“confiabilidade” ou a ”precisão” dos estimadores ( መ𝛽1, መ𝛽2);
✓Em estatística, a precisão de uma estimativa é medida pelo
seu erro-padrão (ou desvio-padrão da distribuição amostral do
estimador que é, por sua vez,a probabilidade ou distribuição
de frequência do estimador).
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓Então como obter os erros-padrão das estimativas
de MQO?
✓Isto é: como obter 𝑣𝑎𝑟( መ𝛽2) e ep( መ𝛽2).
✓Assim como, 𝑣𝑎𝑟( መ𝛽1) e ep( መ𝛽1).
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓1ª Parte da demonstração da 𝒗𝒂𝒓 ෡𝜷𝟐 =
𝝈𝟐
σ 𝒙𝒊
𝟐
✓Partindo de መ𝛽2 =
σ 𝑥𝑖𝑌𝑖
σ 𝑥𝑖
2 → መ𝛽2 =
𝑥𝑖
σ 𝑥𝑖
2 ∗ σ𝑌𝑖
✓Como መ𝛽2 é linear e disto sabemos que መ𝛽2 é obtido em 
função de uma média ponderada (pesos ki) de Yi. Temos:
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓𝑘𝑖 =
𝑥𝑖
σ 𝑥𝑖
2 ,e መ𝛽2 =
𝑥𝑖
σ 𝑥𝑖
2 ∗ σ𝑌𝑖→ መ𝛽2 = σ𝑘𝑖 𝑌𝑖 (37)
✓Substitua a FRP: 𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖 em (37), temos: 
መ𝛽2 = σ𝑘𝑖 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖
෡𝜷𝟐 = 𝜷𝟏σ𝒌𝒊 +𝜷𝟐σ𝒌𝒊𝑿𝒊 +σ𝒌𝒊𝒖𝒊 (segura a onda por enquanto!)
✓Pelas propriedades dos pesos (𝑘𝑖), temos:
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓i) σ𝑘𝑖 = 0, demonstrando!
σ𝑘𝑖 = σ(
𝑥𝑖
σ 𝑥𝑖
2) → σ𝑘𝑖 =
1
σ 𝑥𝑖
2σ𝑥𝑖, como σ𝑥𝑖=0, 
temos:
✓σ𝑘𝑖 = 0
A soma dos desvios em 
relação à média é sempre 
zero
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓ii) σ𝑘𝑖
2 =
1
σ 𝑥𝑖
2
✓iii)σ𝑘𝑖𝑥𝑖 = σ𝑘𝑖𝑌𝑖 =1
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
Retomando a demonstração de 𝒗𝒂𝒓 ෡𝜷𝟐 =
𝝈𝟐
σ 𝒙𝒊
𝟐
መ𝛽2 = 𝛽1σ𝑘𝑖 +𝛽2σ𝑘𝑖𝑋𝑖 +σ𝑘𝑖𝑢𝑖, 
Usando: σ𝑘𝑖 = 0 e σ𝑘𝑖𝑥𝑖 = σ𝑘𝑖𝑌𝑖 =1
෡𝜷𝟐 = 𝜷𝟐 + σ𝒌𝒊𝒖𝒊 (38)
2- ANÁLISE DE REGRESSÃO
✓Tomando o valor esperado de ambos os lado de (38)
✓ መ𝛽2 = 𝛽2 + σ𝑘𝑖𝑢𝑖 (38) → 𝐸 መ𝛽2 = 𝐸 𝛽2 + σ𝑘𝑖𝑢𝑖 , 
Como ki é não estocástico ele é tratado como uma constante. 
Assim:
✓𝐸 መ𝛽2 = 𝐸 𝛽2 + σ𝑘𝑖 𝐸(𝑢𝑖) (39), dado que 𝐸 𝛽2 = 𝛽2,
✓𝑬 ෡𝜷𝟐 = 𝜷𝟐 (40) →mostra que ෡𝜷𝟐 é um estimador não 
tendencioso do verdadeiro 𝜷𝟐
0
Acabamos ? Não
𝒗𝒂𝒓 ෡𝜷𝟐 =
𝝈𝟐
σ𝒙𝒊
𝟐
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓2ª Parte da demonstração de 𝒗𝒂𝒓 ෡𝜷𝟐 =
𝝈𝟐
σ 𝒙𝒊
𝟐
✓Obter a 𝒗𝒂𝒓 ෡𝜷𝟐 a partir da definição de variância
✓𝑣𝑎𝑟 መ𝛽2 = 𝐸 መ𝛽2 − 𝐸( መ𝛽2)
2
, como 𝑬 ෡𝜷𝟐 = 𝜷𝟐, temos:
✓𝑣𝑎𝑟 መ𝛽2 = 𝐸 መ𝛽2 − 𝛽2
2
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓Usando (39)→ 𝑬 ෡𝜷𝟐 = 𝑬 𝜷𝟐 + σ𝒌𝒊 𝑬(𝒖𝒊)
✓𝐸 መ𝛽2 − 𝐸 𝛽2 = σ𝑘𝑖 𝐸(𝑢𝑖) ou 𝑬(෡𝜷𝟐 − 𝜷𝟐)= σ𝒌𝒊 𝑬(𝒖𝒊) , logo
✓𝑣𝑎𝑟 መ𝛽2 = (σ𝑘𝑖 𝐸(𝑢𝑖) )
2 → 𝒗𝒂𝒓 ෡𝜷𝟐 = 𝑬(σ𝒌𝒊𝒖𝒊)
𝟐
✓𝑣𝑎𝑟 መ𝛽2 = 𝐸(𝑘1
2𝑢1
2 + 𝑘2
2𝑢2
2 +⋯+ 𝑘𝑛
2𝑢𝑛
2 + 2𝑘1𝑘2𝑢1𝑢2 +⋯+ 2𝑘𝑛𝑘𝑛𝑢𝑛𝑢𝑛)
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
𝑣𝑎𝑟 መ𝛽2 = 𝐸(𝑘1
2𝑢1
2 + 𝑘2
2𝑢2
2 +⋯+ 𝑘𝑛
2𝑢𝑛
2 + 2𝑘1𝑘2𝑢1𝑢2 +⋯+ 2𝑘𝑛𝑘𝑛𝑢𝑛𝑢𝑛)
𝑣𝑎𝑟 መ𝛽2 = 𝑘1
2𝐸 𝑢1
2 + 𝑘2
2𝐸 𝑢2
2 +⋯+ 𝑘𝑛
2𝐸(𝑢𝑛
2), se 𝑬 𝒖𝒊
𝟐 = 𝝈𝒊
𝟐
𝑣𝑎𝑟 መ𝛽2 = 𝑘1
2𝜎1
2 + 𝑘2
2𝜎2
2 +⋯+ 𝑘𝑛
2𝜎𝑛
2
𝑣𝑎𝑟 መ𝛽2 = 𝜎
2 σ𝑘𝑖
2 , como σ𝑘𝑖
2 =
1
σ 𝑥𝑖
2 , tem-se:
𝒗𝒂𝒓 ෡𝜷𝟐 = 𝝈
𝟐 𝟏
σ 𝒙𝒊
𝟐 → 𝒗𝒂𝒓 ෡𝜷𝟐 =
𝝈𝟐
σ 𝒙𝒊
𝟐 (41) c.q.d
0, 𝐸 𝑢𝑖 , 𝑢𝑗 = 0
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
DEMONSTRANDO QUE 𝒆𝒑 ෡𝜷𝟐 =
𝝈
σ 𝒙𝒊
𝟐
𝒆𝒑 ෡𝜷𝟐 = 𝒗𝒂𝒓(෡𝜷𝟐)
𝒆𝒑 ෡𝜷𝟐 =
𝝈𝟐
σ𝒙𝒊
𝟐
𝒆𝒑 ෡𝜷𝟐 =
𝝈
σ 𝒙𝒊
𝟐
(42) c.q d.
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓Os mesmos procedimentos podem ser adotados para obter:
𝒗𝒂𝒓 ෡𝜷𝟏 =
σ 𝑿𝒊
𝟐
𝒏 σ 𝒙𝒊
𝟐 ∗ 𝝈
𝟐 (43) 
𝑒𝑝 መ𝛽1 =
σ 𝑋𝑖
2
𝑛 σ 𝑥𝑖
2 ∗ 𝜎2 → 𝒆𝒑 ෡𝜷𝟏 =
σ 𝑿𝒊
𝟐
𝒏 σ 𝒙𝒊
𝟐 ∗ 𝝈 (44)
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
CARACTERÍSTICAS DAS 𝒗𝒂𝒓 ෡𝜷𝟐 , 𝒗𝒂𝒓 ෡𝜷𝟏 , 𝒆𝒑 ෡𝜷𝟐 e 𝒆𝒑 ෡𝜷𝟏
✓ i) A 𝒗𝒂𝒓 ෡𝜷𝟐 =
𝝈𝟐
σ 𝒙𝒊
𝟐 é diretamente proporcional a 𝝈
𝟐 , mas 
inversamente proporcional a σ𝒙𝒊
𝟐.
✓ 𝒗𝒂𝒓 ෡𝜷𝟐 =
𝝈𝟐
σ 𝒙𝒊
𝟐 ou 𝒗𝒂𝒓 ෡𝜷𝟐 =
𝝈𝟐
σ 𝒙𝒊
𝟐
✓ Quanto menor for 𝒗𝒂𝒓 ෡𝜷𝟐 maior será a precisão da estimativa de 
𝛽2
n→menor será a var
2- ANÁLISE DE REGRESSÃO
CARACTERÍSTICAS DAS 𝒗𝒂𝒓 ෡𝜷𝟐 , 𝒗𝒂𝒓 ෡𝜷𝟏 , 𝒆𝒑 ෡𝜷𝟐 E 𝒆𝒑 ෡𝜷𝟏
✓ ii) a 𝒗𝒂𝒓 ෡𝜷𝟏 =
σ 𝑿𝒊
𝟐
𝒏 σ 𝒙𝒊
𝟐 ∗ 𝝈
𝟐 é diretamente proporcional a
𝝈𝟐 e a σ𝑿𝒊
𝟐 e inversamente proporcional ao tamanho da
amostra (n) e a σ𝒙𝒊
𝟐.
✓ iii) Como ෡𝜷𝟏 e ෡𝜷𝟐 são estimados, eles não só variam de
amostra para amostra, mas também tendem a serem
dependentes.
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
Tal dependência é medida pela covariância, dada por:
𝒄𝒐𝒗 ෡𝜷𝟏, ෡𝜷𝟐 = −ഥ𝑿 (
𝝈𝟐
σ𝒙𝒊
𝟐)
2- ANÁLISE DE REGRESSÃO
2.3.1 – Precisão ou erros-padrão das estimativas de MQ
✓Demostrando que 𝒄𝒐𝒗 ෡𝜷𝟏, ෡𝜷𝟐 = −ഥ𝑿 (
𝝈𝟐
σ 𝒙𝒊
𝟐)
✓ Por definição temos que: 
✓𝒄𝒐𝒗 ෡𝜷𝟏, ෡𝜷𝟐 = 𝑬 ෡𝜷𝟏 − 𝑬(෡𝜷𝟏) ෡𝜷𝟐 − 𝑬(෡𝜷𝟐)
✓Sabemos que: 
መ𝛽1 = ത𝑌 − መ𝛽2 ത𝑋 e que 𝐸 መ𝛽1 = ത𝑌 − 𝛽2 ത𝑋
2- ANÁLISE DE REGRESSÃO
𝒄𝒐𝒗 ෡𝜷𝟏, ෡𝜷𝟐 = 𝑬 ෡𝜷𝟏 − 𝑬(෡𝜷𝟏) ෡𝜷𝟐 − 𝑬(෡𝜷𝟐)
✓Sabemos que: መ𝛽1 = ത𝑌 − መ𝛽2 ത𝑋 e que 𝐸 መ𝛽1 = ത𝑌 − 𝛽2 ത𝑋
𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = 𝐸 ത𝑌 − መ𝛽2 ത𝑋 − ( ത𝑌 − 𝛽2 ത𝑋) መ𝛽2 − 𝛽2)
𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = 𝐸 ത𝑌 − መ𝛽2 ത𝑋 − ത𝑌 + 𝛽2 ത𝑋) መ𝛽2 − 𝛽2)
𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = 𝐸 − መ𝛽2 ത𝑋 + 𝛽2 ത𝑋) መ𝛽2 − 𝛽2)
𝐸 መ𝛽2 = 𝛽2
2- ANÁLISE DE REGRESSÃO
𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = 𝐸 − መ𝛽2 ത𝑋 + 𝛽2 ത𝑋) መ𝛽2 − 𝛽2)
𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = 𝐸 − ത𝑋 ( መ𝛽2−𝛽2) መ𝛽2 − 𝛽2)
𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = − ത𝑋 𝐸 ( መ𝛽2−𝛽2) መ𝛽2 − 𝛽2)
𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = − ത𝑋 𝐸( መ𝛽2−𝛽2)
2 , como 𝐸( መ𝛽2−𝛽2)
2= 𝑣𝑎𝑟 ( መ𝛽2)
𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = − ത𝑋𝑣𝑎𝑟 ( መ𝛽2), dado que 𝒗𝒂𝒓 ෡𝜷𝟐 =
𝝈𝟐
σ 𝒙𝒊
𝟐
2- ANÁLISE DE REGRESSÃO
𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = − ҧ𝑋𝑣𝑎𝑟 ( መ𝛽2), dado que 𝒗𝒂𝒓 ෡𝜷𝟐 =
𝝈𝟐
σ 𝒙𝒊
𝟐
𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = − ത𝑋
𝝈𝟐
σ 𝒙𝒊
𝟐 (45), c. q. d
Observe que, dado que 𝒗𝒂𝒓 ෡𝜷𝟐 é sempre positiva (como 
ocorre para qualquer variável), então o sinal de 𝑐𝑜𝑣 መ𝛽1, መ𝛽2
dependerá do sinal de ത𝑋

Continue navegando

Outros materiais