Baixe o app para aproveitar ainda mais
Prévia do material em texto
MÓDULO II- ANÁLISE DE REGRESSÃO (continuação) AULA 5- 30-08-2018 DISCIPLINA:ECONOMETRIA 1 PROFª: Graciela Profeta 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO ✓O Modelo Linear de Regressão Clássico (MLRC) se sustenta em 10 premissas: ✓Primeiramente analisaremos essas 10 premissas em um contexto de um modelo de regressão com apenas duas variáveis e depois estenderemos esta análise para um modelo de regressão múltipla. 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖 Sabemos da eq. (24) que መ𝛽2 = σ 𝑥𝑖𝑦𝑖 σ 𝑥𝑖 2 → መ𝛽2 = 𝑥𝑖 σ 𝑦𝑖 σ 𝑥𝑖 2 dado que 𝑘𝑖 = 𝑥𝑖 (σ 𝑥𝑖 2) , então: መ𝛽2 = 𝑘𝑖 σ𝑦𝑖 → 𝜷𝟐 = σ𝒌𝒊𝒚𝒊 ✓Logo, observa-se que መ𝛽2 é um estimador linear de Y. ✓Na verdade é uma média ponderada de Yi, em que ki são os pesos. PREMISSA 1: O modelo de regressão é LINEAR NOS PARÂMETROS. 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO ✓Voltando ao exemplo do consumo e da Renda. O valor fixo aqui é, por exemplo, o 80 ✓Observe, que esta é uma Análise condicional PREMISSA 2: Os valores de X são fixos em amostras repetidas 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO ✓Dado o valor de X, temos que E(ui/xi)=0 PREMISSA 3: O valor médio do termo de erro (ui) é zero ✓Para cada X tem-se os Y’s que se distribuem em torno da média. Logo, temos os erros (ui) E o desejamos é que E(ui/xi)=0 ✓Além disso, E(ui/xi)=0 indica que demais variáveis omitidas no modelo não afetariam de forma sistemática o valor médio de Y; ✓Dado que E(ui/xi)=0 , → 𝐸 Τ𝑌𝑖 𝑋𝑖 = 𝛽1 + 𝛽2𝑋𝑖 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO ✓Dado o valor de X, a variância de ui é a mesma para todas as observações. ✓Isto é, as variâncias condicionais de ui são idênticas. ✓Matematicamente, temos: PREMISSA 4: Homocedasticidade ou variância igual de ui 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO ✓𝑯𝒐𝒎𝒐𝒄𝒆𝒅𝒂𝒔𝒕𝒊𝒄𝒊𝒅𝒂𝒅𝒆 → 𝝈𝟏 = 𝝈𝟐 = 𝝈𝒊 𝑉𝑎𝑟 𝑢𝑖 ∕ 𝑋𝑖 = 𝐸 𝑢𝑖 − 𝐸(𝑢𝑖 ∕ 𝑋𝑖) 2 , 𝑐𝑜𝑚𝑜 𝐸 𝑢𝑖 = 0, temos: 𝑉𝑎𝑟 𝑢𝑖 ∕ 𝑋𝑖 = 𝐸 𝑢𝑖 2 ∕ 𝑋𝑖 𝑉𝑎𝑟 𝑢𝑖 ∕ 𝑋𝑖 = 𝜎 2 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO ✓Observe agora a seguinte Figura ✓Em ambos os casos, o consumo aumenta com o aumento da renda ✓Agora, não há Homocedasticidade e sim hetorocedasticidade. Neste caso, nota-se que famílias mais ricas apresentam maior variabilidade no consumo 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO ✓Ainda, de acordo com a Premissa 4, temos que as variâncias condicionais de Yi também são homocedásticas: 𝑉𝑎𝑟 Τ𝑌𝑖 𝑋𝑖 = 𝜎 2 (35) ✓Logo a variância incondicional de Y é 𝜎𝑌 2 PREMISSA 4: Homocedasticidade ou variância igual de ui 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO ✓Dado quaisquer dois valores de X (Xi e Xj, com i ≠ 𝑗) a correlação entre quaisquer ui e uj (i ≠ 𝑗) é zero. 𝐶𝑂𝑉 Τ𝑢𝑖 𝑢𝑗 = 𝐸 𝑢𝑖 − 𝐸(𝑢𝑖 ) ∕ 𝑋𝑖 {[𝑢𝑗 − 𝐸(𝑢𝑗)]/𝑋𝑗]} 𝐶𝑂𝑉 Τ𝑢𝑖 𝑢𝑗 = 𝐸( Τ𝑢𝑖 𝑋𝑖)( Τ𝑢𝑗 𝑋𝑗) 𝐶𝑂𝑉 Τ𝑢𝑖 𝑢𝑗 =0 (36) Ausência de correlação serial entre os termos de erros. PREMISSA 5: Não há autocorrelação entre os termos de erro 00 0 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO PREMISSA 5: Não há autocorrelação entre os termos de erro Correlação serial positiva Correlação serial negativa Ausência de Correlação, ou correlação zero→ ausência de padrão sistemático 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO 𝐶𝑜𝑣 𝑢𝑖𝑋𝑖 = 𝐸 𝑢𝑖 − 𝐸(𝑢𝑖) 𝑋𝑖 − 𝐸(𝑋𝑖) 𝐶𝑜𝑣 𝑢𝑖𝑋𝑖 = 𝐸 𝑢𝑖(𝑋𝑖 − 𝐸(𝑋𝑖) 𝐶𝑜𝑣 𝑢𝑖𝑋𝑖 = 𝐸 𝑢𝑖𝑋𝑖 − 𝐸 𝑢𝑖 𝐸(𝑋𝑖) 𝐶𝑜𝑣 𝑢𝑖𝑋𝑖 =0 (37)→ logo, U e x não estão correlacionados Intuitivamente, porque? PREMISSA 6: Ausência de covariância entre Ui e Xi ou E(uiXi)=0 0 0 0 2- ANÁLISE DE REGRESSÃO 2.3. – PROPRIEDADES DOS ESTIMADORES DE MQO ✓ Quando expressamos uma FRP→ 𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖 presumimos que X e U exercem influências separadas sobre os Y. ✓ Logo, se X e U estivessem correlacionados, não seria possível mensurar os efeito individuais sobre Y. ✓ Observe que se a premissa 3 for atendida, então: ✓ 𝐶𝑜𝑣 𝑢𝑖 , 𝑋𝑖 = 𝑋𝑖 − 𝐸(𝑋𝑖) 𝐸 𝑢𝑖 − 𝐸(𝑢𝑖) → 𝐶𝑜𝑣 𝑢𝑖 , 𝑋𝑖 =0 E(ui/xi)=0 o valor médio do erro é zero 2- ANÁLISE DE REGRESSÃO 2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO ✓O número de observações deve ser maior do que o número de variáveis explicativas; PREMISSA 7: O número de observações (n) deve ser maior do que o número de parâmetros estimados 2- ANÁLISE DE REGRESSÃO 2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO ✓ Os valores de X em uma dada amostra não devem ser os mesmos; ✓ Tecnicamente: 𝑣𝑎𝑟 𝑋 = σ(𝑋𝑖− ത𝑋) 2 𝑛−1 ✓ Se todos os valores de X são iguais, temos que 𝑋𝑖 = ത𝑋, logo não conseguimos obter, por exemplo o መ𝛽2: ✓ መ𝛽2 = σ 𝑋𝑖− ത𝑋 (𝑌𝑖−ത𝑌) σ(𝑋𝑖− ത𝑋) 2 ou መ𝛽2 = σ 𝑥𝑖𝑦𝑖 σ 𝑥𝑖 2 → PREMISSA 8: Variabilidade nos valores de X As variáveis precisam variar! 2- ANÁLISE DE REGRESSÃO 2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO ✓Em outras palavras, devemos assumir que não há viés ou erros de especificação no modelo empregado na análise empírica. ✓Para tanto, devemos nos preocupar em responder às seguintes questões: PREMISSA 9: O modelo de regressão está especificado de forma correta 2- ANÁLISE DE REGRESSÃO 2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO ✓i) Que variáveis devem ser incluídas no modelo? ✓ii) Qual é a forma funcional do modelo? Ou seja, ele será linear nos parâmetros, nas variáveis ou em ambos? ✓iii)Quais são as pressuposições probabilísticas feitas a respeito dos Yi, dos Xi e dos ui ? 2- ANÁLISE DE REGRESSÃO 2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO ✓Esta premissa é mais adequada para o caso de modelos de regressão múltipla; ✓Nos diz que não há relações lineares perfeitas entre as variáveis explicativas do modelo. PREMISSA 10: Não há multicolinearidade perfeita 2- ANÁLISE DE REGRESSÃO 2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO ✓Vale lembrar que todas as premissas do MRLC (1 a 10) se aplicam apenas à FRP e não à FRA. ✓Contudo, o MQ tenta justamente “duplicar” algumas destas premissas de modo a ser possível trabalharmos com a FRA. ✓Por exemplo: 2- ANÁLISE DE REGRESSÃO 2.3 – PROPRIEDADES DOS ESTIMADORES DE MQO ✓i) σ ො𝑢𝑖 = 0 → തො𝑢 = 0 → 𝐹𝑅𝐴; é semelhante a 𝐸 Τ𝑢𝑖 𝑋𝑖 = 0 → 𝐹𝑅𝑃; ✓ii) σ ො𝑢𝑖𝑋𝑖 = 0 → 𝐹𝑅𝐴; é semelhante a 𝑐𝑜𝑣 𝑢𝑖 , 𝑋𝑖 = 0 → 𝐹𝑅𝑃 ✓Para refletir? ✓Até que ponto todas as premissas são realistas? ✓Milton Friedam→ defensor da tese da “irrelevância”; ✓Em qualquer estudo científico o pesquisador lança mão de pressupostos. 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓Retomando às fórmulas do betas de MQO, temos: መ𝛽2 = σ 𝑋𝑖− ത𝑋 (𝑌𝑖−ത𝑌) σ(𝑋𝑖− ത𝑋) 2 ou መ𝛽2 = σ 𝑥𝑖𝑦𝑖 σ 𝑥𝑖 2 መ𝛽1 = σ 𝑋𝑖 2 σ 𝑌𝑖−σ 𝑋𝑖 σ 𝑋𝑖𝑌𝑖 𝑛 σ 𝑋𝑖 2−(σ 𝑋𝑖) 2 ou መ𝛽1 = ത𝑌 − መ𝛽2 ത𝑋 ✓Notamos que os betas são uma função dos dados amostrais de X e Y. 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓Logo, se os dados tendem a variar/mudar quando mudamos de amostra, é necessário alguma medida para verificar a “confiabilidade” ou a ”precisão” dos estimadores ( መ𝛽1, መ𝛽2); ✓Em estatística, a precisão de uma estimativa é medida pelo seu erro-padrão (ou desvio-padrão da distribuição amostral do estimador que é, por sua vez,a probabilidade ou distribuição de frequência do estimador). 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓Então como obter os erros-padrão das estimativas de MQO? ✓Isto é: como obter 𝑣𝑎𝑟( መ𝛽2) e ep( መ𝛽2). ✓Assim como, 𝑣𝑎𝑟( መ𝛽1) e ep( መ𝛽1). 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓1ª Parte da demonstração da 𝒗𝒂𝒓 𝜷𝟐 = 𝝈𝟐 σ 𝒙𝒊 𝟐 ✓Partindo de መ𝛽2 = σ 𝑥𝑖𝑌𝑖 σ 𝑥𝑖 2 → መ𝛽2 = 𝑥𝑖 σ 𝑥𝑖 2 ∗ σ𝑌𝑖 ✓Como መ𝛽2 é linear e disto sabemos que መ𝛽2 é obtido em função de uma média ponderada (pesos ki) de Yi. Temos: 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓𝑘𝑖 = 𝑥𝑖 σ 𝑥𝑖 2 ,e መ𝛽2 = 𝑥𝑖 σ 𝑥𝑖 2 ∗ σ𝑌𝑖→ መ𝛽2 = σ𝑘𝑖 𝑌𝑖 (37) ✓Substitua a FRP: 𝑌𝑖 = 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖 em (37), temos: መ𝛽2 = σ𝑘𝑖 𝛽1 + 𝛽2𝑋𝑖 + 𝑢𝑖 𝜷𝟐 = 𝜷𝟏σ𝒌𝒊 +𝜷𝟐σ𝒌𝒊𝑿𝒊 +σ𝒌𝒊𝒖𝒊 (segura a onda por enquanto!) ✓Pelas propriedades dos pesos (𝑘𝑖), temos: 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓i) σ𝑘𝑖 = 0, demonstrando! σ𝑘𝑖 = σ( 𝑥𝑖 σ 𝑥𝑖 2) → σ𝑘𝑖 = 1 σ 𝑥𝑖 2σ𝑥𝑖, como σ𝑥𝑖=0, temos: ✓σ𝑘𝑖 = 0 A soma dos desvios em relação à média é sempre zero 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓ii) σ𝑘𝑖 2 = 1 σ 𝑥𝑖 2 ✓iii)σ𝑘𝑖𝑥𝑖 = σ𝑘𝑖𝑌𝑖 =1 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ Retomando a demonstração de 𝒗𝒂𝒓 𝜷𝟐 = 𝝈𝟐 σ 𝒙𝒊 𝟐 መ𝛽2 = 𝛽1σ𝑘𝑖 +𝛽2σ𝑘𝑖𝑋𝑖 +σ𝑘𝑖𝑢𝑖, Usando: σ𝑘𝑖 = 0 e σ𝑘𝑖𝑥𝑖 = σ𝑘𝑖𝑌𝑖 =1 𝜷𝟐 = 𝜷𝟐 + σ𝒌𝒊𝒖𝒊 (38) 2- ANÁLISE DE REGRESSÃO ✓Tomando o valor esperado de ambos os lado de (38) ✓ መ𝛽2 = 𝛽2 + σ𝑘𝑖𝑢𝑖 (38) → 𝐸 መ𝛽2 = 𝐸 𝛽2 + σ𝑘𝑖𝑢𝑖 , Como ki é não estocástico ele é tratado como uma constante. Assim: ✓𝐸 መ𝛽2 = 𝐸 𝛽2 + σ𝑘𝑖 𝐸(𝑢𝑖) (39), dado que 𝐸 𝛽2 = 𝛽2, ✓𝑬 𝜷𝟐 = 𝜷𝟐 (40) →mostra que 𝜷𝟐 é um estimador não tendencioso do verdadeiro 𝜷𝟐 0 Acabamos ? Não 𝒗𝒂𝒓 𝜷𝟐 = 𝝈𝟐 σ𝒙𝒊 𝟐 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓2ª Parte da demonstração de 𝒗𝒂𝒓 𝜷𝟐 = 𝝈𝟐 σ 𝒙𝒊 𝟐 ✓Obter a 𝒗𝒂𝒓 𝜷𝟐 a partir da definição de variância ✓𝑣𝑎𝑟 መ𝛽2 = 𝐸 መ𝛽2 − 𝐸( መ𝛽2) 2 , como 𝑬 𝜷𝟐 = 𝜷𝟐, temos: ✓𝑣𝑎𝑟 መ𝛽2 = 𝐸 መ𝛽2 − 𝛽2 2 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓Usando (39)→ 𝑬 𝜷𝟐 = 𝑬 𝜷𝟐 + σ𝒌𝒊 𝑬(𝒖𝒊) ✓𝐸 መ𝛽2 − 𝐸 𝛽2 = σ𝑘𝑖 𝐸(𝑢𝑖) ou 𝑬(𝜷𝟐 − 𝜷𝟐)= σ𝒌𝒊 𝑬(𝒖𝒊) , logo ✓𝑣𝑎𝑟 መ𝛽2 = (σ𝑘𝑖 𝐸(𝑢𝑖) ) 2 → 𝒗𝒂𝒓 𝜷𝟐 = 𝑬(σ𝒌𝒊𝒖𝒊) 𝟐 ✓𝑣𝑎𝑟 መ𝛽2 = 𝐸(𝑘1 2𝑢1 2 + 𝑘2 2𝑢2 2 +⋯+ 𝑘𝑛 2𝑢𝑛 2 + 2𝑘1𝑘2𝑢1𝑢2 +⋯+ 2𝑘𝑛𝑘𝑛𝑢𝑛𝑢𝑛) 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ 𝑣𝑎𝑟 መ𝛽2 = 𝐸(𝑘1 2𝑢1 2 + 𝑘2 2𝑢2 2 +⋯+ 𝑘𝑛 2𝑢𝑛 2 + 2𝑘1𝑘2𝑢1𝑢2 +⋯+ 2𝑘𝑛𝑘𝑛𝑢𝑛𝑢𝑛) 𝑣𝑎𝑟 መ𝛽2 = 𝑘1 2𝐸 𝑢1 2 + 𝑘2 2𝐸 𝑢2 2 +⋯+ 𝑘𝑛 2𝐸(𝑢𝑛 2), se 𝑬 𝒖𝒊 𝟐 = 𝝈𝒊 𝟐 𝑣𝑎𝑟 መ𝛽2 = 𝑘1 2𝜎1 2 + 𝑘2 2𝜎2 2 +⋯+ 𝑘𝑛 2𝜎𝑛 2 𝑣𝑎𝑟 መ𝛽2 = 𝜎 2 σ𝑘𝑖 2 , como σ𝑘𝑖 2 = 1 σ 𝑥𝑖 2 , tem-se: 𝒗𝒂𝒓 𝜷𝟐 = 𝝈 𝟐 𝟏 σ 𝒙𝒊 𝟐 → 𝒗𝒂𝒓 𝜷𝟐 = 𝝈𝟐 σ 𝒙𝒊 𝟐 (41) c.q.d 0, 𝐸 𝑢𝑖 , 𝑢𝑗 = 0 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ DEMONSTRANDO QUE 𝒆𝒑 𝜷𝟐 = 𝝈 σ 𝒙𝒊 𝟐 𝒆𝒑 𝜷𝟐 = 𝒗𝒂𝒓(𝜷𝟐) 𝒆𝒑 𝜷𝟐 = 𝝈𝟐 σ𝒙𝒊 𝟐 𝒆𝒑 𝜷𝟐 = 𝝈 σ 𝒙𝒊 𝟐 (42) c.q d. 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓Os mesmos procedimentos podem ser adotados para obter: 𝒗𝒂𝒓 𝜷𝟏 = σ 𝑿𝒊 𝟐 𝒏 σ 𝒙𝒊 𝟐 ∗ 𝝈 𝟐 (43) 𝑒𝑝 መ𝛽1 = σ 𝑋𝑖 2 𝑛 σ 𝑥𝑖 2 ∗ 𝜎2 → 𝒆𝒑 𝜷𝟏 = σ 𝑿𝒊 𝟐 𝒏 σ 𝒙𝒊 𝟐 ∗ 𝝈 (44) 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ CARACTERÍSTICAS DAS 𝒗𝒂𝒓 𝜷𝟐 , 𝒗𝒂𝒓 𝜷𝟏 , 𝒆𝒑 𝜷𝟐 e 𝒆𝒑 𝜷𝟏 ✓ i) A 𝒗𝒂𝒓 𝜷𝟐 = 𝝈𝟐 σ 𝒙𝒊 𝟐 é diretamente proporcional a 𝝈 𝟐 , mas inversamente proporcional a σ𝒙𝒊 𝟐. ✓ 𝒗𝒂𝒓 𝜷𝟐 = 𝝈𝟐 σ 𝒙𝒊 𝟐 ou 𝒗𝒂𝒓 𝜷𝟐 = 𝝈𝟐 σ 𝒙𝒊 𝟐 ✓ Quanto menor for 𝒗𝒂𝒓 𝜷𝟐 maior será a precisão da estimativa de 𝛽2 n→menor será a var 2- ANÁLISE DE REGRESSÃO CARACTERÍSTICAS DAS 𝒗𝒂𝒓 𝜷𝟐 , 𝒗𝒂𝒓 𝜷𝟏 , 𝒆𝒑 𝜷𝟐 E 𝒆𝒑 𝜷𝟏 ✓ ii) a 𝒗𝒂𝒓 𝜷𝟏 = σ 𝑿𝒊 𝟐 𝒏 σ 𝒙𝒊 𝟐 ∗ 𝝈 𝟐 é diretamente proporcional a 𝝈𝟐 e a σ𝑿𝒊 𝟐 e inversamente proporcional ao tamanho da amostra (n) e a σ𝒙𝒊 𝟐. ✓ iii) Como 𝜷𝟏 e 𝜷𝟐 são estimados, eles não só variam de amostra para amostra, mas também tendem a serem dependentes. 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ Tal dependência é medida pela covariância, dada por: 𝒄𝒐𝒗 𝜷𝟏, 𝜷𝟐 = −ഥ𝑿 ( 𝝈𝟐 σ𝒙𝒊 𝟐) 2- ANÁLISE DE REGRESSÃO 2.3.1 – Precisão ou erros-padrão das estimativas de MQ ✓Demostrando que 𝒄𝒐𝒗 𝜷𝟏, 𝜷𝟐 = −ഥ𝑿 ( 𝝈𝟐 σ 𝒙𝒊 𝟐) ✓ Por definição temos que: ✓𝒄𝒐𝒗 𝜷𝟏, 𝜷𝟐 = 𝑬 𝜷𝟏 − 𝑬(𝜷𝟏) 𝜷𝟐 − 𝑬(𝜷𝟐) ✓Sabemos que: መ𝛽1 = ത𝑌 − መ𝛽2 ത𝑋 e que 𝐸 መ𝛽1 = ത𝑌 − 𝛽2 ത𝑋 2- ANÁLISE DE REGRESSÃO 𝒄𝒐𝒗 𝜷𝟏, 𝜷𝟐 = 𝑬 𝜷𝟏 − 𝑬(𝜷𝟏) 𝜷𝟐 − 𝑬(𝜷𝟐) ✓Sabemos que: መ𝛽1 = ത𝑌 − መ𝛽2 ത𝑋 e que 𝐸 መ𝛽1 = ത𝑌 − 𝛽2 ത𝑋 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = 𝐸 ത𝑌 − መ𝛽2 ത𝑋 − ( ത𝑌 − 𝛽2 ത𝑋) መ𝛽2 − 𝛽2) 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = 𝐸 ത𝑌 − መ𝛽2 ത𝑋 − ത𝑌 + 𝛽2 ത𝑋) መ𝛽2 − 𝛽2) 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = 𝐸 − መ𝛽2 ത𝑋 + 𝛽2 ത𝑋) መ𝛽2 − 𝛽2) 𝐸 መ𝛽2 = 𝛽2 2- ANÁLISE DE REGRESSÃO 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = 𝐸 − መ𝛽2 ത𝑋 + 𝛽2 ത𝑋) መ𝛽2 − 𝛽2) 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = 𝐸 − ത𝑋 ( መ𝛽2−𝛽2) መ𝛽2 − 𝛽2) 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = − ത𝑋 𝐸 ( መ𝛽2−𝛽2) መ𝛽2 − 𝛽2) 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = − ത𝑋 𝐸( መ𝛽2−𝛽2) 2 , como 𝐸( መ𝛽2−𝛽2) 2= 𝑣𝑎𝑟 ( መ𝛽2) 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = − ത𝑋𝑣𝑎𝑟 ( መ𝛽2), dado que 𝒗𝒂𝒓 𝜷𝟐 = 𝝈𝟐 σ 𝒙𝒊 𝟐 2- ANÁLISE DE REGRESSÃO 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = − ҧ𝑋𝑣𝑎𝑟 ( መ𝛽2), dado que 𝒗𝒂𝒓 𝜷𝟐 = 𝝈𝟐 σ 𝒙𝒊 𝟐 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 = − ത𝑋 𝝈𝟐 σ 𝒙𝒊 𝟐 (45), c. q. d Observe que, dado que 𝒗𝒂𝒓 𝜷𝟐 é sempre positiva (como ocorre para qualquer variável), então o sinal de 𝑐𝑜𝑣 መ𝛽1, መ𝛽2 dependerá do sinal de ത𝑋
Compartilhar