Baixe o app para aproveitar ainda mais
Prévia do material em texto
Universidade Estadual de Campinas Instituto de Economia Econometria: conceitos e aplicações Alexandre Gori Maia 2013 Sumário 1. Correlação e Regressão Linear Simples ................................................................................. 9 Introdução ................................................................................................................................... 9 1.1. Correlação ........................................................................................................................ 9 1.2. Regressão Linear Simples .............................................................................................. 15 1.3. Método de Mínimos Quadrados Ordinários ................................................................... 18 1.3.1. Definição ................................................................................................................. 19 1.3.2. Aplicação do MQO na regressão linear simples ..................................................... 20 1.3.3. Propriedades dos Estimadores de Mínimos Quadrados Ordinários ........................ 22 Exercícios .................................................................................................................................. 23 Respostas................................................................................................................................... 24 2. Inferência com os Estimadores de MQO .............................................................................. 25 Introdução ................................................................................................................................. 25 2.1. Teorema de Gauss-Markov ............................................................................................ 25 2.2. Significância das estimativas ......................................................................................... 29 2.3. Distribuição amostral dos estimadores ....................................................................... 29 2.4. Variância dos estimadores .......................................................................................... 30 2.5. Teste de hipóteses para os coeficientes ...................................................................... 32 2.6. Intervalo de confiança para os coeficientes ................................................................ 35 Exercícios .................................................................................................................................. 37 Respostas................................................................................................................................... 38 3. Intervalos de Confiança e Previsão para os Valores de Y ..................................................... 48 Introdução ................................................................................................................................. 48 3.1. Intervalos para valores individuais e para a média aritmética ....................................... 48 3.2. Intervalo de confiança para o valor previsto de Yi ......................................................... 50 3.3. Intervalo de previsão para valores individuais de Yi ...................................................... 52 3.4. Propriedades das estimativas por intervalo .................................................................... 53 Exercícios .................................................................................................................................. 55 Respostas................................................................................................................................... 55 4. Formas Funcionais ................................................................................................................ 58 Introdução ................................................................................................................................. 58 4.1. Modelo Linear ................................................................................................................ 58 4.2. Modelo Log-Lin ............................................................................................................. 60 4.3. Modelo Lin-Log ............................................................................................................. 62 4.4. Modelo Log-Log ............................................................................................................ 64 Exercícios .................................................................................................................................. 66 Respostas................................................................................................................................... 67 5. Análise de Variância ............................................................................................................. 68 Introdução ................................................................................................................................. 68 5.1. Soma dos Quadrados ...................................................................................................... 68 5.2. Coeficiente de Determinação ......................................................................................... 72 5.3. Análise de Variância (ANOVA) .................................................................................... 74 Exercícios .................................................................................................................................. 76 Respostas................................................................................................................................... 77 6. Introdução à Regressão Linear Múltipla ............................................................................... 82 Introdução ................................................................................................................................. 82 6.1. Estimadores de MQO ..................................................................................................... 82 6.2. Estimadores de MQO a partir de notação matricial ....................................................... 85 6.3. O uso de variáveis centradas .......................................................................................... 89 Exercícios .................................................................................................................................. 94 Respostas................................................................................................................................... 96 7. Análise de Variância para Regressão Linear Múltipla ....................................................... 102 Introdução ............................................................................................................................... 102 7.1. Coeficiente de determinação e estatística F ................................................................. 102 7.2. Coeficiente de determinação ajustado .......................................................................... 106 Exercícios ................................................................................................................................ 108 Respostas................................................................................................................................. 110 8. Inferência em Regressão Linear Múltipla ........................................................................... 113 Introdução ............................................................................................................................... 113 8.1. Matriz de variância e covariância e teste t para βk....................................................... 113 8.2. Inferência para combinação linear dos parâmetros ...................................................... 117 8.3. Teste de hipóteses para combinação linear dos parâmetros ......................................... 118 8.3. Intervalo de confiança para valor previsto ................................................................... 120 Exercícios ................................................................................................................................ 122 Respostas................................................................................................................................. 124 9. Contribuição Marginal ........................................................................................................ 125 Introdução ............................................................................................................................... 125 9.1. ANOVA para contribuição marginal ........................................................................... 125 9.2. Correlação parcial ........................................................................................................ 130 Exercícios ................................................................................................................................ 132 Respostas................................................................................................................................. 134 10. Multicolinearidade ........................................................................................................... 135 Introdução ............................................................................................................................... 135 10.1. Definição .................................................................................................................. 136 10.2. Fator Inflacionário da Variância ............................................................................... 139 10.3. Identificação da multicolinearidade .......................................................................... 141 10.4. Correção da multicolinearidade ................................................................................ 142 Exercícios ................................................................................................................................ 145 Respostas................................................................................................................................. 148 11. Variáveis Binárias ............................................................................................................ 153 Introdução ............................................................................................................................... 153 11.1. Variáveis binárias para representar 2 categorias ...................................................... 154 11.2. Variáveis binárias para representar múltiplas categorias ......................................... 156 11.3. Interpretação de coeficientes de binárias em equações semi-logaritmicas ............... 159 11.4. Outras aplicações das variáveis binárias .................................................................. 161 11.5. Teste de mudança estrutural ..................................................................................... 165 Exercícios ................................................................................................................................ 169 Respostas................................................................................................................................. 171 12. Heterocedasticidade ......................................................................................................... 172 Introdução ............................................................................................................................... 172 12.1. Definição .................................................................................................................. 172 12.2. Identificação ............................................................................................................. 175 12.2.1. Análise Gráfica .................................................................................................. 175 12.2.2. Teste de Goldfeld-Quandt ................................................................................. 177 12.2.3. Teste de Breusch-Pagan .................................................................................... 180 12.2.4. Teste de White ................................................................................................... 182 12.3. Mínimos Quadrados Ponderados .............................................................................. 184 12.3.1. Função de heterocedasticidade conhecida......................................................... 186 12.3.2. Função de heterocedasticidade desconhecida – Mínimos Quadrados Generalizados Factíveis ...................................................................................................... 188 12.4. Estimadores Robustos da Variância ......................................................................... 190 Exercícios ................................................................................................................................ 192 Respostas................................................................................................................................. 194 13. Autocorrelação ................................................................................................................. 195 Introdução ............................................................................................................................... 195 13.1. Definição .................................................................................................................. 195 13.2. Identificação ............................................................................................................. 199 13.2.1. Análise Gráfica ..................................................................................................... 199 13.2.2. Teste t para regressores estritamente exógenos .................................................... 201 13.2.3. Teste de Durbin-Watson para um MCRL ............................................................. 203 13.2.4. Teste de Breusch-Godfrey para múltiplas defasagens .......................................... 205 13.3. Mínimos Quadrados Generalizados .......................................................................... 207 13.3.1. Coeficiente de autocorrelação conhecido – Mínimos Quadrados Generalizados 210 13.3.2. Coeficiente de autocorrelação desconhecido – Mínimos Quadrados Generalizados Factíveis ...................................................................................................... 212 13.4. Estimadores Robustos da Variância ......................................................................... 214 Exercícios ................................................................................................................................ 215 Respostas................................................................................................................................. 217 14. Equações Simultâneas ...................................................................................................... 220 Introdução ............................................................................................................................... 220 14.1. Origem do problema ................................................................................................. 221 14.2. Definição ..................................................................................................................223 14.3. Mínimos Quadrados Indiretos .................................................................................. 226 14.4. Identificação ............................................................................................................. 228 14.5. Estimação por Variáveis Instrumentais .................................................................... 236 14.6. Mínimos Quadrados em dois Estágios (MQ2E) ....................................................... 238 14.7. Teste de endogeneidade ............................................................................................ 241 Exercícios ................................................................................................................................ 243 Respostas................................................................................................................................. 245 15. Estacionariedade .............................................................................................................. 247 Introdução ............................................................................................................................... 247 15.1. Processos estocásticos .............................................................................................. 248 15.2. Estacionariedade ....................................................................................................... 249 15.2.1. Definição ............................................................................................................... 249 15.2.2. Raiz Unitária ......................................................................................................... 251 15.2.3. Terminologia ......................................................................................................... 255 15.3. Função de autocorrelação ......................................................................................... 258 15.4. Teste de raiz unitária ................................................................................................. 260 15.4.1. Teste de Dickey-Fuller .......................................................................................... 261 15.4.2. Teste de Dickey-Fuller aumentado ....................................................................... 263 Exercícios ................................................................................................................................ 265 Respostas................................................................................................................................. 266 16. Cointegração .................................................................................................................... 267 Introdução ............................................................................................................................... 267 16.1. Relação espúria ......................................................................................................... 267 16.2. Modelo de tendência estacionária ............................................................................. 269 16.2.1. Coeficiente de determinação para regressando com tendência ............................. 270 16.3. Modelo de diferença estacionária ............................................................................. 272 16.4. Cointegração ............................................................................................................. 273 16.4.1. Modelo de correção de erros ................................................................................. 278 Exercícios ................................................................................................................................ 280 Respostas................................................................................................................................. 281 17. Modelos ARIMA ............................................................................................................. 283 Introdução ............................................................................................................................... 283 17.1. Modelo Autorregressivo (AR) .................................................................................. 283 17.2. Modelo de Médias Móveis (MA) ............................................................................. 286 17.3. Modelo Autorregressivo e de Médias Móveis (ARMA) .......................................... 287 17.4. Modelo Autorregressivo Integrado e de Médias Móveis (ARIMA) ........................ 288 Exercícios ................................................................................................................................ 293 Respostas................................................................................................................................. 293 Referências .............................................................................................................................. 294 PARTE I Regressão Linear Simples Econometria Alexandre Gori Maia 9 1. Correlação e Regressão Linear Simples Introdução O termo regressão foi originalmente proposto por Francis Galton em seu trabalho Regression Towards Mediocrity in Hereditary Stature, publicado no Journal of the Anthropological Institute of Great Britain and Ireland, em 1886. Galton analisou a relação entre a estatura média dos pais de uma família e a de seus filhos adultos. Como se esperava, observou que, em geral, pais altos têm filhos altos e pais baixos têm filhos baixos. Também verificou que os filhos de pais altos não são tão altos quanto seus pais, assim como os filhos de pais baixos não são tão baixos quanto seus pais. Em outras palavras, a estatura dos filhos tendia a regredir à estatura média da população, comportamento que Galton denominou regressão à mediocridade1. A estatística moderna reserva, entretanto, o termo regressão ao estudo da relação de dependência de uma variável, a variável dependente, em função de uma ou mais variáveis, as variáveis explanatórias. O objetivo dessas análises é estimar ou prever o valor médio da variável dependente a partir de variações na variável explanatória, ou independente. Para melhor compreender os objetivos e aplicações da regressão em estatística, será inicialmente apresentada a análise de correlação, estreitamente relacionada à análise de regressão, mas conceitualmente muito diferente. Posteriormente, descrevem-se alguns conceitos e técnicas iniciais da regressão aplicada às relações lineares entre duas variáveis, a regressão linear simples. 1.1. Correlação Uma técnica simples para identificar possíveis padrões de associação entre duas variáveis quantitativas é o diagrama de dispersão. A Figura 1 apresenta três diagramas com diferentes padrões de dispersão entre duas variáveis X e Y. No primeiro observa-se uma tendência de associação linear positiva, ou seja, aumentando o valor de X, o valor de Y também tende a aumentar. No segundo, a associação assemelha-se a uma parábola, ou seja, Y aumenta com X até determinado ponto, quando, então, passa a diminuir. No último não há associação aparente entre as variáveis Y e X, pois os pontos não apresentam qualquer tendência particular. 1 Medíocre no sentido de médio ou mediano, algo que está entre pequeno e grande, segundo definição do dicionário Michaelis da Língua Portuguesa. Econometria Regressão Linear Simples 10 (1) Entre os muitos tipos de associações entre duas variáveis, a mais simples e frequente é a linear. A associação de dependência linear pode ser positiva, quando os valores de Y e X são diretamenteproporcionais2, ou negativa, quando os valores de Y e X são inversamente proporcionais. Uma medida simples para quantificar a relação de dependência linear entre X e Y é a covariância. Dado N pares de valores de uma população (X1, Y1), ..., (XN, YN), a covariância entre X e Y será dada por: N YX N i YiXi XY ∑ = −− = 1 ))(( µµ σ (2) Onde µX e µY são, respectivamente, as médias populacionais de X e Y. Quando se trata de uma amostra de n pares de valores de X e Y, com médias amostrais equivalentes a X e Y , a estimativa da covariância será dada por: 1 ))(( ˆ 1 − −− = ∑ = n YYXX n i ii XY r σ (3) Valores negativos da covariância sugerem relação de dependência linear negativa; valores positivos sugerem dependência linear positiva; e valores muito próximos de zero sugerem ausência de dependência linear. Observe que a covariância é uma média dos produtos em relação aos valores centrados de X e Y (desvios em relação às respectivas médias). Para simplificar as representações, esses valores centrados podem ser representados pelas minúsculas x e y: )( XXx ii −= e )( YYy ii −= (4) E a covariância, expressa em valores centrados, será dada por: 2 Aumentando X, aumenta o valor de Y. Econometria Alexandre Gori Maia 11 1 ˆ 1 − = ∑ = n yx n i ii XYσ (5) Graficamente, os valores centrados representam uma mudança de eixos no diagrama de dispersão, que passam a ter origem nas médias de X e Y, mas sem alterar o padrão de associação: (6) Observe agora que, no diagrama formado pelos eixos x e y, pontos com padrão de associação linear positiva tendem a concentrar-se no 1º e 3º quadrantes, onde as coordenadas apresentam o mesmo sinal e, portanto, o produto xiyi, ou ))(( YYXX ii −− , será sempre positivo. Ou seja, a covariância será positiva. Analogamente, pontos com padrão de associação linear negativa concentrar-se-ão no 2º e 4º quadrantes, onde as coordenadas apresentam sinais diferentes e o produto xiyi, será sempre negativo (primeiro gráfico da Figura 7). Na ausência de padrões de associação linear (segundo e terceiro gráficos da Figura 7), produtos com sinais negativos tendem a compensar aqueles com sinais positivos e a covariância será próxima de zero. (7) Exemplo 1. Uma amostra de 10 ocupados ofereceu os seguintes valores para anos de escolaridade (X) e rendimento mensal (Y): X 0 3 5 7 7 9 11 13 15 15 Y 240 240 440 300 640 870 700 1800 2400 240 Econometria Regressão Linear Simples 12 O diagrama de dispersão e a covariância entre as duas variáveis seriam dados por: 110 )787240)(5,815(...)787240)(5,80( ˆ − −−++−− =XYσ 3,2348 9 21135 ˆ ==XYσ Os resultados sugerem, portanto, uma associação linear positiva entre anos de escolaridade e rendimento, ou seja, se os anos de escolaridade aumentarem, a tendência é que os rendimentos também aumentem. Exemplo 2. Uma amostra hipotética apresentou os seguintes dados para o rendimento (X) e um indicador de felicidade, com escala entre 0 e 10 (Y), de 10 indivíduos: X 240 300 440 640 700 870 1500 1800 2400 2900 Y 1 3 4 7 7 8 7 7 5 2 O diagrama de dispersão e a covariância entre as duas variáveis serão dados por: 110 )1,52)(11792900(...)1,51)(1179240( ˆ − −−++−− =XYσ 2,1 9 11 ˆ ==XYσ Embora o valor da covariância seja positivo, ele é baixo e, visualmente, observa-se que a associação entre as variáveis não é linear, mas sim quadrática. Embora a covariância permita identificar a presença e o sentido da associação linear, não permite avaliar seu grau de associação, ou seja, o quão próximo os pontos estão de uma reta. Isso porque a amplitude de variação da covariância depende das escalas de medida de X e Y e, consequentemente, de seus desvios em relação às respectivas médias (x e y). Por exemplo, no primeiro exemplo tínhamos uma covariância dada pelo produto de anos (escolaridade) por reais (rendimento) e, no segundo caso, pelo produto de reais (rendimento) por uma escala de felicidade (0..10). Não poderíamos, portanto, comparar as duas covariâncias e afirmar qual delas Econometria Alexandre Gori Maia 13 apresenta o maior grau de associação linear. A medida derivada do produto de variáveis com um maior grau de dispersão tenderia, naturalmente, a apresentar um maior valor de covariância. Para contornar esse problema e medir o grau de associação linear entre duas variáveis, utilizamos a correlação linear. A correlação (ρ) é uma medida padronizada (adimensional) de associação linear entre duas variáveis, obtida ao se ponderar a covariância pelo produto dos desvios padrão de X e Y (σX e σY, respectivamente): YX XY σσ σρ = (8) Outra maneira de enxergar a correlação é como uma média do produto dos desvios padronizados de X e Y. Em outras palavras, de (2), (4) e (8) teremos: ∑ ∑ ∑ = = = === N i Y i X i YX N i ii YX N i ii yx NN yx N yx 1 1 1 11 σσσσσσ ρ (9) Que pode ainda ser expressa apenas em função dos valores xi, yi e seus respectivos quadrados: ∑∑ ∑ ∑∑ ∑ == = == = == N i i N i i N i ii N i i N i i N i ii yx yx N y N x N yx 1 2 1 2 1 1 2 1 2 1 ρ (10) Para um conjunto de dados da amostra, teremos: YX XY SS r σˆ = (11) Ou ainda: ∑ =− = n i Y i X i S y S x n r 11 1 ∑∑ ∑ == = = n i i n i i n i ii yx yx 1 2 1 2 1 (12) Graficamente, significa que, enquanto a covariância mede a aproximação dos desvios em relação a uma reta, a correlação medirá a aproximação dos desvios padronizados em relação a uma reta. Mantém-se a proporcionalidade e se elimina as distorções das diferentes escalas de medida, passando todas a referir-se a unidades de desvios padrão: Econometria Regressão Linear Simples 14 (13) A correlação assume valores entre -1 e +1 (inclusive) e permite uma interpretação intuitiva do grau de associação linear entre duas variáveis. Quão mais próximo o valor estiver dos extremos, mais próxima a dispersão dos pontos estará de uma reta com inclinação negativa (ρ≈-1) ou positiva (ρ≈+1). (14) Importante assinalar que a correlação não capta a proporcionalidade da associação, mas sim o grau de associação linear. Em outras palavras, uma correlação forte significa que, dadas variações em X, será muito provável que haja variações (positivas ou negativas) em Y, não importa em que razão (quanto Y irá variar em função de variações em X). Uma correlação nula também não implica necessariamente ausência de associação entre duas variáveis, já que a correlação refere-se exclusivamente à associação linear. Exemplo 3. Supondo a amostra de 10 observações para anos de escolaridade (X) e rendimento mensal (Y) do Exemplo (1), teríamos: 1,5=XS e 3,739=YS 628,0)3,739)(1,5( 3,2348ˆ === YX XY SS r σ Econometria Alexandre Gori Maia 15 Ou seja, há um forte grau de associação linear entre anos de escolaridade e rendimento, sugerindo, por exemplo, que o aumento dos anos de escolaridade implicará, muito provavelmente, no aumento da renda. Exemplo 4. A partir dos dados do Exemplo (2), sobre renda (X) e felicidade (Y), teríamos: 4,928=XS e 5,2=YS 001,0)5,2)(4,928( 2,1ˆ === YX XY SS r σ Ou seja, não há qualquerassociação linear entre anos de escolaridade e rendimento, sugerindo, por exemplo, que o aumento da renda não implicará, necessariamente, em variações proporcionais na felicidade. 1.2. Regressão Linear Simples Embora a correlação seja uma medida útil do grau de associação entre duas variáveis, não explica algumas questões fundamentais, como: i) qual seria a variação em Y dada uma variação em X? ii) Qual o valor esperado de Y dado um de X? Para responder essas e outras questões, devemos realizar uma análise de regressão linear. A regressão linear simples pressupõe que a relação entre Y e X na população seja dada pela equação3: iii eXY ++= βα (15) Onde Y é chamado de variável dependente, explicada ou regressando; X é a variável independente, explanatória ou regressor; e é o erro aleatório não explicado pelo modelo; α é termo constante ou intercepto; e β é o coeficiente angular ou coeficiente de regressão. Em outras palavras, a função de regressão linear estabelece que cada valor de Yi pode ser dado a partir de uma função linear de um valor controlado de Xi mais um erro não previsto pelo modelo ei (Figura 16). 3 O termo linear refere-se aos coeficientes unitários dos parâmetros α e β. Modelos em que os coefecientes não apresentam expoente unitário são chamados de modelos de regressão não lineares. Econometria Regressão Linear Simples 16 (16) O erro ei representa variáveis omitidas ou mesmo dificuldades para mensurar aquelas presentes no modelo. O modelo de regressão pressupõe que o efeito do erro seja mínimo e que este tenha uma natureza estocástica e esteja aleatoriamente distribuído em torno da reta de regressão, como representa a Figura 17. (17) Exemplo 5. Podemos pressupor que rendimento mensal (Y) seja determinado pelos anos de escolaridade (X) segundo a relação linear: iii eXY ++= βα Assim, pressupomos que o rendimento de um ocupado seja dado em função (linear) de seus anos de escolaridade mais um fator não observado ei. Os erros ei representam outras informações não previstas pelo modelo que também afetam o rendimento, tais como experiência profissional, aptidão, tipo de ocupação e características socioeconômicas do local de moradia. Um pressuposto central da análise de regressão é que a reta de regressão representa a esperança condicional de Y dado um valor de X. Em outras palavras, representa o valor médio de Y caso o valor de X seja igual a Xi (Figura 16). A representação formal para essa esperança condicional será dada por: Econometria Alexandre Gori Maia 17 ii XXYE βα +=)/( ou ii XYE βα +=)( (18) Podemos também demonstrar, sem muita dificuldade, que se a reta de regressão representa a esperança condicional de Yi, então a esperança condicional dos erros será igual a 0. Em outras palavras: )( iii XYe βα +−= 0)()()()()]([)|( =−=+−=+−= iiiiiii YEYEXEYEXYEXeE βαβα 0)()|( == iii eEXeE (19) Esse pressuposto é denominado de média condicional zero dos erros, segundo o qual os erros não estão associados aos valores das variáveis independentes. Para compreendermos seu significado, vamos supor uma aplicação da análise de regressão onde a variável Xi representa os anos de escolaridade de um ocupado e Yi seu rendimento. Poderíamos ter um comportamento não observado nos erros (ei), aptidão, por exemplo, que seja maior para pessoas com elevada escolaridade e menor para pessoas com baixa escolaridade. Em outras palavras, teríamos E(ei)>0 para valores elevados de Xi e E(ei)<0 para valores baixos de Xi, ou seja E(ei|Xi)≠0. O problema é que, quando formos analisar um modelo de regressão, não saberemos se os rendimentos mais elevados se devem a uma maior escolaridade ou uma maior aptidão. A relação de determinação entre escolaridade e renda poderia, assim, estar viesada. Compreendido esse pressuposto muito importate da análise de regressão (que será ainda abordado futuramente), voltemos agora à análise da reta de regressão. A equação (15) permite uma interpretação muito intuitiva da relação entre Y e X. O intercepto α, por exemplo, representa o valor esperado de Y quando o valor controlado de X for nulo. O coeficiente angular β, por sua vez, representa a variação marginal no valor esperado de Y dada uma variação unitária em X. Isso porque, se desejamos estimar a variação marginal no valor esperado de Y - ∆E(Y) - dada uma variação infinitesimal em X - ∆X - basta calcularmos a derivada de E(Y/X) em função de X: αβα =+= )0()0/(YE e ββα = ∂ +∂ = ∂ ∂ = ∆ ∆ X X X XYE X XYE )()|()|( (20) Econometria Regressão Linear Simples 18 Uma diferença importante entre regressão e correlação está na forma com que as variáveis são tratadas. Na regressão, pressupomos que a variável dependente seja, assim como os resíduos, de natureza estocástica. Já a variável independente é considerada como um valor fixo, controlado pelo pesquisador. Seria o caso, por exemplo, de controlarmos o nível de fertilizante em um solo (variável independente) e verificarmos a produtividade resultante (variável dependente). Para cada nível de fertilizante teríamos variações aleatórias na produtividade, das quais poderíamos estimar os valores médios. Não seria adequado, por sua vez, tentarmos controlar a produtividade para verificarmos as variações no nível de fertilizante. A correlação, por sua vez, não estabelece qualquer distinção entre as variáveis X e Y. Quando trabalhamos com dados de uma amostra, a representação da função de regressão (amostral) será dada por: iii eXY ˆˆˆ ++= βα (21) Onde αˆ e βˆ são estimadores amostrais para os coeficientes do modelo de regressão e ieˆ é o resíduo amostral4. Por sua vez, o valor previsto pela função de regressão amostral será dado por: ii XY βα ˆˆˆ += (22) Exemplo 6. Seja a relação do rendimento mensal (Y) com função dos anos de escolaridade (X): iii eXY ++= βα Assim, o rendimento esperado para aqueles trabalhadores não remunerados seria dado por α e, para cada ano adicional de escolaridade, haveria uma variação marginal de β reais no rendimento esperado. 1.3. Método de Mínimos Quadrados Ordinários Estabelecida a relação linear entre Y e X, o próximo passo é estimar a função de regressão com base em informações da amostra da maneira mais exata e eficiente possível. O método mais utilizado é o de mínimos quadrados ordinários (MQO), dada sua relativa simplicidade 4 O termo erro costuma ser reservado à função de regressão da população e resíduo para a função de regressão da amostra. Econometria Alexandre Gori Maia 19 operacional e resultados que, satisfeitas algumas condições, são os mais acurados (exatos) e eficientes (variância mínima) existentes (essas condições serão abordadas posteriormente). O método utiliza princípios matemáticos para ajustar uma função a uma série de valores observados em uma amostra, utilizando procedimentos que minimizam a soma dos erros de previsão ao quadrado, ou seja, a soma quadrática das diferenças entre os valores observados na amostra e os estimados pela função. O método de mínimos quadrados é uma das ferramentas mais importantes da estatística moderna e sua descoberta envolveu uma das disputas mais famosas da história da estatística. Adrien Marie Legendre foi o primeiro a publicar a técnica, em 1805, em seu livro Nouvelles Méthodes pour la Determination des Orbites de Comètes, mas Johann Carl Friedrich Gauss clamou a descoberta da técnica que dizia utilizar desde 1795, também em problemas de Astronomia e Física, embora publicada apenas em 1809. 1.3.1. DefiniçãoSeja um conjunto de observações (Yi) e uma função matemática f(θ) utilizada para prever os valores de Yi na população Em outras palavras: ii efY += )(θ (23) Onde ei é o erro de previsão, ou seja, a diferença entre o valor observado Yi e aquele previsto pela função f(θ): )(θfYe ii −= (24) O método de mínimos quadrados estimará o parâmetro θ de tal forma que a soma dos erros de previsão ei ao quadrado seja mínima. Para isso, o primeiro passo é obter a função que define a soma dos erros ao quadrado que, assim como f(θ), também dependerá de θ. Essa função é chamada de Erro Quadrático Total (EQT): ∑∑ == −== n i i n i i fYeEQT 1 2 1 2 )]([)( θθ (25) Dependendo do valor de θ, teremos um valor para o EQT. O objetivo é encontrar um valor para θ, ou θ*, de tal forma que o EQT seja mínimo. Como se trata de uma função côncava Econometria Regressão Linear Simples 20 para cima5, seu valor mínimo será obtido igualando-se a primeira derivada da função em relação ao parâmetro a zero. 0)( = θ θ d dEQT (26) 1.3.2. Aplicação do MQO na regressão linear simples A partir de um conjunto de observações da amostra, o método de mínimos quadrados ajustará a reta que apresentar as menores distâncias quadráticas entre os valores observados de Yi e seus valores previstos ( iYˆ ). Obterá, assim, os estimadores dos parâmetros α e β de tal forma que a soma dos erros quadráticos seja a mínima possível, ou seja, minimizando a função de EQT: eEQT n 1i 2 i∑ = = ˆ ]Y[YEQT n 1i 2 ii∑ = −= ˆ )]Xβ[YEQT n 1i 2 ii∑ = +−= ˆˆ(α (27) Para minimizar a função de EQT, deve-se igualar a zero as derivadas parciais em relação a α e β. ∑ = =−+−= ni ii XY2 d EQT d 1 0)1)](ˆˆ([ ˆ βα α (28) ∑ = =−+−= ni iii XXY2 d EQT d 1 0))](ˆˆ([ ˆ βαβ (29) Desenvolvendo as expressões (28) e (29) chegaremos aos estimadores de MQO αˆ e βˆ . 5 Verifique que o sinal associado ao termo quadrático θ2 será sempre positivo. Econometria Alexandre Gori Maia 21 XβY ˆˆ −=α (30) ∑ ∑ = = − − = n 1i 22 i n 1i ii XnX YXnYX βˆ (31) Aplicando-se algumas identidades algébricas, podemos ainda simplicar a representação do estimador βˆ para6: ∑ ∑ ∑ ∑ ∑∑ ∑∑∑ ∑ ∑ = = = = == === = = = − −− = − − = − − = n i i n i ii n i i n i ii n i i n i i n i i n i i n i ii n i i n i ii x yx XX YYXX XXn YXYXn XnX YXnYX β 1 2 1 1 2 1 2 11 2 111 2 1 2 1 )( ))(( )( ˆ (32) Conforme a conveniência analítica, pode-se demonstrar que βˆ pode ainda ser dado por: ∑ ∑ ∑ ∑ ∑ ∑ = = = = = = === n i i n i ii n i i n i ii n i i n i ii x Yx x yX x yx β 1 2 1 1 2 1 1 2 1ˆ (33) Exemplo 6. A partir das informações da amostra apresentas no Exemplo (1), podemos estimar os parâmetros para o ajuste de regressão linear entre o rendimento mensal (Y) e os anos de escolaridade (X): iii eXY ˆˆˆ ++= βα Onde: 62,7ˆ787ˆ =−= (85)βα 69,91 5,230 21135 ˆ === ∑ ∑ = = n 1i 2 i n 1i ii x yx β Sendo então o ajuste de MQO dado por: ii XY 69,9162,7ˆ += 6 Dica: faça o caminho contrário da demostração, partindo da forma simplificada, para facilitar a compreensão. Econometria Regressão Linear Simples 22 Em outras palavras, o rendimento esperado para quem não possui escolaridade seria de 7,62 reais e, para cada ano adicional de escolaridade, espera-se um acréscimo de 91,69 reais no rendimento. 1.3.3. Propriedades dos Estimadores de Mínimos Quadrados Ordinários A partir de desenvolvimento algébrico, podemos derivar algumas importantes propriedades do ajuste de MQO. Propriedade 1. O valor médio dos resíduos será igual a zero. Da equação (28) para os estimadores de mínimos quadrados pode-se demonstrar que a soma e, consequentemente, o valor médio dos resíduos será igual a zero: ∑ = =−+− n i ii Xβα(Y1 0)1)](ˆˆ[2 0ˆ]ˆ[ 11 ==− ∑∑ == ni ini ii eYY (34) Propriedade 2. Os resíduos não estão correlacionados aos valores de Xi. Dada a definição de covariância, para demonstrarmos que não há relação entre êi e Xi, precisamos provar que: ∑ = =−− n i ii XXee1 0))(ˆ( Como a soma dos resíduos é igual a zero, teremos simplesmente que provar: 0ˆˆˆ 11111 ==+−− ∑∑∑∑∑ ===== n i ii n i n i i n i i n i ii XeXeXeeXXe Utilizando agora os resultados da equação (29) para os estimadores de mínimos quadrados podemos demostrar que: ∑ = =−+− n i iii XXβαY1 0))](ˆˆ([2 0))(ˆ())(ˆ( 11 ==− ∑∑ == ni iini iii XeXYY (35) Essas duas primeiras propriedade (Propriedade 1 e 2) são muito importantes na análise de regressão e denominadas condições de primeira ordem dos estimadores de mínimos quadrados. Propriedade 3. A reta de regressão passará pelas médias aritméticas de X e Y. Econometria Alexandre Gori Maia 23 Das equações (22) e (30) podemos demonstrar que, quando o valor controlado de Xi for equivalente à média de X, o valor esperado de Yi será igual à média de Y. ii XY βα ˆˆˆ += ii XβXβYY ˆˆˆ +−= XβXβYYi ˆˆˆ +−= YYi =ˆ (35) Propriedade 4. Os resíduos não estão correlacionados aos valores previstos de Yi. Devemos provar que: 0ˆˆ)ˆ(ˆ 11 ==− ∑∑ == ni iini ii YeYYe De (22) e (35), teremos que: 0ˆˆˆˆ)ˆˆ(ˆˆˆ 1111 =+=+= ∑∑∑∑ ==== ni iini ini iini ii XeeXeYe βαβα (36) Exercícios 1. Dados os estimadores de MQO do ajuste ii XY βα ˆˆˆ += , prove que ii xy βˆˆ = . 2. Observaram-se os gastos per capita com alimentação (Y) e a renda mensal per capita (X) em uma amostra de 5 famílias: Y 52 104 122 141 166 X 254 487 615 950 1014 a. Esboce e análise o gráfico de dispersão para as variáveis em questão; b. Estime e analise a covariância e a correlação entre as variáveis; c. Estime os parâmetros do modelo de regressão linear simples para prever o gasto com alimentação (Y) em função da renda (X); d. Interprete os parâmetros do modelo de regressão; e. Obtenha os resíduos associados a cada estimativa para os gastos com alimentação; f. Qual o gasto esperado com alimentação para uma família com renda per capita de 2.000 reais? Econometria Regressão Linear Simples 24 3. Uma amostra de quatro anos de uma economia fictícia forneceu os seguintes dados: Y (Consumo, bilhões de US$) 1 1 2 4 X (Taxa de juros, % a.a.) 8 7 6 5 Agora suponha que a relação entre as variáveis seja dada por: ttt eXY ++= βα a. Estime os coeficientes do modelo por MQO; b. Interprete as estimativas dos coeficientes; c. Qual seria o consumo esperado para a economia caso a taxa de juros baixasse para 4% a.a.? 4. (ANPEC, 1992) Responda Falso ou Verdadeiro. O custo total, C, de uma indústria e sua produção, X, têm uma relação linear do tipo ttt eXC ++= βα . Para se ajustar esse modelo por mínimos quadrados ordinários é preciso assumir certas hipóteses como: a. A variável independente X seja aleatória. b. Os erros tenham média zero. c. Os erros sigam uma distribuição normal. d. A variável independente X seja independente do temo erro. Respostas 2) b. σXY=13180; r=0,96; c. 80,30ˆ =α ; 13,0ˆ=β ; e. êi=-11,8; 10,0; 11,4; -13,1; 3,6; f. 290,4 3) a. 5,8ˆ =α ; 1ˆ −=β ; c. 5,4ˆ =iY 4) a. F; b. V; c. F.; d. V Econometria Alexandre Gori Maia 25 2. Inferência com os Estimadores de MQO Introdução Após estimar os coeficientes de um modelo de regressão, deve-se verificar o grau de confiabilidade dos resultados, ou seja, verificar em que medida as estimativas obtidas na amostra aproximam-se dos reais parâmetros da população. Para cumprir com esse objetivo, serão realizados testes de hipóteses e intervalos de confiança para os reais parâmetros do modelo regressão linear simples a partir das estimativas de MQO. Para viabilizar essas análises, é fundamental conhecer algumas importantes propriedades estatísticas dos estimadores de MQO. A contribuição mais importante para essa análise foi dada em 1821, quando Gauss demontrou que, sob determinadas premissas, as estimativas de MQO seriam não viesadas e de mínima variância. Posteriormente, em 1912, Markov desenvolveu de maneira mais usual esse mesmo teorema, que passou a ser conhecido como teorema de Gauss- Markov. 2.1. Teorema de Gauss-Markov Ao elaborarmos um modelo de regressão linear simples estamos pressupondo que, na população, Y seja dado por uma função linear de X segundo a equação: iii eXY ++= βα (1) Em primeiro lugar, devemos estar cientes que uma população pode gerar amostras diferentes. Assim, embora na população os valores de α e β sejam constantes, ou seja, há apenas uma reta para o conjunto de dados da população, na amostra estaremos sujeitos à aleatoriedade da seleção e, assim, as estimativas dos coeficientes αˆ e βˆ poderão assumir quaisquer valores segundo uma dada distribuição de probabilidade. Em outras palavras, poderemos ter retas diferentes dependendo da amostra selecionada (Figura 2). Econometria Propriedades dos Estimadores 26 (2) Em segundo lugar, devemos considerar que, para uma dada amostra selecionada, outras técnicas poderiam ser aplicadas para obter os estimadores dos coeficientes α e β, não apenas o MQO7, as quais não necessariamente chegariam aos mesmos resultados. Em outras palavras, para uma dada amostra, poderíamos ter diferentes retas amostrais, dependendo da técnica utilizada. O que garante que os estimadores de MQO serão melhores que outros estimadores é uma série de condições estabelecidas pelo Teorema de Gauss-Markov. Segundo o Teorema de Gauss-Markov, cinco pressupostos básicos devem ser satisfeitos para que os estimadores de MQO sejam os Melhores Estimadores Lineares Não Viesados (MELNV) ou, em ingês, Best Linear Unbiased Estimator (BLUE). Ser linear, significa que os estimadores de α e β serão funções lineares da variável aleatória Y8. Ser não viesado significa que o valor esperado do estimador de MQO será igual ao parâmetro da população (3) e ser o melhor estimador significa que sua variabiliadde será a mínima possível (4). αα =)ˆ(E e ββ =)ˆ(E (3) )ˆ()ˆ( αα ′< VV e )ˆ()ˆ( ββ ′< VV (4) Onde α ′ˆ e β ′ˆ são quaisquer outros estimadores lineares que não aqueles obtidos pelo MQO. Os cinco pressupostos para que os estimadores de MQO sejam MELNV são: i) Relação linear entre Y e X: 7 Entre as técnicas alternativas, destaque para o Método de Máxima Verossimilhança e o Método de Momentos. 8 Pressupondo que os valores de X sejam controlados (não aleatórios), é fácil demonstrar que os estimadores de MQO são funções lineares de Y. Econometria Alexandre Gori Maia 27 A relação entre Y e X na população pode ser representada por uma função com coeficientes (parâmetros) lineares9. A linearidade nas variáveis, por sua vez, não é necessária, já que estas podem ser algebricamente transformadas em novas variáveis que apresentem relação linear entre si. Por exemplo, o modelo iii eXY ++= 2βα não é linear no regressor, mas, se criarmos a variável 2ii XZ = , então a relação iii eZY ++= βα será linear (esse tema será abordado posteriormente). ii) Os valores de X são fixos em repetidas amostras e não aleatórios: Pressupõe que cada variável independente possa ser controlada pelo pesquisador, ou seja, este pode mudar seu valor de acordo com os objetivos da pesquisa. O caso característico é o de um estudo experimental, onde o pesquisador seleciona aleatoriamente os elementos amostrais que sofrerão um determinado efeito controlado de X e observa os valores resultantes de Y. Por exemplo, o pesquisador seleciona aleatoriamente as parcelas de terra que receberão uma determinada quantidade de fertilizantes (X) e observa suas produções (Y). Embora essa premissa seja necessária para demonstração de várias propriedades estatísticas, não é verdadeiramente essencial, tampouco factível na maioria dos estudos econômicos. Em muitas situações, pode ser pouco ético ou inviável controlar o efeito de X. Por exemplo, não seria factível selecionar aleatoriamente pessoas que receberiam uma determinada quantidade de educação (X) para avaliar seus efeitos sobre o rendimento no trabalho (Y). Em estudos não experimentais, quando não controlamos os valores de X, mas os observamos aleatoriamente, devermos ter cuidados especiais para que as relações de causa e efeito não sejam viesadas. iii) Esperança condicional dos erros igual a zero: Em outras palavras, E(e/Xi) = E(ei) = 0. É o mesmo que afirmar que a esperança condicional de Y é igual à reta de regressão, ou E(Y/Xi) = E(Yi) = α+βXi. Significa que os valores dos erros não podem estar associados aos valores de Xi. Caso contrário, as relações de causa e efeito podem estar viesadas. Não é um problema em estudos experimentais, quando conseguimos controlar os valores de X e esses 9 Expoentes dos coeficientes iguais a 1. Econometria Propriedades dos Estimadores 28 são considerados como constantes10. Entretanto, quando trabalhamos com estudos não experimentais, devemos nos precaver para que não haja fatores não controlados pelo modelo (e) afetando simutaneamente Y e X. Seria o caso, por exemplo, da aptidão, variável não controlada em um modelo de determinação da renda (presente, assim, nos erros e), que poderia afetar simultaneamente a renda (Y) e os anos de estudo (X). Por definição, os estimadores de MQO pressupõem a ausência de correlação entre os resíduos (êi) e a variável independente (Xi)11. Caso a ausência de correlação não se concretize na população, os estimadores de MQO serão viesados; iv) A variabilidade dos erros é constante, qualquer que seja X: Em outras palavras, significa afirmar que a variância condicional dos erros seja dada por 2222 )()]([)()()|( σ==−== iiiii eEeEeEeVarXeVar . Quando a dispersão dos erros é a mesma em todos os pontos de X dizemos que os erros são homocedáticos (homo=igual; cedásticia=dispersão). Caso contrário, dizemos que se tratam de erros heterocedásticos, ou seja, 22 )( iieE σ= . v) Os erros são não autocorrelacionados: Em outras palavras, Cov(ei,ej)=E(eiej)−E(ei)E(ej)=0 para todos i≠j. Representa independência entre observações da amostra, não havendo quaquer tipo de relação entre seus erros. A autocorrelação é, entretanto, frequente em análises de séries temporais (correlação serial) ou dados espaciais (correlação espacial); Enquanto os três primeiros pressupostos são necessários para que os estimadores sejam não viesados, os dois últimos são necessários para que estes sejam os mais eficientes12. Em adição a estes cinco pressupostos, é ainda importante que os erros estejam normalmente distribuídos para viabilizar a aplicação de testes de hipóteses e intervalos de confiança aos coeficientes do modelo de regressão (a ser visto no próximo tópico). Modelos10 Lembre-se que a associação entre uma constante (X) e uma variável aleatório (e) será sempre nula. 11 É uma das condições de primeira ordem dos estimadores de MQO. 12 Para os leitores familiarizados com álgebra, as demonstrações dessas propriedades podem ser consultadas nos Apêndices A e B. Econometria Alexandre Gori Maia 29 baseados nessas seis pressuposições são chamados de Modelos Clássicos de Regressão Linear (MCRL). Uma propriedade adicional muito importante dos estimadores de MQO sob a premissas de um MCRL é que esses serão os mais eficientes (apresentarão variância mínima) entre quaisquer estimadores não viesados de β, não apenas entre os estimadores lineares como pressupõe o teorema de Gauss-Markov. 2.2. Significância das estimativas Uma vez que os valores das estimativas de α e β (Equação 1) dependem da amostra selecionada, devem-se considerar suas variabilidades para saber se há evidências estatísticas de que os respectivos parâmetros da população são diferentes de zero. Caso tenhamos, por exemplo, evidências estatísticas que o parâmetro β seja diferente de zero, significaria poder afirmar que a reta da população tem uma inclinação (positiva ou negativa) e, consequentemente, que há relação linear entre Y e X. Analogamente, caso haja evidências estatísticas que o parâmetro α seja diferente de zero, significaria poder afirmar que a reta da população não passa pela origem dos eixos e, consequentemente, que o valor esperado de Y para um X nulo seja diferente de zero. Graficamente, temos possíveis representações dessas situações na Figura 5. (5) Para verificar se os parâmetros do modelo de regressão são iguais ou não a zero, é conveniente aplicar testes de hipóteses às estimativas obtidas por αˆ e βˆ . A aplicação desses testes viabilizar-se-á caso se conheça: i) as distribuições de probabilidade dos estimadores; ii) as estimativas para os parâmetros dessas distribuições. 2.3. Distribuição amostral dos estimadores Sob um pressuposto mais geral do Teorema do Limite Central, pode-se afirmar que a soma de variáveis independentes e igualmente distribuídas terá uma distribuição normal. Assim, Econometria Propriedades dos Estimadores 30 os erros ei, por serem considerados uma soma de diferentes fatores não observáveis afetando a variável Y, também estariam normalmente distribuídos em torno de uma média zero. Entretanto, essa pressuposição pode não ser verdadeira, sobretudo para amostras pequenas, dependendo da composição dos fatores não observáveis (caso estes não sejam aditivos, por exemplo) e de suas respectivas distribuições de probabilidade. Há testes estatísticos apropriados para verificar até que ponto a distribuição dos resíduos se aproxima de uma normal e se tal pressuposição pode ser considerada verdadeira. Dizer que os erros possuem distribuição normal com média zero é o mesmo que afirmar que os valores de Yi se distribuem normalmente em torno da reta de regressão (5). Ademais, a normalidade dos erros (e dos valores de Yi em torno da reta) implicaria ainda que os estimadores de MQO estariam normalmente distribuídos, já que esses são combinações lineares dos valores de Yi (ver Apêndice A). Pressupondo ainda que os estimadores de MQO sejam não viesados, como sugere o Teorema de Gauss-Markov, teríamos que os estimadores de um MCRL estariam normalmente distribuídos em torno dos reais parâmetros α e β. ),0(~ 2σNei ),(~ˆ 2αˆσαα N ),(~ˆ 2 ˆβσββ N (6) 2.4. Variância dos estimadores Conhecidas as funções de densidade de probabilidade (fdp) dos erros e dos estimadores de MQO (6), o próximo passo é definir os parâmetros dessas fdp para viabilizar a inferência estatística, em especial, a aplicação de testes de hipóteses e intervalos de confiança. Os três parâmetros necssários são13: i) a variância dos erros ou variância da regressão (σ2); ii) a variância do estimador αˆ ( 2αˆσ ); iii) a variância do estimador βˆ ( 2ˆβσ ). 13 Os valores dos parâmetros α e β não são necessários já que o objetivo dos testes de hipóteses e dos intervalos de confiança é justamente inferir sobre seus reais valores. Econometria Alexandre Gori Maia 31 A variância dos erros representa a dispersão quadrática média dos erros em torno da reta de regressão. Como usualmente desconhecemos o real valor de σ2 na população, precisamos de um estimador para estimá-lo a partir dos resíduos da amostra. Como demonstrado no Apêndice C, o estimador não viesado de σ2 a partir dos resíduos do MQO será dada por: 2 ˆ ˆ 2 2 − = ∑ n eiσ (7) O denominador n–2 representa o número de graus de liberdade dos resíduos e significa que, caso se conheça n–2 valores dos resíduos, os outros dois seriam automaticamente determinados a partir de restrições impostas às propriedades matemáticas dos estimadores de MQO14. A raiz quadrada da variância da regressão, ou σˆ , é chamada de erro padrão da regressão e é uma medida da dispersão média dos resíduos. Como o cálculo do numerador da equação (7), ∑ 2iê , pode ser demasiadamente trabalhoso, uma alternativa pode ser dada por: ∑∑∑ −= iiii yxye βˆˆ 22 (8) Não é difícil demonstrar a relação estabelecida acima. Basta utilizarmos a expressão definida no Apêndice C para iii exy ˆˆ += β e lembrarmos que ∑ ∑ = 2 ˆ i ii x yxβ : ∑∑∑∑∑ +−=−= 22222 ˆˆ2)ˆ(ˆ iiiiiii xyxyxye βββ ∑ ∑ ∑ ∑ ∑ ∑∑ +−= 222 2 2 2 22 )( )()( 2ˆ i i ii i ii ii x x yx x yx ye ∑∑ ∑ ∑ ∑∑ −=−= iii i ii ii yxy x yx ye βˆ)(ˆ 22 2 22 (9) As variâncias dos estimadores αˆ e βˆ ( 2αˆσ e 2ˆβσ ) representam as dispersões quadráticas médias destes em função da aleatoriedade da amostra. Serão dadas por (ver demonstrações no Apêndice B): 2 2 2 2)ˆ()ˆ( σααα ∑ ∑ =−= i i xn X EVar e ∑ =−= 2 2 2)ˆ()ˆ( ix EVar σβββ (10) 14 São duas as restrições impostas aos resíduos: i) Σêi=0; ii) ΣêiXi=0. Econometria Propriedades dos Estimadores 32 Seus estimadores são obtidos substituindo 2σ por 2σˆ : 2 2 2 2 2 2 2 ˆ ˆ 1 ˆ σσα +== ∑∑ ∑ ii i x X nxn XS e ∑ = 2 2 2 ˆ ˆ 1 ix S σβ (11) As raízes quadradas dessas variâncias ( αˆS e βˆS ) são chamadas de erros padrão dos estimadores. A partir dos estimadores obtidos em (11) podemos derivar algumas importantes propriedades matemáticas: i. Quanto maior o erro padrão da regressão, menos precisa será a estimativa dos parâmetros: em outras palavras, quanto mais dispersos estiverem os valores observados em torno da reta de regressão, mais dispersas serão as estimativas de MQO. Algebricamente, pode-se observar essa propriedade a partir do numerador das equações em (11). ii. Quanto maior a variabilidade observada para os valores de X, mais precisa será a estimativa dos parâmetros: a variabilidade dos valores amostrados de X é uma importante medida da qualidade do ajuste. Baixa dispersão de X indica que a amostra não representa uma relevante amplitude de valores. Matematicamente, a dispersão de X será medida pelo denominador ∑ 2ix das equações em (11); iii. Quanto maior o tamanho da amostra, maior a variabilidade observada para X e mais precisas serão as estimativas dos parâmetros: a maior representatividade da amostra garante uma maior amplitude de comportamentos considerados. Matematicamente, essa relação é dada pelos denominadores n e ∑ 2ix das equações em (11). 2.5. Teste de hipóteses para os coeficientesO teste de hipóteses para os coeficientes do modelo de regressão usualmente é utilizado para verificar se há evidências, com base nas estimativas observadas na amostra, que seus valores na população sejam diferentes de zero. Assim, as hipóteses a serem testadas seriam: Econometria Alexandre Gori Maia 33 ≠ = 0: 0: 1 0 α α H H e ≠ = 0: 0: 1 0 β β H H (12) Embora menos frequentes, podem ainda ser elaborados testes para verificar se os parâmetros α e β são diferentes, maiores ou menores que quaisquer outras constantes que não o zero. Pressupondo a veracidade das hipóteses nulas e conhecendo as propriedades dos estimadores de MQO (propriedade 6 e 10), teremos as seguintes distribuições de probabilidade para as estatísticas de teste: ),0(~ˆ 2αˆσα N e ),0(~ˆ 2ˆβσβ N (13) A partir de então, os passos para resolução serão análogos aos de qualquer teste de hipóteses: i) observar estimativa para a estatística de teste na amostra (αˆ e βˆ ); ii) calcular valor p, probabilidade de erro ao afirmar que o parâmetro seja diferente de zero. Como a real variância dos coeficientes é desconhecida, o uso de suas estimativas amostrais obtidas por 2αˆS e 2 ˆβS exigirá ainda a consideração da distribuição t de Student para o cálculo da probabilidade de erro, como exemplifica a Figura (14). Os graus de liberdade são os mesmo obtidos para a variância amostral da regressão (Equação 7), ou seja, n–2. (14) Rejeitar H0 significa afirmar que a estimativa de β é significativa, ou, no caso do coeficiente angular, que a variável independente X é significativa no modelo. Exemplo 1. Obeservou-se o consumo mensal de energia (Y, em Kwh) e o total de horas que o ar condicionado permaneceu ligado (X, em h) em uma amostra de 21 domicílios. Os valores observados e as estimativas de MQ para o ajuste linear foram: Econometria Propriedades dos Estimadores 34 i KWh (Y) AC (X) i KWh (Y) AC (X) 1 35 1,5 12 77 7,5 2 17 2,0 13 62 7,5 3 57 2,5 14 65 7,5 4 63 4,5 15 66 8,0 5 66 5,0 16 65 8,0 6 33 5,0 17 75 8,0 7 79 6,0 18 94 8,5 8 43 6,0 19 85 12,0 9 33 6,0 20 94 12,5 10 78 6,5 21 93 13,5 11 82 7,5 iii eXY ˆ34,585,27 ++= Em outras palavras, espera-se que para cada hora adicional com o ar condicionado ligado o consumo de energia aumente, em média, 5,34 KWh. O consumo esperado para um domicílio que não utilize o ar condicionado é de 27,85 KWh. As estimativas da variância e erro padrão da regressão serão dadas por: 89,208 19 91,3968 221 )96,6()61,0(...)53,21()86,0( 2 ˆ ˆ 22222 2 == − −+−++−+− = − = ∑ n eiσ 45,1489,208ˆ ==σ O erro padrão é uma estimativa do erro médio de previsão do modelo, ou seja, de aproximadamente 14,45 KWh. O próximo passo é estimar as variâncias dos coeficientes do modelo para verificar se as estimativas de α e β são significativas, ou seja, se são estatisticamente diferentes de zero. Essas serão dadas por: 2 22 2 2 2 2 2 ˆ 81,794,6089,208 )6,6(...)4,5( 9,6 21 1 ˆ 1 == ++− += += ∑ σα ix X n S 2 2 2 2 ˆ 03,106,1 6,196 89,208ˆ 1 ==== ∑ ix S σβ Pode-se então, finalmente, verificar se as estimativas são significativas aplicando-se o teste de hipóteses para aos coeficientes do modelo: Econometria Alexandre Gori Maia 35 O valor p associado ao teste para o coeficiente α é de 0,2%, ou seja, a probabilidade de erro ao afirmarmos que o intercepto é diferente de zero é de apenas 0,2%. Sendo assim, pode-se afirmar que residências que não utilizam ar condicionado (X=0) possuem um consumo positivo de energia, já que outros aparelhos estariam influenciando o consumo. Por sua vez, o valor p associado ao teste para o coeficiente β é aproximadamente nulo. Em outras palavras, se afirmarmos que β é diferente de zero, ou seja, que o número de horas com ar condicionado ligado tenha relação linear com o consumo de energia, a chance de estarmos errados seria praticamente nula. 2.6. Intervalo de confiança para os coeficientes Outra técnica de inferência estatística clássica que pode ser aplicada às estimativas dos coeficientes do modelo de regressão é o intervalo de confiança. Dado um nível de confiança γ, o intervalo de confiança definirá intervalos que, em repetidas amostras de tamanho n, conterá o real parâmetro da população em γ das situações. Antes de verificarmos as estimativas de intervalo para os coeficientes do modelo de regressão, vale a pena relembrar alguns cuidados especiais na sua interpretação. Primeiro, como o parâmetro a ser estimado é uma constante e não uma variável aleatória, não podemos afirmar que esse tenha γ de probabilidade de pertencer a um intervalo. O parâmetro estará contido (probabilidade 1) ou não (probabilidade 0) em um intervalo. Segundo, uma vez estimado o intervalo com os valores de uma determinada amostra, não podemos afirmar que o intervalo estimado tenha γ de probabilidade de conter o parâmetro, já que, uma vez definidos os limites do Econometria Propriedades dos Estimadores 36 intervalo, esses conterão (probabilidade igual a 1) ou não (probabilidade igual a 0) o parâmetro da população. Sabendo que os estimadores de MQO seguem uma distribuição normal sob as premissas do MCRL, os intervalos de confiança para os parâmetros α e β seriam dados por: (15) Onde Zγ é o número de desvios padrão, obtido da distribuição Z~N(0,1), que se deve estar afastado do centro da distribuição para que se tenha γ de probabilidade entre os dois extremos do intervalo. Entretanto, como os reais valores 2αˆσ e 2 ˆβσ são desconhecidos, o uso das estimativas obtidas pelos estimadores 2αˆS e 2ˆβS implicará na consideração da estatística t de student em substituição à Z. Assim, os intervalos de confiança para os parâmetros α e β serão dados por: ]St St [ γIC( nn αα ααα ˆ2ˆ2 ˆ;ˆ), −− +−= ]St St [ γIC( nn ββ βββ ˆ2ˆ2 ˆ;ˆ), −− +−= (16) Onde tn–2 é o valor da distribuição t de student com n–2 graus de liberdade para que se tenha γ de probabilidade entre os dois extremos do intervalo. Exemplo 2. Para estimar intervalos com confiança de 95% para os parâmetro do modelo da relação linear entre consumo mensal de energia (Y, em Kwh) e o total de horas que o ar condicionado permaneceu ligado (X, em h), teríamos: ]t t [ γIC( )81,7(85,27);81,7(85,27), 1919 +−=α ]t t [ γIC( )03,1(34,5);03,1(34,5), 1919 +−=β Para uma confiança de 95%, por exemplo, os intervalos seriam dados por: ]19,44;51,11[)]81,7(09,285,27);81,7(09,285,27[), =+−= γIC(α ]50,7;18,3[)]03,1(09,234,5);03,1(09,234,5[), =+−= γIC(β Econometria Alexandre Gori Maia 37 O intervalo determinado pelos valores 11,51 a 44,19 KWh é uma estimativa de um intervalo que, em repetidas amostras de tamanho 21, conteria o real valor do parâmetro α em 95% das situações. Por sua vez, o intervalo definido pelos valores 3,18 a 7,50 KWh é uma estimativa do intervalo de 95% de confiança para o parâmetro β. Exercícios 1. Observaram-se os gastos per capita com alimentação (Y) e a renda mensal per capita (X) em uma amostra de 5 famílias: Y 52 104 122 141 166 X 254 487 615 950 1014 a. Estime a variância dos coeficientes do modelo de regressão linear simples para prever o gasto com alimentação (Y) em função da renda (X). b. As estimativas dos coeficientes são significativas? Interprete. c. Defina intervalos com confiança de 95% para os parâmetros do modelo.Interprete seus resultados. d. Existe alguma associação entre os resultados dos testes de hipóteses (b) e dos intervalos de confiança (c)? 2. A partir de uma amostra de n elementos, foi estimada uma regressão linear simples, pelo método de mínimos quadrados, obtendo-se o resultado: XY 1ˆˆˆ βα += . A seguir, a mesma regressão foi estimada sabendo-se que a reta de regressão da população passa pela origem das coordenadas (termo constante = 0), obtendo-se o resultado: XY 2ˆˆ β= . Pode-se afirmar que: a. 21 ˆˆ ββ = . b. A reta de regressão passa pelas médias amostrais de Y e X, mesmo que o modelo não tenha intercepto. c. No primeiro modelo, quanto maior for a variação da variável explicativa, maior será a precisão com que o coeficiente angular pode ser estimado. Econometria Propriedades dos Estimadores 38 3. (ANPEC, 1996) Suponha que, num modelo de regressão linear simples, o regressor (variável independente) seja correlacionado com o termo erro. Sobre o estimador de MQO, podemos afirmar: a. É, em geral, viesado. b. Não é possível de ser obtido. c. É não viesado, porém não é eficiente. d. É consistente. Respostas 1) a. 22 ˆ 38,15=αS ; 22ˆ 02,0=βS ; b. α: p=0,139; β: p=0,009; c. IC(95%;α)=[-18,16; 79,77]; IC(95%;β)=[0,06; 0,20] 2) a. F; b. F; c. V 3) a. V; b. F; c. F; d. F Econometria Alexandre Gori Maia 39 Apêndice A – Valor Esperado e Exatidão dos Estimadores de MQO Para demonstrarmos algebricamente que os estimadores de MQO são não viesados caso os pressupostos (i) a (iii) do teorema de Gauss-Markov sejam válidos, comecemos pela representação do coeficiente angular: ∑ ∑ = = = n i i n i ii x Yx β 1 2 1ˆ Para simplificar a demonstração, vamos denominar ∑ = = n j j i i x x z 1 2 e teremos ∑ = = n i iiYzβ 1 ˆ Pressuposto i: supondo a relação linear entre as variáveis, iii eXY ++= βα , teremos: ∑∑∑∑∑∑∑∑ ======== ++=++=++== n i ii n i ii n i i n i ii n i ii n i i n i iii n i ii ezXzzezXzzeXzYzβ 11111111 )(ˆ βαβαβα O primeiro termo, ∑ = n i iz 1 α , será igual a zero, pois 00 )( 1 2 1 2 1 == − ∑∑ ∑ == = n i i n i i n i i xx XX αα O segundo termo, ∑ = n i ii Xz 1 β , sera igual a β, pois βββββ = +− − = +− − = − − = ∑ ∑ ∑∑∑ ∑∑ ∑ ∑ ∑ ∑ = = === == = = = = 22 1 2 2 1 2 1 2 11 2 11 2 1 2 1 1 2 1 22)( )( XnXnX XnX XXXX XXX XX XXX x Xx n i i n i i n i n i i n i i n i i n i i n i i n i ii n i i n i ii Assim, teremos: ∑ = += n i iiezβ 1 ˆ β Agora, para calcularmos o valor esperado de βˆ : += += ∑∑ == n i ii n i ii ezEezEβE 11 )ˆ( ββ Econometria Propriedades dos Estimadores 40 Pressuposto ii: se consideramos os valores de X fixos, não aleatórios, teremos: ∑ = += n i ii eEzβE 1 )()ˆ( β Pressuposto iii: e se a esperança condicional dos erros for zero, teremos finalmente: ββ =+= ∑ = n i izβE 1 0)ˆ( A demonstração para o intercepto é mais simples. Primeiro, o estimador de MQO será: XY βα ˆˆ −= Pressuposto i: supondo que a relação linear entre Y e X, iii eXY ++= βα , se calcularmos o valor médio de cada lado da equação teremos: eXY ++= βα Substituindo o valor de Y na equação do estimador de α: eXXeX +−+=−++= )ˆ(ˆ)(ˆ ββαββαα Assim, a esperança de αˆ será: )()]ˆ()()[()()]ˆ([)()ˆ( eEEEXEeEXEEE +−+=+−+= ββαββαα Pressuposto iii: dada a esperança condicional (e incondicional) zero dos erros, teremos que 0)( =eE Presspostos i a iii: ademais, caso os pressupostos (i) a (iii) sejam satisfeitos, sabemos que β=)ˆ(βE . Então o valor esperado de αˆ será: ααα =+×+= 00)()ˆ( XEE Econometria Alexandre Gori Maia 41 Apêndice B – Variância e Eficiência dos Estimadores de MQO Para demonstrarmos algebricamente que os estimadores de MQO são eficientes caso os pressupostos (i) a (iii) do teorema de Gauss-Markov sejam válidos, precisamos inicialmente calcular suas variâncias. Começando pelo coeficiente angular: 2)]ˆ(ˆ[)ˆ( βEβEβVar −= Pressupostos i a iii: supondo ββE =)ˆ( e ∑ = += n i iiezβ 1 ˆ β , então: )2...2...()()ˆ()ˆ( 1121212221212 1 2 nnnnnn n i ii eezzeezzezezEezEββEβVar −− = +++++==−= ∑ Pressuposto ii: considerando que os valores de X sejam controlados, então )()( iiii eEzezE = e: )(2...)(2)(...)()ˆ( 112121222121 nnnnnn eeEzzeeEzzeEzeEzβVar −−+++++= Pressuposto iv: caso a variância dos erros será constante para qualquer i, ou seja 22 )( σ=ieE e: ∑∑∑ = − ≠= += n i n ij jiji n i i eeEzzzβVar 1 1 1 22 )(2)ˆ( σ Pressuposto v: caso os erros sejam não autocorrelacionados, ou seja, 0)( =ji eeE para i≠j, então: 2 1 2 1 2 2 1 22 1 22)ˆ( === ∑ ∑ ∑∑ = = == n i i n i in i i n i i x x zzβVar σσσ E: ∑ = = n i ix βVar 1 2 2 )ˆ( σ Para agora demonstrarmos que a variância dos estimador de MQO para β é a menor entre os estimadores lineares não viesados de β, comecemos pela representação desse primeiro dada por: Econometria Propriedades dos Estimadores 42 ∑ = = n i iiYzβ 1 ˆ Que é, naturalmente, uma função linear da variável aleatória Yi. Agora, vamos generalizar a representação de outro estimador linear para β por: ∑ = = n i iiYwβ 1 *ˆ Ou seja, uma função linear de Yi segundo um fator de ponderação wi. A esperança deste estimador genérico será dada por: ∑∑∑∑∑∑∑ ======= +=+=+=== n i ii n i i n i ii n i i n i ii n i ii n i ii XwwXwwXEwYEwYwEβE 1111111 * )()()()ˆ( βαβαβα Primeiro, as condições necessária para que *ˆβ seja não vieasado, ou seja ββE =)ˆ( * , são: 0 1 =∑ = n i iw e 1 1 =∑ = n i ii Xw E, dessas igualdades, derivamos ainda que: 1 111 =−= ∑∑∑ === n i i n i ii n i ii wXXwxw Cientes dessas condições, vamos agora estimar a variância de *ˆβ : ∑∑ == == n i ii n i ii YVarwYwVarβVar 1 2 1 * )()()ˆ( Como Var(Yi) = Var(ei)=σ2, então ∑ = = n i iwβVar 1 22* )ˆ( σ Agora vamos realizar um malabarismo algébrico, incluindo o termo zi na equação sem comprometer a igualdade: ∑ = +−= n i iii zzwβVar 1 22* )()ˆ( σ Desenvolvendo, teremos: =+−+−= ∑ = n i iiiiii zzwzzwβVar 1 222* ])(2)[()ˆ( σ Econometria Alexandre Gori Maia 43 ∑∑∑ === +−+−= n i i n i iii n i ii zzwzzwβVar 1 22 1 22 1 22* )(2)()ˆ( σσσ O segundo termo será zero, pois 011)( 1 2 1 2 2 1 2 1 2 1 2 1 1 2 =−= −=− ∑∑∑ ∑ ∑ ∑ ∑ == = = = = = n i i n i i n i i n i i n i i n i iin i iii xxx x x xw zwz Assim, a variância *ˆβ de resume-se a: ∑ ∑∑∑ = === +−=+−= n i i n i ii n i i n i ii x zwzzwβVar 1 2 2 1 22 1 22 1 22* )()()ˆ( σσσσ Como o segundo termo da equação ( ∑ = n i ix 1 22σ ) é constante,
Compartilhar