Baixe o app para aproveitar ainda mais
Prévia do material em texto
UNIVERSIDADE FEDERAL DE VIÇOSA DEPARTAMENTO DE ECONOMIA RURAL PROGRAMA DE PÓS-GRADUAÇÃO EM ECONOMIA APLICADA APOSTILA DE ECONOMETRIA BÁSICA USANDO STATA Edson Melo Fernanda Schwantes Gláucia de Almeida Padrão Ricardo de Oliveira Gaspar VIÇOSA, MG, 2010 NOTAS SOBRE OS ORGANIZADORES EDSON MELO Economista pela Universidade Federal de Viçosa (UFV), Especialista em Economia Empresarial pela PUC-MG, Mestrando em Economia Aplicada da Universidade Federal de Viçosa (UFV), Bolsista de Mestrado da CAPES. E-mail: edson.melo@ufv.br FERNANDA SCHWANTES Economista pela Universidade Federal de Santa Maria (UFSM), Mestranda em Economia Aplicada da Universidade Federal de Viçosa (UFV), Bolsista de Mestrado da FAPEMIG. E-mail: fe.schwantes@gmail.com GLÁUCIA DE ALMEIDA PADRÃO Economista pelo Centro Universitário de Sete Lagoas (UNIFEMM), Mestranda em Economia Aplicada da Universidade Federal de Viçosa (UFV), Bolsista de Mestrado da CAPES. E-mail: glaupadrao@gmail.com RICARDO DE OLIVEIRA GASPAR Engenheiro Florestal e Mestre em Ciência Florestal pela Universidade Federal de Viçosa (UFV), Doutorando em Ciência Florestal da Universidade Federal de Viçosa (UFV), Bolsista de Doutorado do CNPq. E-mail: ricogaspar.floresta@gmail.com APRESENTAÇÃO Este material foi desenvolvido em paralelo ao curso de ERU 626 – Econometria I, do Programa de Pós-Graduação em Economia Aplicada da Universidade Federal de Viçosa (UFV). De conhecimento do professor Clailton, foi-nos apresentada a proposta de organizá-lo no formato de apostila, com o objetivo de auxiliar os alunos do curso de graduação em Ciências Econômicas da Universidade Federal de Santa Maria e outros interessados no uso dos comandos básicos do software Stata. Não é nossa pretensão, de forma alguma, fornecer um manual de utilização do software. Cabe ressaltar que a grande parte dos comandos nos foi repassada pelos monitores da disciplina e que os comentários adicionais são de nossa responsabilidade, com base nos livros recomendados no curso de ERU 626. Sumário 1 COMANDOS BÁSICOS .............................................................................................. 5 2 TESTE DE MACKINNAN, WHITE E DAVIDSON (MWD) ..................................... 6 3 TESTE DE NORMALIDADE DOS RESÍDUOS ........................................................ 6 4 DIAGNÓSTICO SOBRE MULTICOLINEARIDADE ................................................ 7 5 DIAGNÓSTICO SOBRE HETEROCEDASTICIDADE ............................................. 8 5.1 Métodos informais de diagnóstico de heterocedasticidade ..................................... 9 5.2 Métodos formais de diagnóstico de heterocedasticidade ........................................ 9 5.2.1 Teste de Park .................................................................................................... 9 5.2.2 Teste de Glejser .............................................................................................. 10 5.2.3 Teste de Goldfeld-Quandt .............................................................................. 11 5.2.4 Teste Breusch-Pagan-Godfrey ....................................................................... 12 5.2.5 Teste de White ................................................................................................ 13 5.3 Providências corretivas para HETEROCEDASTICIDADE ................................ 13 6 DIAGNÓSTICO DA AUTOCORRELAÇÃO ............................................................ 15 6.1 Método gráfico – plotagem sequencial no tempo ................................................. 15 6.2 Teste de Durbin-Watson ....................................................................................... 15 6.3 Teste de Breush-Godfrey ...................................................................................... 16 7 MODELOS DE REGRESSÃO COM DADOS EM PAINEL .................................... 18 7.1 Vantagens da utilização de dados em painel ........................................................ 18 7.2 Dados em Painel: um exemplo numérico ............................................................. 19 7.3 Estimação de modelos de regressão com dados em painel: a abordagem dos efeitos fixos ................................................................................................................. 22 7.4 Estimação de modelos de regressão com dados em painel: a abordagem dos efeitos aleatórios ......................................................................................................... 32 7.5 Qual o melhor modelo: pooled, efeitos fixos ou efeitos aleatórios? ..................... 34 7.5.1 Teste de Chow ................................................................................................ 34 7.5.2 Teste de Hausman .......................................................................................... 36 7.5.3 Teste LM de Breusch-Pagan .......................................................................... 37 7.6 Identificação e correção de autocorrelação e heterocedasticidade em painel ....... 37 7.6.1 Autocorrelação ............................................................................................... 37 7.6.2 Teste de Wald para heterocedasticidade em grupo ........................................ 38 7.7 Procedimentos corretivos para autocorrelação e heterocedasticidade em painel . 39 8 MODELOS DE ESCOLHA QUALITATIVA ............................................................ 39 8.1 Modelos de probabilidade linear: um exemplo numérico..................................... 39 8.2 Modelos logit e probit com dados agrupados ou replicados: um exemplo numérico .................................................................................................................................... 43 8.2.1 Modelo LOGIT .............................................................................................. 43 8.2.2 Modelo PROBIT ............................................................................................ 48 8.3 Modelos logit e probit com dados individuais: um exemplo numérico ................ 50 8.3.1 Modelo Logit .................................................................................................. 50 9 MODELOS ECONOMÉTRICOS DINÂMICOS: MODELOS AUTORREGRESSIVOS E COM DEFASAGENS DISTRIBUÍDAS .......................... 53 9.1 Estimação ad hoc de modelos de defasagens distribuídas .................................... 53 9.2 Modelo de Koyck .................................................................................................. 54 9.2.1 Defasagem Mediana ....................................................................................... 54 9.2.2 Defasagem Média ........................................................................................... 54 9.3 Teste de Breusch Goodfrey ................................................................................... 54 9.4 Ajustamento parcial ou ajustamento de estoques (Nerlove) ................................. 54 9.5 Expectativas adaptativas: ...................................................................................... 55 10 MODELOS DE EQUAÇÕES SIMULTÂNEAS ...................................................... 63 10.1 MÍNIMOS QUADRADOS DE 2 ESTÁGIOS ...................................................63 10.1.1 Primeira Forma:............................................................................................ 64 10.1.2 Segunda Forma de Regredir por MQ2E: ..................................................... 64 10.2 MINIMOS QUADRADOS EM TRÊS ESTÁGIOS .......................................... 65 11 SÉRIES TEMPORAIS NO EVIEWS ....................................................................... 65 11.1 Análise Gráfica ................................................................................................... 66 11.2 Correlograma ...................................................................................................... 66 11.3 Teste de Raiz Unitária ......................................................................................... 67 11.4 Teste de Granger ................................................................................................. 67 11.5 Teste Para Verificar Co-Integração .................................................................... 67 11.5.1 Teste de Engle Granger ................................................................................ 67 11.6 MODELOS ARIMA ........................................................................................... 67 11.7 PREVISÃO ......................................................................................................... 68 11.8 MODELO VAR .................................................................................................. 68 11.9 MODELOS ARCH ............................................................................................. 69 11.10 SÉRIES TEPORAIS NO STATA .................................................................... 69 5 1 COMANDOS BÁSICOS 1.1 Para trocar vírgula por ponto no Excel, Office 2007, clique no Botão Office (canto superior esquerdo), Opções do Excel, Avançado: Separador decimal: . (ponto) Separador de milhar: , (vírgula) 1.2 Para aumentar a memória do Stata: set mem 1m 1.3 Para entrar com os dados no Stata, copiar (Ctrl C) do arquivo em Excel ou Bloco de notas e digitar no command do Stata edit Abrirá o Data editor, Ctrl V. Todas as variáveis devem ficar em preto. Se alguma tiver em vermelho, há erro. 1.4 Para mostrar estatísticas descritivas das variáveis: summarize ou sum e digitar o nome das variáveis 1.5 Para retirar (deletar) dados: drop if X=-1, (por exemplo) ou keep if X~=., (por exemplo) 1.6 Para fazer uma regressão: reg ou regress e adicionar as variáveis. A variável dependente sempre é a primeira a ser colocada após o reg. 1.7 Para obter os valores estimados de Y: predict Yest (gera no data editor os valores estimados da variável dependente) 1.8 Matriz var-cov: vce 1.9 Para criar tendência no Stata: gen trend = _n (começa em 1) gen trend = _n-1 (começa em zero) 1.10 Para informar ao Stata que é uma série temporal, no command: 1.10.1 ANUAL gen timevar = y(1959)+_n-1 format timevar %ty tsset timevar 1.10.2 TRIMESTRAL gen timevar = q(1973q2) +_n-1 format timevar %tq tsset timevar 1.10.3 MENSAL gen timevar = m(2005m7)+_n-1 format timevar %tm 6 tsset timevar 1.10.4 SEMANAL gen timevar = w(1981w1)+_n-1 format timevar %tw tsset timevar 2 TESTE DE MACKINNAN, WHITE E DAVIDSON (MWD) H0: modelo linear H1: modelo log-linear 1. Estime o modelo linear e obtenha os valores estimados de Y (rodar o modelo e predict Ychapéu). 2. Estime o modelo log-log e obtenha os valores estimados de lnY (rodar o modelo log-log e predict lnYchapéu). 3. Calcule Z1 como sendo ln(Ychapeu) – lnYchapeu. 4. Regrida o modelo linear dado em (1), acrescentando a variável Z1, ou seja, Yt contra as variáveis explicativas utilizadas em (1) e a variável Z1: �� = �� + ����� + � � � + � �� + �� e teste se � =0 pelo teste t. Se � for estatisticamente significativo, rejeita-se H0, ou seja, rejeita-se o modelo linear. Assim, o modelo log-log é o melhor modelo. Em seguida, testa-se: H0: modelo log-log H1: modelo linear 5. Calcule Z2 = (antilog de lnYchapeu) – Ychapeu. 6.Regrida ���� = �� + ������� + � ��� � + � �� + �� e teste se � = 0 pelo teste t. 3 TESTE DE NORMALIDADE DOS RESÍDUOS 3.1 Para obter os resíduos: predict resíduos, residuals histogram resíduos, discrete normal gen erro = resíduos^2 Histograma dos resíduos – trata-se de um dispositivo gráfico que é usado para conhecer algo da forma da função de densidade de probabilidade de uma variável aleatória. No eixo horizontal, dividimos os valores da variável em exame (no caso, os resíduos de MQO) em intervalos adequados e, em cada intervalo de classe, traçamos retângulos cuja altura é dada pelo número de observações (isto é, sua frequência) nesse intervalo de classe. Sobrepondo mentalmente a curva em forma de sino da distribuição normal ao histograma, teremos a ideia de se a aproximação normal (FDP) é adequada. Teste de Jarque Bera – é um teste assintótico ou de grandes amostras. Também parte dos resíduos de MQO. Esse teste calcula, primeiro, a assimetria e a curtose dos resíduos e emprega o seguinte teste estatístico: �� = � ���6 + (� − 3) � 24 � onde n = tamanho da amostra; s = coeficiente de assimetria e k = coeficiente de curtose. Para uma variável normalmente distribuída, s = 0 e k = 3. Portanto, o teste JB de normalidade é um teste de hipótese conjunta de que s e k são iguais a 0 e 3, respectivamente. Nesse caso, espera-se que o valor da estatística JB seja igual a 0. 7 Sob a hipótese nula de que os resíduos são normalmente distribuídos, Jarque e Bera demonstraram que, assintoticamente (isto é, em grandes amostras), a estatística JB segue a distribuição de qui-quadrado com 2 graus de liberdade. Se o valor p calculado para a estatística JB em uma aplicação for suficientemente pequeno, o que acontece se o valor da estatística for muito diferente de zero, podemos rejeitar a hipótese de que a distribuição dos resíduos é normal. Mas se o valor p for razoavelmente alto, o que acontece quando o valor da estatística está próximo de zero, não rejeitamos a premissa de normalidade. Quanto mais próximo de zero estiver a estatística calculada de JB, não rejeita-se a hipótese nula de normalidade dos resíduos. Se os resíduos estão normalmente distribuídos, eles seguem a distribuição normal com média zero e variância constante σ2. O valor p é o menor nível de significância ao qual se rejeita a hipótese nula: H0: resíduos se distribuem normalmente. Se o valor p for elevado, não rejeita-se a hipótese nula. Assim, os resíduos são normalmente distribuídos. (Exemplo: valor p de JB = 0,756009 – somente em nível de significância de 75% é que se rejeita H0, portanto, não se rejeita H0). O teste de Jarque Bera deve ser instalado no Stata, de acordo com o seguinte comando: ssc des jb ssc install jb Regredir uma regressão e obter os resíduos: predict [nome da variável resíduos], residuals Para fazer o teste JB, digitar em command: jb [nome da variável resíduos] 4 DIAGNÓSTICO SOBRE MULTICOLINEARIDADE 4.1 Fazendo a regressão inicial com todas as variáveis, se o R2 for substancialmente alto e um ou mais coeficientes parciais angulares forem individualmente insignificantes do ponto de vista estatístico de acordo com o teste t, há indícios de multicolinearidade. Em geral, se R2 for elevado, digamos, superior a 0,8, o teste F deve ser significativo, rejeitando a hipótese de que todos os coeficientes parciais angulares são simultaneamente iguais a zero. reg y x2 x3 x4 4.2 Altas correlações simples entre pares de regressores. Se os coeficientes de correlação entre dois regressores forem altos, digamos, maiores que 0,8, então, a multicolinearidade será um problema sério. O problema deste critério é que,embora altas correlações simples ou de ordem zero possam sugerir colinearidade, não é necessário que elas sejam altas para que exista colinearidade em qualquer caso específico. Tecnicamente, coeficientes de correlação simples elevados são uma condição suficiente, mas não necessária, para a existência de multicolinearidade porque ela pode existir mesmo que as correlações de ordem zero ou simples sejam comparativamente baixas (digamos, de menos de 0,5). corr x2 x3 x4 4.3 Correlações parciais. Na regressão de Y contra X2, X3 e X4, um resultado em que ��,� � é muito elevado mas !��, � ; !� ,� � ; !� ,� � são comparativamente baixos pode sugerir que as variáveis X2, X3 e X4 são estreitamente intercorrelacionadas e que pelo menos uma dessas é supérflua. Este método não oferece uma orientação infalível contra 8 a multicolinearidade, pois pode acontecer que tanto R2 quanto as correlações parciais sejam suficientemente altas. pcorr X2 X3 X4 X5 X6 (Deve-se ir mudando a ordem das variáveis para poder interpretar, por exemplo, correlação entre x2 e x3 mantendo x4, x5 e x6 constante; depois correlação de x3 com x4, mantendo x2, x5 e x6 constante, e assim por diante). 4.4 Regressões auxiliares. Adotando-se a regra prática de Klien, se pelo menos um R2 de uma das regressões auxiliares for maior que o R2 da regressão principal, a multicolinearidade é um problema sério neste modelo. Regredir X2 contra todos os outros X’s. Regredir X3 contra todos os outros X’s, e assim por diante, dependendo do número de variáveis explicativas do modelo. 4.5. Tolerância e fator de inflação da variância. #$% = 11 − �'� ()*' = 1#$%' = (1 − �'�) À medida que �'�, o coeficiente de determinação da regressão do regressor Xj contra os regressores restantes do modelo, aumenta no sentido da unidade, isto é, à medida que a colinearidade de Xj com os demais regressores aumenta, o FIV também aumenta e, no limite, pode ser infinito. Quanto maior o valor de FIVj, tanto mais “problemática” ou colinear é a variável Xj. Como regra prática, se o FIV de uma variável for maior que 10, o que acontece quando ,-. é maior que 0,9, diz-se que esta variável é altamente colinear. Quanto mais próxima de zero estiver a TOLj, maior o grau de colinearidade dessa variável com os demais regressores. Por outro lado, quanto mais próxima a TOLj estiver de 1, maior a evidência de que não há colinearidade desta variável com os demais regressores. Este método não está livre de críticas, já que a variância dos parâmetros da regressão dependem de três fatores σ2, ∑ 0'�e FIVj. Um FIV elevado pode ser contrabalançado por um σ2 baixo ou por um alto ∑ 0'�. Portanto, um FIV elevado não é nem necessário nem suficiente para obter altas variâncias e altos erros-padrão. No Stata, command vif logo após a regressão rodada para a qual se deseja verificar o FIV e a TOL. 5 DIAGNÓSTICO SOBRE HETEROCEDASTICIDADE H0: homocedasticidade H1: heterocedasticidade O problema da heterocedasticidade é que as estimativas de MQO, apesar de não tendenciosos e consistentes, deixam de ter variância mínima (deixam de ser eficientes). Como o que desejamos é não rejeitar H0, em todos os problemas como multicolinearidade, heterocedasticidade, autocorrelação e normalidade dos resíduos, quanto maior for o valor p (ou a probabilidade), melhor, pois neste caso, a estatística calculada é estatisticamente não significativa e, portanto, não rejeita-se a hipótese nula. Se testarmos a estatística calculada, devemos estabelecer um nível de significância elevado inicialmente (10%), pois quanto maior o nível de significância, menor a estatística crítica. Se t calc < t crít, não rejeita-se H0. Assim, para dar mais rigor ao 9 teste, temos que escolher um t crítico bem pequeno, que só é possível com um nível de significância elevado. É por isso que este teste é o inverso do teste t de significância individual dos parâmetros, no sentido da escolha do nível de significância. Enquanto no primeiro se inicia com um nível de significância elevado, para se obter um t crítico pequeno, neste último caso do teste de significância dos parâmetros individuais se inicia com um nível de significância baixo, para obter um t crítico elevado, pois se deseja rejeitar a hipótese nula. 5.1 Métodos informais de diagnóstico de heterocedasticidade Cabe destacar, inicialmente, dois métodos informais para detectar heterocedasticidade. Primeiramente, espera-se que em dados de corte transversal, que envolvam unidades heterogêneas, a heterocedasticidade deve ser mais a regra do que a exceção. Outro método informal sustenta que se não existem informações a priori ou empíricas sobre a natureza da heterocedasticidade, na prática, podemos fazer a análise de regressão supondo que não há heterocedasticidade (regredir normalmente Y contra os X’s) e depois fazer um exame dos resíduos elevados ao quadrado para verificar se eles apresentam algum padrão sistemático. Plotando os resíduos estimados ao quadrado contra a variável dependente estimada (�12), por meio do comando: * Estimando o modelo e obtendo os resíduos regress y x2-x6 predict resid, residuals * Gerando o quadrado dos resíduos gen resid_quad=resid^2 * Fazendo o plot dos resíduos contra a variável dependente ou contra as explicativas: twoway (scatter resid_quad Yest) pode-se verificar se o valor médio estimado de Y se relaciona sistematicamente com os resíduos elevados ao quadrado. Se os resíduos se distribuem em torno de uma média no gráfico, diz-se que o modelo é homocedástico; se há um padrão sistemático entre as duas variáveis (resíduos elevados ao quadrado e Y estimado), há heterocedasticidade. Os resíduos também podem ser plotados contra qualquer uma das variáveis independentes do modelo. Dependendo do comportamento gráfico da relação entre estas duas variáveis (resíduos ao quadrado e uma das variáveis independentes), é mais fácil identificar como os dados podem ser transformados para que a variância do termo de erro se torne homocedástica. 5.2 Métodos formais de diagnóstico de heterocedasticidade 5.2.1 Teste de Park Park formaliza o método gráfico sugerindo que 32� é função da variável explanatória Xi. A forma funcional que ele sugere é 32� = 3��24562 ou ��32� = ��3� + 7���2 + 82 onde vi é o termo de erro estocástico. 10 Como em geral 32� é desconhecido, Park sugere usar �̂2� como proxy e calcular a seguinte regressão: ���̂2� = ��3� + 7���2 + 82 ���̂2� = � + 7���2 + 82 Se β for estatisticamente significativo, rejeita-se H0, ou seja, se o valor p da estatística t de β for muito próximo de zero, podemos considerar que a heterocedasticidade está presente nos dados. Caso contrário, podemos aceitar a premissa de homocedasticidade. Mecânica do teste: 1. Calculamos a regressão por MQO sem levar normalmente, sem conta a questão da heterocedasticidade. 2. Obtemos os resíduos dessa regressão por MQO e geramos as seguintes variáveis: gen lnresid_quadr=ln(resid_quad) gen lnx3=ln(x3), por exemplo, se for a variável X3 que se suspeita seguir um padrão sistemático com o somatório dos resíduos ao quadrado. 3. Regredimos a regressão proposta por Park: regress lnresid_quadr lnx3 Este teste é um método estritamente exploratório, pois está sujeito a críticas. 5.2.2 Teste de Glejser Obtém-se os resíduos da regressão por MQO e testa-se várias possibilidades de como o erro se distribui, já que Glejser sugere fazer uma regressão dos valores absolutos dos resíduos contra a variável X que se considera estreitamente relacionada a 32�. Glejser propõe testar as seguintes formas funcionais: /�̂2/= 7� + 7��2 + 82 /�̂2/= 7� + 7�;�2 + 82 /�̂2/= 7� + 7� 1�2 + 82 /�̂2/= 7� + 7� 1;�2 + 82 /�̂2/= ;7� + 7��2 + 82 /�̂2/= <7� + 7��2� + 82 onde vi é o termode erro. Cabe destacar que os dois últimos modelos são não lineares nos parâmetros e, portanto, não podem ser estimados com os habituais procedimentos de MQO. Em termos práticos, os quatro primeiros modelos podem ser usados para detectar heterocedasticidade em grandes amostras, já que Glejser verificou que neste caso os resultados são satisfatórios. Mecânica do teste: 1. gera-se a variável resíduo em valores absolutos gen res_abs=abs(resid) 2. No caso do modelo considerando a raiz quadrada de x3 gen sqrt_x3=sqrt(x3) 3. regress res_abs sqrt_x3 Cabe observar que todas as formas funcionais devem ser testadas e se pelo menos uma indicar heterocedasticidade, aceita-se a presença de heterocedasticidade nos 11 dados. Se o coeficiente relativo à variável Xi for estatisticamente significativo pelo habitual teste t, rejeita-se H0. * Coeficiente de correlação de Spearman * neste caso, precisa dos y estimados qui regress y x2-x6 predict yhat, xb * calculo do Coeficiente spearman yhat res_abs, stats(rho p) matrix 5.2.3 Teste de Goldfeld-Quandt Este método é aplicável quando se pressupõe que a variância heterocedástica, 32�, se relaciona de modo positivo a uma das variáveis explanatórias do modelo de regressão. Para simplificar, partiremos do modelo de duas variáveis: �2 = 7� + 7��2 + �2 Imagine que 32� se relaciona positivamente a �2 da seguinte forma: 32� = 3��2� onde 3� é uma constante. A pressuposição acima postula que 32� é proporcional ao quadrado da variável X. Se esta equação for adequada, significa que 32� será maior quanto maiores forem os valores de Xi. Se for este o caso, é muito provável que a heterocedasticidade esteja presente no modelo. Para testar isso explicitamente, Goldfeld e Quandt sugerem as seguintes etapas: Mecânica do teste: 3.1. Ordene ou classifique as observações de acordo com os valores de Xi, começando pelo menor valor de X; 3.2. Omita as observações centrais (em torno de ¼ a 1/6); uma subamostra é a que está acima das centrais e a outra subamostra é a que está abaixo das centrais; 3.3. Regrida Y contra os Xi nas duas subamostras e obtenha SQR1 e SQR2, sendo que a primeira dessas somas corresponde aos menores valores de Xi (o grupo com menor variância) e o segundo, o conjunto com maiores valores de Xi (grupo das maiores variâncias). 3.4 Calcule a razão: = = >?�2/@�>?�1/@� • Sempre colocar a SQR maior no numerador!! 3.5 Compare λ com a estatística F crítica, que tem (n-k) graus de liberdade no numerador e no denominador (atentar para n, que é o número de observações de cada subamostra, e k é o número de parâmetros da regressão de cada subamostra). Se o λ (=F) calculado for maior que o F crítico ao nível de significância selecionado, rejeita-se a hipótese nula de homocedasticidade, isto é, podemos dizer que a hipótese de heterocedasticidade é muito provável. Cabe destacar que a omissão das variáveis centrais é feita para acentuar a diferença entre o grupo com variâncias pequenas (isto é, SQR1) e o grupo de grandes variâncias (isto é, SQR2). Vale notar também que no caso de modelos com mais de uma variável X, o ordenamento das observações, o primeiro passo do teste, pode ser feito em relação a qualquer uma das variáveis X. Assim, no modelo: �2 = 7� + 7��2 + 7 � 2 + 7 � 2 + �2, 12 podemos classificar os dados por qualquer um desses X. Se não houver certeza a priori quanto à variável X adequada, podemos conduzir o teste para cada uma das variáveis X ou, por meio do teste de Park, para cada X. Finalmente, cabe destacar que presume-se que os resíduos se distribuem normalmente. A limitação deste teste consiste em identificar a variável X correta pela qual ordenar as observações, a qual pode ser evitada recorrendo-se ao teste de Breush-Pagan- Godfrey (BPG). 5.2.4 Teste Breusch-Pagan-Godfrey Para descrever este teste, recorremos ao modelo de regressão linear com k variáveis �2 = 7� + 7���2 + ⋯ + 7B�B2 + �2 Suponha que a variância do erro, 32�, seja descrita como: 32� = C(�� + ����2 + ⋯ + �D�D2) isto é, 32� é uma função das variáveis não estocásticas Z; alguns ou todos os X podem servir de Z. Suponha, especificamente, que: 32� = �� + ����2 + ⋯ + �D�D2 isto é, 32� é uma função linear dos Z. Se α2=α3=...=αm=0, 32�= α1, que é uma constante. Portanto, para testar se 32� é homocedástico, podemos testar a hipótese de que α2=α3=...=αm=0. Essa é a idéia básica que está por trás do teste de Breush-Pagan. O procedimento prático é o seguinte: Mecânica do teste: 4.1. Estime a regressão principal e obtenha os resíduos. 4.2. Obtenha o estimador da variância por máxima verossimilhança, dado por: 3E� = ∑ �̂2�� Recordemos que o estimador da variância por MQO é: 3F� = ∑ �̂2�@� 4.3. Construa variáveis pi, definidas como: G2 = �̂2�3E� que são simplesmente cada resíduo elevado ao quadrado e dividido por 3E�. 4.4. Faça a regressão de pi contra os Z, como: G2 = �� + ����2 + ⋯ + �D�D2 + 82 onde vi é o termo residual desta regressão. 4.5. Obtenha SQE da regressão feita na etapa 4 e defina: H = 12 (>?I) Pressupondo que µ i se distribui normalmente, podemos demonstrar que, se há homocedasticidade e se o tamanho da amostra n aumenta indefinidamente, então: H segue distribuição de qui-quadrado com (m-1) graus de liberdade; m é o número de parâmetros da regressão estimada em 4.5. Portanto, em uma aplicação, se o H = (χ2) calculado for maior que o valor crítico de χ2 ao nível de significância escolhido, pode-se rejeitar a hipótese de homocedasticidade; caso contrário, não a rejeitamos. Cabe destacar que para se obter SQE, necessária na etapa 4.5, recorremos a: �� = >?I>?( = >?I>?I + >?� 13 ��(>?I + >?�) = >?I ��>?I + ��>?� = >?I ��>?� = >?I − ��>?I ��>?� = >?I(1 − ��) >?I = ��>?�(1 − ��) No Stata: qui regress y x2-x6 scalar sigmamv=e(rss)/e(N) gen pi= resid_quad/sigmamv * Regressáo do pi contra a variável x3 regress pi x3 * Obtendo o valor calculado e significância scalar chi_calc = e(rss)/2 di 1-chi2(e(df_m),chi_calc) * Para calcular direto no Stata, digitar em command: estat hettest 5.2.5 Teste de White * O teste de White também precisa ser instalado ssc des whitetst ssc install whitetst regress y contra todos os X’s whitetst Este comando no Stata já faz todos os passos do teste de White. É só interpretar. O teste de White é conduzido do seguinte modo: 1. Estime a regressão normalmente e obtenha os resíduos. 2. Calcule a seguinte regressão auxiliar: �̂2� = �� + ����2 + � � 2 + � ��2� + �J� 2� + �K��2� 2 + 82 Isto é, é feita uma regressão dos quadrados dos resíduos da regressão original contra as variáveis ou regressores X originais, seus valores elevados ao quadrado e os produtos cruzados dos regressores. Também podem ser incluídos expoentes mais altos dos regressores. Observe que há um termo constante nessa equação mesmo que a regressão original não o contenha. Obtenha o R2 desta regressão (auxiliar). 3. Sob a hipótese nula de que não há heterocedasticidade, pode-se demonstrar que o tamanho da amostra (n) multiplicado pelo R2 da regressão auxiliar segue assintoticamente a distribuição de qui-quadrado com um número de graus de liberdade igual ao número de regressores (excluído o termo constante) da regressão auxiliar. 4. Se o valor de qui-quadrado calculado for superior ao qui-quadrado crítico no nível de significância selecionado, rejeita-se H0 e conclui-se que há heterocedasticidade. * Regressão com erros padrão robustos (correção de White) regress y x2 x3 x4 x5 x6, vce(robust) 5.3 Providências corretivas para HETEROCEDASTICIDADE 14 A heterocedasticidade, que pode ser denotada por I(�2�) = 32� não destrói as propriedades de não tendenciosidade (I(7)L = 7) e de consistência (à medida que o tamanhoda amostra aumenta, o estimador se aproxima do verdadeiro valor de β) dos estimadores de MQO; mas eles deixam de ser eficientes (um estimador eficiente é aquele que é não tendencioso e tem variância mínima). A falta de eficiência torna dúbio os habituais testes de hipóteses. São necessárias, portanto, medidas corretivas, que dividem-se em duas abordagens: 1. Quando 32� é conhecido: o método dos mínimos quadrados ponderados (uma vertente dos mínimos quadrados generalizados) O método dos MQO não usa as “informações” contidas na variabilidade desigual da variável dependente Y, ele dá igual peso ou importância a todas as observações. O método de mínimos generalizados (MQG) leva em conta essa informação explicitamente dando menos peso aquelas observações provenientes de populações com maior variabilidade e, portanto, é capaz de gerar estimadores não BLUE. Para ver como isso é feito, consideremos o modelo de duas variáveis: �2 = 7� + 7��2 + �2 que, para simplificar a manipulação algébrica, podemos escrever como: �2 = 7��M2 + 7��2 + �2 onde �M2=1 para cada i. Agora, suponha que as variâncias heterocedásticas 32� são conhecidas. Dividindo a equação imediatamente anterior por σi, obtemos: �232 = 7� �M232 + 7� �232 + �232 que, para facilitar a exposição, escreveremos como: �2∗ = 7�∗�M2∗ + 7�∗�2∗ + �2∗ onde as variáveis marcadas com asterisco, ou transformadas, são variáveis originais divididas pelo 32 conhecido. Usamos a notação 7�∗ e 7�∗ para os parâmetros do modelo transformado a fim de distingui-lo dos parâmetros de MQO, β1 e β2. O propósito de transformar o modelo original deve-se ao termo de erro transformado. Note o seguinte aspecto do termo de erro transformado, �2∗: 8O!(�2∗) = I(�2∗)� = I P�232Q � 8O!(�2∗) = �RST I(�2�), já que 32� é conhecido 8O!(�2∗) = �RST (32�) já que I(�2�) = 32� 8O!(�2∗) = 1 que é uma constante. Isto é, a variância do termo de erro transformado �2∗ agora é homocedástico. Como ainda estamos mantendo as demais premissas do modelo clássico, constatamos que é µ* que é homocedástico, sugerindo que, se aplicarmos os MQO ao modelo transformado, ele gerará estimadores que são BLUE. Em resumo, os estimadores de mínimos quadrados ponderados são BLUE e não os estimadores de MQO. O fator de ponderação é U<VW. = UVW 2. Quando 32� não é conhecido: Raramente 32� é conhecido. a) Variância e erros-padrão consistentes para heterocedasticidade de White: 15 Os erros-padrão com a correção da heterocedasticidade de White também são conhecidos como erros-padrão robustos e podem ser obtidos diretamente com o comando a seguir no Stata: * Regressão com erros padrão robustos (correção de White) regress y x2 x3 x4 x5 x6, vce(robust) Como os coeficientes da regressão desconsiderando-se qualquer problema de heterocedasticidade são não tendenciosos, White propôs só mexer na variância. Os erros-padrão ajustados à heterocedasticidade (de White) podem ser tanto maiores ou menores que os erros-padrão não ajustados. b) Assume-se uma pressuposição sobre 32� Se acreditamos, em função de métodos gráficos, especulativos ou das abordagens de Park e Glejser, que a variância dos resíduos é, por exemplo, proporcional ao quadrado da variável explanatória X, ou proporcional a X, ou proporcional ao quadrado do valor médio de Y, ou alguma outra pressuposição, recorremos à transformação do modelo, adotando como fator de ponderação: COXY! Z5 GY�Z5!OçãY = 1;G!5��]GY�^çãY O��]_^ZO 1. a variância do erro é proporcional a Xi2: E(ui2)=σ2Xi2 2. a variância do erro é proporcional a Xi: E(ui2)=σ2Xi 3. a variância do erro é proporcional ao quadrado do valor médio de Y: Xi2: E(ui2)=σ2[E(Yi)]2 c) uma transformação logarítmica nas variáveis muitas vezes reduz a heterocedasticidade em comparação com a regressão principal. Finalmente, cabe destacar: “o impacto de uma variância do erro não constante sobre a eficiência do estimador de MQO e de sua inferência depende de vários fatores, incluindo o tamanho da amostra, o grau de variação de σi2, a configuração dos valores de X (isto é, do regressor), e a relação entre a variância dos erros e os X. portanto, não é possível formular conclusões totalmente gerais em relação aos prejuízos trazidos pela heterocedasticidade” (John Fox, Gujarati, 2006, p. 344). 6 DIAGNÓSTICO DA AUTOCORRELAÇÃO 6.1 Método gráfico – plotagem sequencial no tempo Pode-se plotar os resíduos contra o tempo ou os resíduos padronizados contra o tempo, que são simplesmente os resíduos divididos pelo erro-padrão da regressão, isto é, �̂�/3F. Também podemos plotar �̂� contra �̂�`�, isto é, os resíduos no período t contra os resíduos no período t-1, uma espécie de teste empírico do esquema AR(1). * Gráfico dos resíduos e dos resíduos contra resíduos defasados twoway (scatter resid ano) twoway (scatter resid L.resid) 6.2 Teste de Durbin-Watson Premissas que embasam o teste – somente válido se atender a estas pressuposições: 16 1. O modelo de regressão inclui o termo de intercepto. Se este não estiver presente, como no caso do modelo que passa pela origem, é necessário fazer a regressão para incluir o intercepto antes de obter a SQR. 2. As variáveis explanatórias, X, são não estocásticas ou fixadas em amostras repetidas. 3. Os termos de erro são gerados pelo esquema auto-regressivo de primeira ordem: µ t = ρµ t-1 + εt. Portanto, não pode ser empregado para detectar esquemas auto-regressivos de ordens mais elevadas. 4. Pressupõe-se que o termo de erro esteja normalmente distribuído (verificar pelo teste de Jarque-Bera). 5. O modelo de regressão não inclui os valores defasados da variável dependente como uma das variáveis explanatórias. 6. Não há falta de observações nos dados. Testa-se H0: ausência de autocorrelação para a estatística calculada Z ≈2(1 − bF). Como -1<= b <=1, implica que 0<=d<=4. Esses são os limites de d; qualquer valor estimado para d deve ficar entre estes limites. Se bF = 0, d =2; isto é, não há correlação serial de primeira ordem, espera-se que d fique em torno de 2. Portanto, como regra prática, se verificarmos em uma aplicação que d é menor que 2, podemos pressupor que não há autocorrelação de primeira ordem, seja positiva ou negativa. Se bF = +1, indicando perfeita correlação dos resíduos, d≈0. Então, quanto mais próximo de zero estiver d, maior a evidencia de correlação serial positiva. Esta relação deveria ser evidente, porque se há autocorrelação positiva, os resíduos estimados se aglomerarão e suas diferenças tenderão a ser pequenas. Em consequência, a soma dos quadrados do numerador será menor que a do denominador, que permanece um valor único para qualquer regressão dada. Se bF = −1, isto é, se há correlação negativa perfeita entre resíduos sucessivos, d ≈ 4. Portanto, quanto mais próximo d estiver de 4, maior a evidencia de correlação serial negativa. A mecânica do teste DW é a seguinte, supondo que as premissas que o embasam sejam respeitadas: 1. Calcula-se a regressão por MQO e obtém-se os resíduos. 2. Calcula-se d conforme: Z = ∑ (def`defgh)TfijfiT∑ defTfijfih 3. Dados o tamanho da amostra e o número de variáveis explanatórias, encontram-se os valores de dL e dU. 4. Seguem as regras de decisão dadas pela figura abaixo: * Teste Durbin Watson qui regress y x2-x6 estat dwatson dwstat * No caso de variável dependente defasada no modelo * Exemplo: regress y L.y x2-x6 * pode-se usar o teste durbin alternativo * vide - help estat durbinalt - 6.3 Teste de Breush-Godfrey 17 É um teste geral, no sentido de que permite a existência de (1) regressores não estocásticos, como o valor defasado do regressando; (2) esquemas auto-regressivos de ordem mais elevada, como AR(1), AR(2), etc.; (3) médias móveis simples ou de ordensmais elevada de termos de ruído branco, como εt. O teste BG, também conhecido como teste LM, é feito como a seguir. Empregaremos o modelo de regressão com duas variáveis para ilustrar, mas pode-se aplicar a modelos com muito mais regressores. Seja: �� = 7� + 7��� + �� Suponha que o termo de erro µt siga um esquema auto-regressivo de ordem p, AR(p), como o seguinte: �� = b���`� + b���`� + ⋯ + bk��`k + l� onde l� é um termo de ruído branco. Como se vê, é uma simples extensão do esquema AR(1). A hipótese nula a ser testada é: m0: b1 = b2 = ⋯ = bG = 0 Isto é, não há autocorrelação serial de qualquer ordem. O teste BG envolve as seguintes etapas: 1. Estime a regressão principal por MQO. 2. Faça a regressão de �̂� contra o Xt original (se houver mais de uma variável X no modelo, elas também serão incluídas) e �̂�`�, �̂�`�, … , �̂�`k, onde estes últimos são os valores defasados dos resíduos estimados na etapa 1. Assim, se p =4, incluiremos os quatro valores defasados dos resíduos como mais um regressor do modelo. Em resumo, calculamos a seguinte regressão: �̂� = �� + ���� + bF��̂�`� + bF��̂�`� + ⋯ + bFk�̂�`k + l� E obtemos seu R2. 3. Compare (n-p).R2 ao qui-quadrado crítico com p graus de liberdade. Se qui-quadrado calculado > qui-quadrado crítico, rejeita-se H0, e neste caso, pelo menos um rô é estatisticamente diferente de zero. * Teste Breusch-Godfrey (BG) qui regress y x2-x6 estat bgodfrey, lags(1) small estat bgodfrey, lags(2) small * Correção da autocorrelação com erros-padrão robustos por Newey-West newey y x2-x6, lag(2) * Inserindo termos AR's arima y x2-x6, ar(1/2) * Para defasar uma série: gen (nome da variável defasada) = l1.(nome da variável) Exemplo: gen X2def = l1.X2 * Para diferenciar uma série: gen (nome da variável em primeira diferença) = d1.(nome da variável), noconst Exemplo: gen X2dif = d1.X2 * Lembrar: lag é defasagem; é Yt-1 Diferença é ∆Y= Yt – Yt-1 18 7 MODELOS DE REGRESSÃO COM DADOS EM PAINEL Nos dados em painel, a mesma unidade de corte transversal (uma família, uma empresa, um estado) é acompanhado ao longo do tempo. Em síntese, os dados em painel têm uma dimensão espacial e outra temporal. Os dados em painel também são chamados de dados combinados (combinação de séries temporais e observações em corte transversal), combinação de séries temporais e de dados de corte transversal, dados em micropainel, dados longitudinais (um estudo ao longo do tempo de uma variável ou de um grupo de temas), análise histórica de eventos (como o estudo da trajetória de carreira dos formados em 1965 em uma dada faculdade de administração). Embora sejam variações sutis, todos estes nomes conotam essencialmente o movimento no tempo de unidades de corte transversal. Portanto, empregaremos a expressão dados em painel em um sentido genérico, incluindo um ou mais destes termos. E chamaremos os modelos de regressão embasados nesses dados de modelos de regressão com dados em painel. 7.1 Vantagens da utilização de dados em painel Balgati lista as seguintes vantagens dos dados em painel em relação aos dados de corte transversal ou às séries temporais: 1. Como os dados em painel se relacionam a indivíduos, empresas, estados, países, etc., tende a haver muita heterogeneidade nessas unidades. As técnicas de estimação em painel podem levar em conta explicitamente essas variáveis individuais específicas (a heterogeneidade das unidades de corte transversal). 2. Ao combinar séries temporais com dados de corte transversal, os dados em painel proporcionam “dados mais informativos, mais variabilidade e menos colinearidade entre as variáveis, mais graus de liberdade (pois se aumenta o tamanho da amostra) e mais eficiência”. 3. Ao estudar repetidamente um corte transversal de observações, os dados em painel são mais adequados ao estudo da dinâmica da mudança. Períodos de desemprego, rotatividade no emprego e mobilidade da mão de obra são melhor estudados em dados em painel. 4. Os dados em painel podem detectar e medir efeitos melhor do que quando a observação é feita por meio de corte transversal puro ou série temporal pura. Por exemplo, os efeitos das leis de salário mínimo sobre o emprego e os salários podem ser melhor estudados se incluirmos sucessivas rodadas de aumento do salário mínimo federal e/ou estadual. 5. Os dados em painel nos permitem estudar modelos comportamentais mais complexos. Por exemplo, fenômenos como as economias de escala e a mudança tecnológica podem ser mais bem tratados por dados em painel do que por dados de corte transversal puro ou de séries temporais puras. 6. Ao tornar disponíveis dados referentes a vários milhares de unidades, podemos minimizar o viés que decorreria da agregação de pessoas ou empresas em grandes conjuntos. A técnica de dados em painel ou de dados longitudinais consiste num conjunto de dados combinados em dimensões tanto de série temporal como de corte transversal. Os modelos de painel permitem explorar, simultaneamente, variações das variáveis ao longo do tempo e entre diferentes unidades ou grupos. Segundo Xavier (2007), a disposição dos dados em painel permite o uso de um número mais elevado de 19 observações, o que contribui para maior variabilidade dos dados, menor colinearidade entre as variáveis, elevação do número de graus de liberdade, maior eficiência do modelo estimado e é mais apropriado para o estudo de mudanças dinâmicas. Além disso, Nonnemberg e Mendonça (2005) expõem que a vantagem do emprego de dados em painel é que esse método permite levar em consideração as características idiossincráticas (heterogeneidade) existentes entre as unidades estudadas. 7.2 Dados em Painel: um exemplo numérico Os dados da Tabela 16.1 foram extraídos de um famoso estudo de teoria do investimento proposto por Y. Grunfeld, “The Determinants of Corporate Investment”, Tese de Ph.D., Chicago, 1958. Grunfeld estava interessado em verificar como o investimento real bruto (Y) depende do valor real da empresa (X2) e do estoque real de capital (X3). Embora o estudo original incluísse várias empresas, para fins ilustrativos só veremos os dados de quatro delas: General Eletric (GE), General Motors (GM), US Steel (US) e Westinghouse. Na Tabela 16.1, apresentamos, para cada uma dessas empresas, os dados relativos a cada uma das três variáveis durante o período de 1935-1954. Portanto, temos quatro unidades de cross-section e 20 períodos temporais. Ao todo são, assim, 80 observações. A priori, espera-se que Y esteja positivamente relacionado a X2 e X3. Tabela 16.1 Investimentos de quatro empresas, 1935-1954 Período Empresa Y X2 X3 1935 GE 33.10000 1170.600 97.80000 1936 GE 45.00000 2015.800 104.4000 1937 GE 77.20000 2803.300 118.0000 1938 GE 44.60000 2039.700 156.2000 1939 GE 48.10000 2256.200 172.6000 1940 GE 74.40000 2132.200 186.6000 1941 GE 113.0000 1834.100 220.9000 1942 GE 91.90000 1588.000 287.8000 1943 GE 61.30000 1749.400 319.9000 1944 GE 56.80000 1687.200 321.3000 1945 GE 93.60000 2007.700 319.6000 1946 GE 159.9000 2208.300 346.0000 1947 GE 147.2000 1656.700 456.4000 1948 GE 146.3000 1604.400 543.4000 1949 GE 98.30000 1431.800 618.3000 1950 GE 93.50000 1610.500 647.4000 1951 GE 135.2000 1819.400 671.3000 1952 GE 157.3000 2079.700 726.1000 1953 GE 179.5000 2371.600 800.3000 1954 GE 189.6000 2759.900 888.9000 1935 GM 317.6000 3078.500 2.800000 1936 GM 391.8000 4661.700 52.60000 1937 GM 410.6000 5387.100 156.9000 1938 GM 257.7000 2792.200 209.2000 20 1939 GM 330.8000 4313.200 203.4000 1940 GM 461.2000 4643.900 207.2000 1941 GM 512.0000 4551.200 255.2000 1942 GM 448.0000 3244.100 303.7000 1943 GM 499.6000 4053.700264.1000 1944 GM 547.5000 4379.300 201.6000 1945 GM 561.2000 4840.900 265.0000 1946 GM 688.1000 4900.000 402.2000 1947 GM 568.9000 3526.500 761.5000 1948 GM 529.2000 3245.700 922.4000 1949 GM 555.1000 3700.200 1020.100 1950 GM 642.9000 3755.600 1099.000 1951 GM 755.9000 4833.000 1207.700 1952 GM 891.2000 4924.900 1430.500 1953 GM 1304.400 6241.700 1777.300 1954 GM 1486.700 5593.600 2226.300 1935 US 209.9000 1362.400 53.80000 1936 US 355.3000 1807.100 50.50000 1937 US 469.9000 2673.300 118.1000 1938 US 262.3000 1801.900 260.2000 1939 US 230.4000 1957.300 312.7000 1940 US 361.6000 2202.900 254.2000 1941 US 472.8000 2380.500 261.4000 1942 US 445.6000 2168.600 298.7000 1943 US 361.6000 1985.100 301.8000 1944 US 288.2000 1813.900 279.1000 1945 US 258.7000 1850.200 213.8000 1946 US 420.3000 2067.700 232.6000 1947 US 420.5000 1796.700 264.8000 1948 US 494.5000 1625.800 306.9000 1949 US 405.1000 1667.000 351.1000 1950 US 418.8000 1677.400 357.8000 1951 US 588.2000 2289.500 341.1000 1952 US 645.2000 2159.400 444.2000 1953 US 641.0000 2031.300 623.6000 1954 US 459.3000 2115.500 669.7000 1935 WEST 5 12.9300 0 191.500 0 1.800000 1936 WEST 6 25.9000 0 516.000 0 0.800000 1937 WEST 7 35.0500 0 729.000 0 7.400000 1938 WEST 8 22.8900 0 560.400 0 18.10000 1939 WEST 9 18.8400 0 519.900 0 23.50000 1940 WEST 0 28.5700 0 628.500 0 26.50000 1941 WEST 1 48.5100 0 537.100 0 36.20000 1942 WEST 2 43.3400 0 561.200 0 60.80000 1943 WEST 3 37.0200 0 617.200 0 84.40000 1944 WEST 4 37.8100 0 626.700 0 91.20000 21 1945 WEST 5 39.2700 0 737.200 0 92.40000 1946 WEST 6 53.4600 0 760.500 0 86.00000 1947 WEST 7 55.5600 0 581.400 0 111.1000 1948 WEST 8 49.5600 0 662.300 0 130.6000 1949 WEST 9 32.0400 0 583.800 0 141.8000 1950 WEST 0 32.2400 0 635.200 0 136.7000 1951 WEST 1 54.3800 0 732.800 0 129.7000 1952 WEST 2 71.7800 0 864.100 0 145.5000 1953 WEST 3 90.0800 0 1193.50 0 174.8000 1954 WEST 4 68.6000 0 1188.90 0 213.5000 Notas: Y = I = investimento bruto = expansão de fábricas e equipamentos mais manutenção e reparos, em milhões de dólares deflacionados por P1 X2 = F = valor da empresa = preço das ações ordinárias e preferenciais em 31 de dezembro (ou preço médio de 13 de dezembro a 31 de dezembro do ano seguinte) vezes o número de ações ordinárias e preferenciais em circulação mais o valor contábil das dívidas em 31 de dezembro, em milhões de dólares, deflacionados por P2. X3 = C = estoque de fábricas e equipamentos = soma acumulada de adições líquidas ao valor das fábricas e equipamentos deflacionada por P1 menos a depreciação deflacionada por P3, nestas condições. P1 = deflator implícito dos bens duráveis de produção (1947 = 100) P2 = deflator implícito do PNB (1947 = 100/ P3 = deflator das despesas de depreciação = média ao longo de dez anos de preços no atacado de metais e produtos metálicos (1947 = 100) Fonte: reproduzido de Vinod H. D. e Ullah, Aman. Recent Advances in Regression Methods. Nova York: Marcel Dekker, 1981, p. 259-261. O primeiro cuidado a ser tomado é como montar o painel no Excel. Deve-se ordenar os dados de acordo com a série temporal para cada unidade de seção cruzada. Não esquecer de dar um número a cada unidade de seção cruzada, porque o Stata não reconhece o nome do país ou da empresa, por exemplo. Em princípio, podemos rodar 20 regressões de corte transversal, uma para cada ano, embora neste caso tivéssemos de nos preocupar com os graus de liberdade, pois, desta forma, para cada ano, temos apenas quatro observações sobre o regressando e os regressores. Se também incluirmos o intercepto, só poderemos estimar três parâmetros, deixando apenas um grau de liberdade. Obviamente, esta regressão não teria muito sentido. Combinando todas as 80 observações, podemos escrever a função de investimento de Grunfeld do seguinte modo �2� = 7� + 7���2� + 7 � 2� + �2� (16.2.1) i = 1, 2, 3, 4 t = 1, 2, ..., 20 em que i representa a i-ésima unidade de corte transversal e t o t-ésimo período de tempo. Por convenção, denotaremos os dados de corte transversal por i e identificaremos o tempo por t. Supomos aqui que há um máximo de N unidades de observação de corte transversal e T períodos de tempo. Se cada unidade de corte transversal tiver o mesmo número de observações de séries temporais, então um painel como o que acabamos de descrever é denominado de painel equilibrado. No presente exemplo, temos um painel equilibrado, pois cada empresa na amostra possui 20 observações. Se o número de observações diferir entre os participantes do painel, teremos um painel desequilibrado. 22 Trataremos, por hora, dos painéis equilibrados e assumimos, inicialmente, que os X são não estocásticos e que o termo de erro segue a premissa clássica, a saber, I(�2�)~q(0, 3�). Podemos estimar a equação (16.2.1) por três métodos diferentes: dados empilhados (pooled), segundo a abordagem dos efeitos fixos e segundo a abordagem dos efeitos aleatórios. 7.3 Estimação de modelos de regressão com dados em painel: a abordagem dos efeitos fixos A estimação de (16.2.1) depende das premissas que fazemos a respeito do intercepto, dos coeficientes angulares e do termo de erro, �2�. Há várias possibilidades: 1. O intercepto e os coeficientes angulares são constantes ao longo do tempo e no espaço e o termo de erro capta as diferenças ao longo do tempo e entre indivíduos. 2. Os coeficientes angulares são constantes, mas o intercepto varia entre os indivíduos. 3. Os coeficientes angulares são constantes, mas o intercepto varia entre indivíduos e ao longo do tempo. 4. Todos os coeficientes (o intercepto e os coeficientes angulares) variam entre indivíduos. 5. O intercepto e os coeficientes angulares variam entre indivíduos e ao longo do tempo. Cada um destes casos vai aumentando a complexidade (e talvez o realismo) da estimação de modelos de regressão com dados em painel, como (16.2.1). Naturalmente, a complexidade aumentará se formos aumentando o número de regressores, pois aumentará a possibilidade de colinearidade entre eles. A seguir, veremos alguns dos principais aspectos das várias possibilidades. 1. Todos os coeficientes são constantes ao longo do tempo e entre indivíduos (empilhamento de dados ou pooled) A maneira mais simples é desconsiderar as dimensões de tempo e espaço dos dados combinados e estimar a habitual regressão de MQO. Ou seja, empilhar as 20 observações de cada empresa, uma em cima da outra, com o que obtemos 80 observações para cada variável do modelo. Neste caso, o termo de erro representa as diferenças entre indivíduos e ao longo do tempo. Os resultados desta regressão são os seguintes: . edit (5 vars, 80 obs pasted into editor) . tsset empresa periodo panel variable: empresa (strongly balanced) time variable: periodo, 1935 to 1954 delta: 1 unit . reg y x2 x3 Source | SS df MS Number of obs = 80 -------------+------------------------------ F( 2, 77) = 119.63 Model | 4849457.37 2 2424728.69 Prob > F = 0.0000 Residual | 1560689.67 77 20268.697 R-squared = 0.7565 -------------+------------------------------ Adj R-squared = 0.7502 Total | 6410147.04 79 81141.1018 Root MSE = 142.37 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x2 | .1100955 .01372978.02 0.000 .0827563 .1374348 x3 | .3033932 .0492957 6.15 0.000 .2052328 .4015535 _cons | -63.30413 29.6142 -2.14 0.036 -122.2735 -4.334734 ------------------------------------------------------------------------------ 23 . fitstat Measures of Fit for regress of y Log-Lik Intercept Only: -565.170 Log-Lik Full Model: -508.660 D(77): 1017.319 LR(2): 113.020 Prob > LR: 0.000 R2: 0.757 Adjusted R2: 0.750 AIC: 12.791 AIC*n: 1023.319 BIC: 679.903 BIC': -104.256 Se examinarmos os dados da regressão com dados empilhados e aplicarmos os critérios convencionais, observamos que todos os coeficientes são individualmente significativos do ponto de vista estatístico, que os coeficientes angulares têm os sinais esperados – positivos – e um valor de R2 razoavelmente alto. Como esperado, Y se relaciona de modo positivo com X2 e X3. O único problema é que a estatística de Durbin-Watson é bastante baixa, sugerindo que talvez haja autocorrelação nos dados. Mas já sabemos que o a estatística calculada de Durbin-Watson pode ser baixa devido a erros de especificação. Por exemplo, o modelo estimado pressupõe que o valor do intercepto das empresas é o mesmo para as quatro empresas. Também pressupõe que os coeficientes angulares das duas variáveis X é idêntico para as quatro empresas. Portanto, apesar de sua simplicidade, a regressão combinada (16.2.1) pode distorcer a verdadeira imagem da relação entre Y e os X das quatro empresas. O que precisamos fazer é encontrar algum modo de levar em conta a natureza específica das quatro empresas, como mostramos em seguida. 2.a. Os coeficientes angulares são constantes, mas o intercepto varia entre os indivíduos: o modelo de regressão de efeitos fixos ou a variável binária de mínimos quadrados Uma forma de levar em conta a “individualidade” de cada empresa ou cada unidade do corte transversal é fazer variar o intercepto para cada empresa, considerando, entretanto, que os coeficientes angulares são constantes entre as empresas. Para ver isso, escrevemos o modelo (16.2.1) como �2� = 7�2 + 7���2� + 7 � 2� + �2� (16.3.2) Observemos que o subscrito i no termo de intercepto sugere que os interceptos das quatro empresas podem ser diferentes; as diferenças podem ser devidas a características especiais de cada empresa, como estilo ou filosofia gerenciais. O modelo (16.3.2) é conhecido como modelo de efeitos fixos. O termo efeitos fixos decorre do fato de que, embora o intercepto possa diferir entre os indivíduos (neste caso, as quatro empresas), cada intercepto individual não se altera ao longo do tempo, isto é, é invariante no tempo. Se fôssemos representar o intercepto como 7�2�, isso sugeriria que o intercepto de cada empresa ou indivíduo variaria no tempo. Pode-se verificar, ainda, que o modelo de efeitos fixos dado em (16.3.2) pressupõe que os coeficientes angulares dos regressores não variam entre indivíduos nem ao longo do tempo. Mas como é que permitimos que o intercepto (com efeito fixo) varie entre empresas? Podemos fazê-lo recorrendo à técnica das variáveis binárias vista no Cap. 9, 24 especialmente as variáveis binárias de intercepto diferencial. Portanto, escrevemos (16.3.2) como �2� = �� + ��r�2 + � r 2 + � r 2 + 7���2� + 7 � 2� + �2� (16.3.3) em que r�2 = 1 se a observação pertence à GM, e 0 nos demais casos; r 2 = 1 se a observação pertence à US, e 0 nos demais casos; e r 2 = 1 se pertence à West, e 0 nos demais casos. Como são quatro empresas, só empregamos três variáveis binárias para evitar cair na armadilha das variáveis binárias, isto é, uma situação de perfeita colinearidade. Neste caso, não há variável binária para a GE. Em outras palavras, �� representa o intercepto da GE e ��, � e � , os coeficientes diferenciais de intercepto, nos dizem de quanto os interceptos da GM, US e West diferem do intercepto da GE. Em resumo, a GE se torna a empresa de referência. Cabe mencionar que podemos escolher qualquer uma das empresas como a empresa de referência e, se desejamos valores explícitos para as variáveis de cada empresa, podemos introduzir quatro variáveis binárias desde que façamos a regressão que passa pela origem, isto é, sem o intercepto comum de (16.3.3), ��. Se não fizermos isso, cairemos na armadilha da variável binária. Como estamos empregando variáveis binárias para estimar efeitos fixos, o modelo também é conhecido como modelo de variáveis binárias de mínimos quadrados. Assim, as denominações efeitos fixos e variáveis binárias de mínimos quadrados podem ser usadas como sinônimos. Vale mencionar que o modelo de variáveis binárias de mínimos quadrados (16.3.3) também é conhecido como modelo de covariância e X2 e X3 são conhecidos como covariantes. Os resultados do cálculo de (16.3.3) são os seguintes: . gen D2 = 1 .replace D2 = 0 if empresa <=1 .replace D2 = 0 if empresa >= 3 . gen D3 = 1 . replace D3 =0 if empresa <=2 (40 real changes made) . replace D3 = 0 if empresa > 3 (20 real changes made) . gen D4 =1 . replace D4 = 0 if empresa <= 3 (60 real changes made) . reg y x2 x3 D2 D3 D4 (16.3.4) Source | SS df MS Number of obs = 80 -------------+------------------------------ F( 5, 74) = 211.37 Model | 5990684.14 5 1198136.83 Prob > F = 0.0000 Residual | 419462.898 74 5668.41754 R-squared = 0.9346 -------------+------------------------------ Adj R-squared = 0.9301 Total | 6410147.04 79 81141.1018 Root MSE = 75.289 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x2 | .1079481 .0175089 6.17 0.000 .0730608 .1428354 x3 | .3461617 .0266645 12.98 0.000 .2930315 .3992918 D2 | 161.5722 46.45639 3.48 0.001 69.00583 254.1386 D3 | 339.6328 23.98633 14.16 0.000 291.839 387.4266 D4 | 186.5665 31.50681 5.92 0.000 123.7879 249.3452 _cons | -245.7924 35.81112 -6.86 0.000 -317.1476 -174.4371 ------------------------------------------------------------------------------ 25 Os resultados da regressão (16.3.3) mostram que todos os coeficientes estimados são altamente significativos do ponto de vista individual, já que os valores p dos coeficientes t estimados são extremamente baixos. Os valores do intercepto para as quatro empresas são estatisticamente diferentes, com os valores de -245,7924 para GE (que é o grupo de controle); -84,220 (= -245,7924+161,5722) para a GM; 93,8774 (= - 245,7924+339,6328) para a US; e -59,2258 (= -245,7924+186,5666) para a West. Essas diferenças no intercepto podem ser devidas a características únicas de cada empresa, como diferença no estilo gerencial ou no talento dos gestores. Podemos estimar esta mesma regressão diretamente por efeitos fixos no Stata, da seguinte forma: Inicialmente, indicar variável de seção cruzada e variável de série temporal: iis [nome da variável] → utiliza-se este comando para a variável de seção cruzada tis [nome da variável] → utiliza-se estecomando para a variável de série temporal ou por meio do comando: tsset [nome da variável de corte transversal nome da variável de série temporal] Neste caso, o efeito fixo será rodado para a variável de corte transversal (que vem primeiro na ordem). Para rodar o efeito fixo para a variável de série temporal, deve-se colocar em primeiro lugar a variável de série temporal, ao setar o painel. . iis empresa . tis period . xtreg y x2 x3, fe Fixed-effects (within) regression Number of obs = 80 Group variable: empresa Number of groups = 4 R-sq: within = 0.8068 Obs per group: min = 20 between = 0.7304 avg = 20.0 overall = 0.7554 max = 20 F(2,74) = 154.53 corr(u_i, Xb) = -0.1001 Prob > F = 0.0000 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x2 | .1079481 .0175089 6.17 0.000 .0730608 .1428354 x3 | .3461617 .0266645 12.98 0.000 .2930315 .3992918 _cons | -73.84946 37.52291 -1.97 0.053 -148.6155 .9165759 -------------+---------------------------------------------------------------- sigma_u | 139.05116 sigma_e | 75.288894 rho | .77329633 (fraction of variance due to u_i) ------------------------------------------------------------------------------ F test that all u_i=0: F(3, 74) = 67.11 Prob > F = 0.0000 . predict fecross, u . list fecross +-----------+ | fecross | |-----------| 1. | -171.9429 | 2. | -171.9429 | 3. | -171.9429 | 4. | -171.9429 | 5. | -171.9429 | |-----------| 6. | -171.9429 | 7. | -171.9429 | 8. | -171.9429 | 9. | -171.9429 | 10. | -171.9429 | |-----------| 11. | -171.9429 | 12. | -171.9429 | 13. | -171.9429 | 14. | -171.9429 | 15. | -171.9429 | |-----------| 16. | -171.9429 | 17. | -171.9429 | 18. | -171.9429 | 19. | -171.9429 | 20. | -171.9429 | |-----------| 21. | -10.37068 | 22. | -10.37068 | 23. | -10.37068 | 24. | -10.37068 | 25. | -10.37068 | |-----------| 26. | -10.37068 | 27. | -10.37068 | 28. | -10.37068 | 29. | -10.37068 | 30. | -10.37068 | |-----------| 31. | -10.37068 | 32. | -10.37068 | 33. | -10.37068 | 34. | -10.37068 | 35. | -10.37068 | |-----------| 36. | -10.37068 | 37. | -10.37068 | 38. | -10.37068 | 39. | -10.37068 | 40. | -10.37068 | |-----------| 41. | 167.6899 | 42. | 167.6899 | 43. | 167.6899 | 44. | 167.6899 | 45. | 167.6899 | |-----------| 46. | 167.6899 | 47. | 167.6899 | 48. | 167.6899 | 49. | 167.6899 | 50. | 167.6899 | |-----------| 26 51. | 167.6899 | 52. | 167.6899 | 53. | 167.6899 | 54. | 167.6899 | 55. | 167.6899 | |-----------| 56. | 167.6899 | 57. | 167.6899 | 58. | 167.6899 | 59. | 167.6899 | 60. | 167.6899 | |-----------| 61. | 14.62365 | 62. | 14.62365 | 63. | 14.62365 | 64. | 14.62365 | 65. | 14.62365 | |-----------| 66. | 14.62365 | 67. | 14.62365 | 68. | 14.62365 | 69. | 14.62365 | 70. | 14.62365 | |-----------| 71. | 14.62365 | 72. | 14.62365 | 73. | 14.62365 | 74. | 14.62365 | 75. | 14.62365 | |-----------| 76. | 14.62365 | 77. | 14.62365 | 78. | 14.62365 | 79. | 14.62365 | 80. | 14.62365 | +-----------+ Verifica-se, portanto, que criar três dummies para ver qual o intercepto de cada empresa é o mesmo que regredir por efeitos fixos e somar o valor da constante gerada (-73,84946, neste caso) ao valor do termo de erro gerado para cada empresa e que, na verdade, pertence ao intercepto. Ou seja, para a empresa GE, temos o intercepto de - 73,84946 -171,9429 = -245,7923; para a empresa GM, temos o intercepto de -73,84946 -10,37068 = -84,22014; para a empresa US, o intercepto é -73,84946 +167,6899 = 93,8404; e, finalmente, para a empresa West, o intercepto é -73,84946 +14,62365 = - 59,22581. Estes resultados mostram que a empresa US é a mais agressiva em relação às demais no que se refere ao investimento bruto que independe de outras variáveis. 2.b. Os coeficientes angulares são constantes, mas o intercepto varia ao longo do tempo: o modelo de regressão de efeitos fixos ou a variável binária de mínimos quadrados Assim como empregamos as variáveis binárias para dar conta do efeito individual (da empresa), podemos levar em consideração o efeito do tempo, no sentido de que a função de investimento de Grunfeld se desloca ao longo do tempo por causa de fatores como mudanças tecnológicas, alterações nas normas e/ou políticas fiscais e efeitos externos decorrentes de guerras e outros conflitos. Esses efeitos temporais podem ser facilmente levados em conta se introduzirmos variáveis binárias de tempo, uma para cada ano. Já que temos os dados para os 20 anos, que vão de 1935 a 1954, podemos introduzir 19 variáveis binárias temporais (pois se incluirmos as 20 variáveis binárias, devemos fazer a regressão sem constante para não cair na armadilha das variáveis binárias, gerando multicolinearidade perfeita) e reescrever o modelo (16.3.3) como �2� = =� + =�r J + = r K + ⋯ + =�srJ + 7���2� + 7 � 2� + �2� (16.3.6) em que r J assume o valor 1 para a observação relativa ao ano de 1935 e 0 para os demais anos e assim por diante. Estamos tratando o ano de 1954 como o ano base, cujo valor do intercepto é dado por =�. Os resultados da regressão embasada em (16.3.6) são: . gen D35 = 1 . replace D35 = 0 if periodo >= 1936 (76 real changes made) e, assim, sucessivamente até 1953. . reg y D35 D36 D37 D38 D39 D40 D41 D42 D43 D44 D45 D46 D47 D48 D49 D50 D51 D52 D53 x2 x3 Source | SS df MS Number of obs = 80 -------------+------------------------------ F( 21, 58) = 9.27 Model | 4938658.06 21 235174.193 Prob > F = 0.0000 Residual | 1471488.98 58 25370.4997 R-squared = 0.7704 -------------+------------------------------ Adj R-squared = 0.6873 Total | 6410147.04 79 81141.1018 Root MSE = 159.28 ------------------------------------------------------------------------------ 27 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- D35 | 21.02495 129.7675 0.16 0.872 -238.7329 280.7828 D36 | -14.03424 133.1953 -0.11 0.916 -280.6535 252.5851 D37 | -58.41449 135.1823 -0.43 0.667 -329.0113 212.1823 D38 | -48.66584 126.5326 -0.38 0.702 -301.9483 204.6167 D39 | -96.80262 128.0009 -0.76 0.453 -353.0243 159.4191 D40 | -36.10807 129.116 -0.28 0.781 -294.5618 222.3457 D41 | 21.16647 127.7266 0.17 0.869 -234.5062 276.8391 D42 | 30.29937 124.1757 0.24 0.808 -218.2653 278.864 D43 | -12.76907 124.8506 -0.10 0.919 -262.6847 237.1466 D44 | -17.82782 125.6498 -0.14 0.888 -269.3431 233.6875 D45 | -38.96994 126.769-0.31 0.760 -292.7257 214.7858 D46 | 26.90836 125.7493 0.21 0.831 -224.8062 278.623 D47 | 27.81252 119.3515 0.23 0.817 -211.0954 266.7204 D48 | 26.05879 117.3271 0.22 0.825 -208.7969 260.9145 D49 | -28.65514 116.2965 -0.25 0.806 -261.4479 204.1376 D50 | -20.3938 115.8973 -0.18 0.861 -252.3874 211.5998 D51 | .9819593 116.2576 0.01 0.993 -231.733 233.6969 D52 | 21.96068 114.6821 0.19 0.849 -207.6005 251.5219 D53 | 39.43192 113.441 0.35 0.729 -187.6448 266.5087 x2 | .1159174 .01817 6.38 0.000 .0795462 .1522886 x3 | .2696593 .0833411 3.24 0.002 .1028339 .4364847 _cons | -56.33982 99.75287 -0.56 0.574 -256.0169 143.3373 ------------------------------------------------------------------------------ Verifica-se que nenhuma das variáveis binárias de tempo foi estatisticamente significativa individualmente. O valor de R2 de (16.3.6) foi de 0,7704, enquanto o de (16.3.1) foi de 0,7565, um aumento de apenas 0,0139. Com base no teste F restrito, verifica-se que esse incremento não é estatisticamente significativo, o que sugere que o efeito tempo não é significativo. Isso pode sugerir que a função investimento não muda muito ao longo do tempo. Teste F restrito H0: modelo restrito (16.3.1) H1: modelo irrestrito (16.3.6) No caso de variáveis dependentes diferentes nos dois modelos, utilizamos a estatística de teste # = (>?�t − >?�ut)/(� − 1)>?�ut/(�X − � − �) em que >?�t = soma de quadrados dos resíduos do modelo restrito >?�ut = soma de quadrados do modelo irrestrito n é o número de unidades de corte transversal t é o número de períodos de tempo k representa o número de variáveis explicativas, excluindo a constante. Se Fcalc > Fcrit, rejeita-se H0. No caso em que a variável dependente dos modelos restrito e irrestrito seja a mesma, o teste F pode tomar a seguinte forma, já que, neste caso, podemos comparar o coeficiente de determinação dos dois modelos # = (�ut� − �t�)/_(1 − �ut� )/(� − �) Cabe observar que �ut� > �t�, pois o coeficiente de determinação nunca diminui quando se acrescentam variáveis e, conseqüentemente, >?�t ≥ >?�ut . Neste caso das quatro empresas norte-americanas, em que a variável dependente é a mesma, temos que # = (�ut� − �t�)/_(1 − �ut� )/(� − �) = (0,7704 − 0,7565)/3(1 − 0,7704)/(80 − 6) = 0,0139/30,2296/74 = 0,00463330,0031027= 1,4933 28 # ,| ;J% = 2,76 Como Fcalc < Fcrit, não rejeita-se H0. Portanto, o modelo restrito é o verdadeiro modelo e o modelo irrestrito não é adequado, sugerindo que o efeito tempo não é significativo sobre os investimentos das empresas consideradas na amostra. Ainda, podemos fazer a regressão diretamente no Stata, modificando a ordem das variáveis de corte transversal e de série temporal, para que o Stata reconheça que ele deve calcular o efeito fixo na variável de tempo. Assim, deve-se setar iss para a variável de tempo e tis para a variável cross-section. Abaixo, seguem os resultados. . iis periodo . tis empresa . xtreg y x2 x3, fe Fixed-effects (within) regression Number of obs = 80 Group variable: periodo Number of groups = 20 R-sq: within = 0.7273 Obs per group: min = 4 between = 0.9080 avg = 4.0 overall = 0.7552 max = 4 F(2,58) = 77.36 corr(u_i, Xb) = 0.0966 Prob > F = 0.0000 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x2 | .1159174 .01817 6.38 0.000 .0795462 .1522886 x3 | .2696593 .0833411 3.24 0.002 .1028339 .4364847 _cons | -64.18962 34.16507 -1.88 0.065 -132.5784 4.199206 -------------+---------------------------------------------------------------- sigma_u | 36.040313 sigma_e | 159.2812 rho | .04870391 (fraction of variance due to u_i) ------------------------------------------------------------------------------ F test that all u_i=0: F(19, 58) = 0.19 Prob > F = 0.9999 . predict fetime, u (4 missing values generated) . list fetime +-----------+ | fetime | |-----------| 1. | 28.87476 | 2. | -6.184439 | 3. | -50.56469 | 4. | -40.81604 | 5. | -88.95282 | |-----------| 6. | -28.25827 | 7. | 29.01627 | 8. | 38.14917 | 9. | -4.919267 | 10. | -9.978021 | |-----------| 11. | -31.12014 | 12. | 34.75816 | 13. | 35.66232 | 14. | 33.90859 | 15. | -20.80534 | |-----------| 16. | -12.544 | 17. | 8.831759 | 18. | 29.81048 | 19. | 47.28172 | 20. | 7.849801 | |-----------| 21. | 28.87476 | 22. | -6.184439 | 23. | -50.56469 | 24. | -40.81604 | 25. | -88.95282 | |-----------| 26. | -28.25827 | 27. | 29.01627 | 28. | 38.14917 | 29. | -4.919267 | 30. | -9.978021 | |-----------| 31. | -31.12014 | 32. | 34.75816 | 33. | 35.66232 | 34. | 33.90859 | 35. | -20.80534 | |-----------| 36. | -12.544 | 37. | 8.831759 | 38. | 29.81048 | 39. | 47.28172 | 40. | 7.849801 | |-----------| 41. | 28.87476 | 42. | -6.184439 | 43. | -50.56469 | 44. | -40.81604 | 45. | -88.95282 | |-----------| 46. | -28.25827 | 47. | 29.01627 | 48. | 38.14917 | 49. | -4.919267 | 50. | -9.978021 | |-----------| 51. | -31.12014 | 52. | 34.75816 | 53. | 35.66232 | 54. | 33.90859 | 55. | -20.80534 | |-----------| 56. | -12.544 | 57. | 8.831759 | 58. | 29.81048 | 59. | 47.28172 | 60. | 7.849801 | |-----------| 61. | 28.87476 | 62. | -6.184439 | 63. | -50.56469 | 64. | -40.81604 | 65. | -88.95282 | |-----------| 66. | -28.25827 | 67. | 29.01627 | 68. | 38.14917 | 69. | -4.919267 | 70. | -9.978021 | |-----------| 71. | -31.12014 | 72. | 34.75816 | 73. | 35.66232 | 74. | 33.90859 | 75. | -20.80534 | |-----------| 76. | -12.544 | 77. | 8.831759 | 78. | 29.81048 | 79. | 47.28172 | 80. | 7.849801 | |-----------| 29 Assim, para calcularmos o intercepto para cada ano, podemos proceder de duas formas: 1. se criamos as 19 dummies, somamos a constante a cada um dos coeficientes da dummy de cada ano, ou seja, para 1935, temos -56,33982 +21,02495 = -35,31487; para 1936, o intercepto é -56,33982 -14,03424 = 70,37406; e assim sucessivamente para todos os anos da série; ou, 2. a partir do modelo rodado por efeitos fixos na variável de tempo, somamos a constante a cada um dos fetime gerado para cada ano (os fetime são, na verdade, o valor do coeficiente da dummy que seria gerado se rodássemos por MQVD) . Assim, para 1935, o intercepto é -64,18962 +28,87476 = -35,31486; para 1936, o intercepto é -64,18962 -6,184439 = 70,374059, e assim sucessivamente para todos os anos da série. Observemos que tanto por meio da criação de dummies como regredindo por efeitos fixos na variável de tempo, os resultados são os mesmos, como é de se esperar. 3. Os coeficientes angulares são constantes, mas o intercepto varia com os indivíduos e com o tempo
Compartilhar