Buscar

Apostila Econometria

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 74 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 74 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 74 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UNIVERSIDADE FEDERAL DE VIÇOSA 
DEPARTAMENTO DE ECONOMIA RURAL 
PROGRAMA DE PÓS-GRADUAÇÃO EM ECONOMIA APLICADA 
 
 
 
 
 
 
 
 
 
 
 
 
APOSTILA DE ECONOMETRIA BÁSICA 
USANDO STATA 
 
 
 
 
 
Edson Melo 
Fernanda Schwantes 
Gláucia de Almeida Padrão 
Ricardo de Oliveira Gaspar 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
VIÇOSA, MG, 2010 
 
 
NOTAS SOBRE OS ORGANIZADORES 
 
EDSON MELO 
Economista pela Universidade Federal de Viçosa (UFV), Especialista em 
Economia Empresarial pela PUC-MG, Mestrando em Economia Aplicada da 
Universidade Federal de Viçosa (UFV), Bolsista de Mestrado da CAPES. E-mail: 
edson.melo@ufv.br 
 
FERNANDA SCHWANTES 
Economista pela Universidade Federal de Santa Maria (UFSM), Mestranda em 
Economia Aplicada da Universidade Federal de Viçosa (UFV), Bolsista de Mestrado da 
FAPEMIG. E-mail: fe.schwantes@gmail.com 
 
GLÁUCIA DE ALMEIDA PADRÃO 
Economista pelo Centro Universitário de Sete Lagoas (UNIFEMM), Mestranda 
em Economia Aplicada da Universidade Federal de Viçosa (UFV), Bolsista de 
Mestrado da CAPES. E-mail: glaupadrao@gmail.com 
 
RICARDO DE OLIVEIRA GASPAR 
Engenheiro Florestal e Mestre em Ciência Florestal pela Universidade Federal 
de Viçosa (UFV), Doutorando em Ciência Florestal da Universidade Federal de Viçosa 
(UFV), Bolsista de Doutorado do CNPq. E-mail: ricogaspar.floresta@gmail.com 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
APRESENTAÇÃO 
 
Este material foi desenvolvido em paralelo ao curso de ERU 626 – Econometria 
I, do Programa de Pós-Graduação em Economia Aplicada da Universidade Federal de 
Viçosa (UFV). De conhecimento do professor Clailton, foi-nos apresentada a proposta 
de organizá-lo no formato de apostila, com o objetivo de auxiliar os alunos do curso de 
graduação em Ciências Econômicas da Universidade Federal de Santa Maria e outros 
interessados no uso dos comandos básicos do software Stata. 
Não é nossa pretensão, de forma alguma, fornecer um manual de utilização do 
software. Cabe ressaltar que a grande parte dos comandos nos foi repassada pelos 
monitores da disciplina e que os comentários adicionais são de nossa responsabilidade, 
com base nos livros recomendados no curso de ERU 626. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Sumário 
1 COMANDOS BÁSICOS .............................................................................................. 5 
2 TESTE DE MACKINNAN, WHITE E DAVIDSON (MWD) ..................................... 6 
3 TESTE DE NORMALIDADE DOS RESÍDUOS ........................................................ 6 
4 DIAGNÓSTICO SOBRE MULTICOLINEARIDADE ................................................ 7 
5 DIAGNÓSTICO SOBRE HETEROCEDASTICIDADE ............................................. 8 
5.1 Métodos informais de diagnóstico de heterocedasticidade ..................................... 9 
5.2 Métodos formais de diagnóstico de heterocedasticidade ........................................ 9 
5.2.1 Teste de Park .................................................................................................... 9 
5.2.2 Teste de Glejser .............................................................................................. 10 
5.2.3 Teste de Goldfeld-Quandt .............................................................................. 11 
5.2.4 Teste Breusch-Pagan-Godfrey ....................................................................... 12 
5.2.5 Teste de White ................................................................................................ 13 
5.3 Providências corretivas para HETEROCEDASTICIDADE ................................ 13 
6 DIAGNÓSTICO DA AUTOCORRELAÇÃO ............................................................ 15 
6.1 Método gráfico – plotagem sequencial no tempo ................................................. 15 
6.2 Teste de Durbin-Watson ....................................................................................... 15 
6.3 Teste de Breush-Godfrey ...................................................................................... 16 
7 MODELOS DE REGRESSÃO COM DADOS EM PAINEL .................................... 18 
7.1 Vantagens da utilização de dados em painel ........................................................ 18 
7.2 Dados em Painel: um exemplo numérico ............................................................. 19 
7.3 Estimação de modelos de regressão com dados em painel: a abordagem dos 
efeitos fixos ................................................................................................................. 22 
7.4 Estimação de modelos de regressão com dados em painel: a abordagem dos 
efeitos aleatórios ......................................................................................................... 32 
7.5 Qual o melhor modelo: pooled, efeitos fixos ou efeitos aleatórios? ..................... 34 
7.5.1 Teste de Chow ................................................................................................ 34 
7.5.2 Teste de Hausman .......................................................................................... 36 
7.5.3 Teste LM de Breusch-Pagan .......................................................................... 37 
7.6 Identificação e correção de autocorrelação e heterocedasticidade em painel ....... 37 
7.6.1 Autocorrelação ............................................................................................... 37 
7.6.2 Teste de Wald para heterocedasticidade em grupo ........................................ 38 
7.7 Procedimentos corretivos para autocorrelação e heterocedasticidade em painel . 39 
8 MODELOS DE ESCOLHA QUALITATIVA ............................................................ 39 
 
 
8.1 Modelos de probabilidade linear: um exemplo numérico..................................... 39 
8.2 Modelos logit e probit com dados agrupados ou replicados: um exemplo numérico
 .................................................................................................................................... 43 
8.2.1 Modelo LOGIT .............................................................................................. 43 
8.2.2 Modelo PROBIT ............................................................................................ 48 
8.3 Modelos logit e probit com dados individuais: um exemplo numérico ................ 50 
8.3.1 Modelo Logit .................................................................................................. 50 
9 MODELOS ECONOMÉTRICOS DINÂMICOS: MODELOS 
AUTORREGRESSIVOS E COM DEFASAGENS DISTRIBUÍDAS .......................... 53 
9.1 Estimação ad hoc de modelos de defasagens distribuídas .................................... 53 
9.2 Modelo de Koyck .................................................................................................. 54 
9.2.1 Defasagem Mediana ....................................................................................... 54 
9.2.2 Defasagem Média ........................................................................................... 54 
9.3 Teste de Breusch Goodfrey ................................................................................... 54 
9.4 Ajustamento parcial ou ajustamento de estoques (Nerlove) ................................. 54 
9.5 Expectativas adaptativas: ...................................................................................... 55 
10 MODELOS DE EQUAÇÕES SIMULTÂNEAS ...................................................... 63 
10.1 MÍNIMOS QUADRADOS DE 2 ESTÁGIOS ...................................................63 
10.1.1 Primeira Forma:............................................................................................ 64 
10.1.2 Segunda Forma de Regredir por MQ2E: ..................................................... 64 
10.2 MINIMOS QUADRADOS EM TRÊS ESTÁGIOS .......................................... 65 
11 SÉRIES TEMPORAIS NO EVIEWS ....................................................................... 65 
11.1 Análise Gráfica ................................................................................................... 66 
11.2 Correlograma ...................................................................................................... 66 
11.3 Teste de Raiz Unitária ......................................................................................... 67 
11.4 Teste de Granger ................................................................................................. 67 
11.5 Teste Para Verificar Co-Integração .................................................................... 67 
11.5.1 Teste de Engle Granger ................................................................................ 67 
11.6 MODELOS ARIMA ........................................................................................... 67 
11.7 PREVISÃO ......................................................................................................... 68 
11.8 MODELO VAR .................................................................................................. 68 
11.9 MODELOS ARCH ............................................................................................. 69 
11.10 SÉRIES TEPORAIS NO STATA .................................................................... 69 
 
5 
 
1 COMANDOS BÁSICOS 
 
1.1 Para trocar vírgula por ponto no Excel, Office 2007, clique no Botão Office (canto 
superior esquerdo), Opções do Excel, Avançado: 
Separador decimal: . (ponto) 
Separador de milhar: , (vírgula) 
 
1.2 Para aumentar a memória do Stata: 
set mem 1m 
 
1.3 Para entrar com os dados no Stata, copiar (Ctrl C) do arquivo em Excel ou Bloco de 
notas e digitar no command do Stata edit 
Abrirá o Data editor, Ctrl V. Todas as variáveis devem ficar em preto. Se alguma tiver 
em vermelho, há erro. 
 
1.4 Para mostrar estatísticas descritivas das variáveis: 
summarize ou sum e digitar o nome das variáveis 
 
1.5 Para retirar (deletar) dados: 
drop if X=-1, (por exemplo) 
ou keep if X~=., (por exemplo) 
 
1.6 Para fazer uma regressão: reg ou regress e adicionar as variáveis. A variável 
dependente sempre é a primeira a ser colocada após o reg. 
 
1.7 Para obter os valores estimados de Y: 
predict Yest (gera no data editor os valores estimados da variável dependente) 
 
1.8 Matriz var-cov: 
vce 
 
1.9 Para criar tendência no Stata: 
gen trend = _n (começa em 1) 
gen trend = _n-1 (começa em zero) 
 
1.10 Para informar ao Stata que é uma série temporal, no command: 
 
1.10.1 ANUAL 
gen timevar = y(1959)+_n-1 
format timevar %ty 
tsset timevar 
 
1.10.2 TRIMESTRAL 
gen timevar = q(1973q2) +_n-1 
format timevar %tq 
tsset timevar 
 
1.10.3 MENSAL 
gen timevar = m(2005m7)+_n-1 
format timevar %tm 
6 
 
tsset timevar 
 
1.10.4 SEMANAL 
gen timevar = w(1981w1)+_n-1 
format timevar %tw 
tsset timevar 
 
2 TESTE DE MACKINNAN, WHITE E DAVIDSON (MWD) 
 
H0: modelo linear 
H1: modelo log-linear 
1. Estime o modelo linear e obtenha os valores estimados de Y (rodar o modelo e 
predict Ychapéu). 
2. Estime o modelo log-log e obtenha os valores estimados de lnY (rodar o modelo 
log-log e predict lnYchapéu). 
3. Calcule Z1 como sendo ln(Ychapeu) – lnYchapeu. 
4. Regrida o modelo linear dado em (1), acrescentando a variável Z1, ou seja, Yt contra 
as variáveis explicativas utilizadas em (1) e a variável Z1: �� = �� + ����� + �	�	� + �
�� + �� 
e teste se �
=0 pelo teste t. 
Se 
� for estatisticamente significativo, rejeita-se H0, ou seja, rejeita-se o 
modelo linear. Assim, o modelo log-log é o melhor modelo. 
Em seguida, testa-se: 
H0: modelo log-log 
H1: modelo linear 
5. Calcule Z2 = (antilog de lnYchapeu) – Ychapeu. 
6.Regrida ���� = �� + ������� + �	���	� + �
�� + �� e teste se �
= 0 pelo teste t. 
 
3 TESTE DE NORMALIDADE DOS RESÍDUOS 
 
3.1 Para obter os resíduos: 
predict resíduos, residuals 
histogram resíduos, discrete normal 
gen erro = resíduos^2 
Histograma dos resíduos – trata-se de um dispositivo gráfico que é usado para 
conhecer algo da forma da função de densidade de probabilidade de uma variável 
aleatória. No eixo horizontal, dividimos os valores da variável em exame (no caso, os 
resíduos de MQO) em intervalos adequados e, em cada intervalo de classe, traçamos 
retângulos cuja altura é dada pelo número de observações (isto é, sua frequência) nesse 
intervalo de classe. Sobrepondo mentalmente a curva em forma de sino da distribuição 
normal ao histograma, teremos a ideia de se a aproximação normal (FDP) é adequada. 
Teste de Jarque Bera – é um teste assintótico ou de grandes amostras. Também parte 
dos resíduos de MQO. Esse teste calcula, primeiro, a assimetria e a curtose dos resíduos 
e emprega o seguinte teste estatístico: 
�� = � ���6 + (� − 3)
�
24 � 
onde n = tamanho da amostra; s = coeficiente de assimetria e k = coeficiente de curtose. 
Para uma variável normalmente distribuída, s = 0 e k = 3. Portanto, o teste JB de 
normalidade é um teste de hipótese conjunta de que s e k são iguais a 0 e 3, 
respectivamente. Nesse caso, espera-se que o valor da estatística JB seja igual a 0. 
7 
 
Sob a hipótese nula de que os resíduos são normalmente distribuídos, Jarque e 
Bera demonstraram que, assintoticamente (isto é, em grandes amostras), a estatística JB 
segue a distribuição de qui-quadrado com 2 graus de liberdade. Se o valor p calculado 
para a estatística JB em uma aplicação for suficientemente pequeno, o que 
acontece se o valor da estatística for muito diferente de zero, podemos rejeitar a 
hipótese de que a distribuição dos resíduos é normal. Mas se o valor p for 
razoavelmente alto, o que acontece quando o valor da estatística está próximo de 
zero, não rejeitamos a premissa de normalidade. Quanto mais próximo de zero 
estiver a estatística calculada de JB, não rejeita-se a hipótese nula de normalidade 
dos resíduos. Se os resíduos estão normalmente distribuídos, eles seguem a 
distribuição normal com média zero e variância constante σ2. 
O valor p é o menor nível de significância ao qual se rejeita a hipótese nula: H0: 
resíduos se distribuem normalmente. Se o valor p for elevado, não rejeita-se a hipótese 
nula. Assim, os resíduos são normalmente distribuídos. (Exemplo: valor p de JB = 
0,756009 – somente em nível de significância de 75% é que se rejeita H0, portanto, não 
se rejeita H0). 
O teste de Jarque Bera deve ser instalado no Stata, de acordo com o seguinte 
comando: 
ssc des jb 
ssc install jb 
Regredir uma regressão e obter os resíduos: predict [nome da variável resíduos], 
residuals 
Para fazer o teste JB, digitar em command: jb [nome da variável resíduos] 
 
4 DIAGNÓSTICO SOBRE MULTICOLINEARIDADE 
 
4.1 Fazendo a regressão inicial com todas as variáveis, se o R2 for substancialmente alto 
e um ou mais coeficientes parciais angulares forem individualmente insignificantes do 
ponto de vista estatístico de acordo com o teste t, há indícios de multicolinearidade. Em 
geral, se R2 for elevado, digamos, superior a 0,8, o teste F deve ser significativo, 
rejeitando a hipótese de que todos os coeficientes parciais angulares são 
simultaneamente iguais a zero. 
reg y x2 x3 x4 
 
4.2 Altas correlações simples entre pares de regressores. Se os coeficientes de 
correlação entre dois regressores forem altos, digamos, maiores que 0,8, então, a 
multicolinearidade será um problema sério. O problema deste critério é que,embora 
altas correlações simples ou de ordem zero possam sugerir colinearidade, não é 
necessário que elas sejam altas para que exista colinearidade em qualquer caso 
específico. Tecnicamente, coeficientes de correlação simples elevados são uma 
condição suficiente, mas não necessária, para a existência de multicolinearidade porque 
ela pode existir mesmo que as correlações de ordem zero ou simples sejam 
comparativamente baixas (digamos, de menos de 0,5). 
corr x2 x3 x4 
 
4.3 Correlações parciais. Na regressão de Y contra X2, X3 e X4, um resultado em que ��,�	
� é muito elevado mas !��,	
� ; !�	,�
� ; !�
,�	� são comparativamente baixos pode 
sugerir que as variáveis X2, X3 e X4 são estreitamente intercorrelacionadas e que pelo 
menos uma dessas é supérflua. Este método não oferece uma orientação infalível contra 
8 
 
a multicolinearidade, pois pode acontecer que tanto R2 quanto as correlações parciais 
sejam suficientemente altas. 
pcorr X2 X3 X4 X5 X6 (Deve-se ir mudando a ordem das variáveis para poder 
interpretar, por exemplo, correlação entre x2 e x3 mantendo x4, x5 e x6 constante; 
depois correlação de x3 com x4, mantendo x2, x5 e x6 constante, e assim por 
diante). 
 
4.4 Regressões auxiliares. Adotando-se a regra prática de Klien, se pelo menos um R2 
de uma das regressões auxiliares for maior que o R2 da regressão principal, a 
multicolinearidade é um problema sério neste modelo. 
Regredir X2 contra todos os outros X’s. 
Regredir X3 contra todos os outros X’s, e assim por diante, dependendo do 
número de variáveis explicativas do modelo. 
 
4.5. Tolerância e fator de inflação da variância. 
#$% = 11 − �'� 
()*' = 1#$%' = (1 − �'�) 
À medida que �'�, o coeficiente de determinação da regressão do regressor Xj 
contra os regressores restantes do modelo, aumenta no sentido da unidade, isto é, à 
medida que a colinearidade de Xj com os demais regressores aumenta, o FIV também 
aumenta e, no limite, pode ser infinito. Quanto maior o valor de FIVj, tanto mais 
“problemática” ou colinear é a variável Xj. Como regra prática, se o FIV de uma 
variável for maior que 10, o que acontece quando ,-. é maior que 0,9, diz-se que 
esta variável é altamente colinear. Quanto mais próxima de zero estiver a TOLj, 
maior o grau de colinearidade dessa variável com os demais regressores. Por outro 
lado, quanto mais próxima a TOLj estiver de 1, maior a evidência de que não há 
colinearidade desta variável com os demais regressores. 
Este método não está livre de críticas, já que a variância dos parâmetros da 
regressão dependem de três fatores σ2, ∑ 0'�e FIVj. Um FIV elevado pode ser 
contrabalançado por um σ2 baixo ou por um alto ∑ 0'�. Portanto, um FIV elevado não é 
nem necessário nem suficiente para obter altas variâncias e altos erros-padrão. 
No Stata, command vif logo após a regressão rodada para a qual se deseja verificar o 
FIV e a TOL. 
 
5 DIAGNÓSTICO SOBRE HETEROCEDASTICIDADE 
 
H0: homocedasticidade 
H1: heterocedasticidade 
O problema da heterocedasticidade é que as estimativas de MQO, apesar de não 
tendenciosos e consistentes, deixam de ter variância mínima (deixam de ser eficientes). 
Como o que desejamos é não rejeitar H0, em todos os problemas como 
multicolinearidade, heterocedasticidade, autocorrelação e normalidade dos resíduos, 
quanto maior for o valor p (ou a probabilidade), melhor, pois neste caso, a estatística 
calculada é estatisticamente não significativa e, portanto, não rejeita-se a hipótese nula. 
Se testarmos a estatística calculada, devemos estabelecer um nível de significância 
elevado inicialmente (10%), pois quanto maior o nível de significância, menor a 
estatística crítica. Se t calc < t crít, não rejeita-se H0. Assim, para dar mais rigor ao 
9 
 
teste, temos que escolher um t crítico bem pequeno, que só é possível com um nível de 
significância elevado. É por isso que este teste é o inverso do teste t de significância 
individual dos parâmetros, no sentido da escolha do nível de significância. Enquanto no 
primeiro se inicia com um nível de significância elevado, para se obter um t crítico 
pequeno, neste último caso do teste de significância dos parâmetros individuais se inicia 
com um nível de significância baixo, para obter um t crítico elevado, pois se deseja 
rejeitar a hipótese nula. 
 
5.1 Métodos informais de diagnóstico de heterocedasticidade 
 
Cabe destacar, inicialmente, dois métodos informais para detectar 
heterocedasticidade. Primeiramente, espera-se que em dados de corte transversal, que 
envolvam unidades heterogêneas, a heterocedasticidade deve ser mais a regra do que a 
exceção. Outro método informal sustenta que se não existem informações a priori ou 
empíricas sobre a natureza da heterocedasticidade, na prática, podemos fazer a análise 
de regressão supondo que não há heterocedasticidade (regredir normalmente Y contra 
os X’s) e depois fazer um exame dos resíduos elevados ao quadrado para verificar se 
eles apresentam algum padrão sistemático. Plotando os resíduos estimados ao quadrado 
contra a variável dependente estimada (�12), por meio do comando: 
 
* Estimando o modelo e obtendo os resíduos 
regress y x2-x6 
predict resid, residuals 
 
* Gerando o quadrado dos resíduos 
gen resid_quad=resid^2 
 
* Fazendo o plot dos resíduos contra a variável dependente ou contra as 
explicativas: 
twoway (scatter resid_quad Yest) 
 
pode-se verificar se o valor médio estimado de Y se relaciona sistematicamente com os 
resíduos elevados ao quadrado. Se os resíduos se distribuem em torno de uma média no 
gráfico, diz-se que o modelo é homocedástico; se há um padrão sistemático entre as 
duas variáveis (resíduos elevados ao quadrado e Y estimado), há heterocedasticidade. 
Os resíduos também podem ser plotados contra qualquer uma das variáveis 
independentes do modelo. Dependendo do comportamento gráfico da relação entre estas 
duas variáveis (resíduos ao quadrado e uma das variáveis independentes), é mais fácil 
identificar como os dados podem ser transformados para que a variância do termo de 
erro se torne homocedástica. 
 
5.2 Métodos formais de diagnóstico de heterocedasticidade 
5.2.1 Teste de Park 
Park formaliza o método gráfico sugerindo que 32� é função da variável 
explanatória Xi. A forma funcional que ele sugere é 32� = 3��24562 
ou ��32� = ��3� + 7���2 + 82 
onde vi é o termo de erro estocástico. 
10 
 
Como em geral 32� é desconhecido, Park sugere usar �̂2� como proxy e calcular a 
seguinte regressão: 
 ���̂2� = ��3� + 7���2 + 82 ���̂2� = � + 7���2 + 82 
Se β for estatisticamente significativo, rejeita-se H0, ou seja, se o valor p da 
estatística t de β for muito próximo de zero, podemos considerar que a 
heterocedasticidade está presente nos dados. Caso contrário, podemos aceitar a premissa 
de homocedasticidade. 
Mecânica do teste: 
1. Calculamos a regressão por MQO sem levar normalmente, sem conta a questão da 
heterocedasticidade. 
2. Obtemos os resíduos dessa regressão por MQO e geramos as seguintes variáveis: 
gen lnresid_quadr=ln(resid_quad) 
gen lnx3=ln(x3), por exemplo, se for a variável X3 que se suspeita seguir um padrão 
sistemático com o somatório dos resíduos ao quadrado. 
3. Regredimos a regressão proposta por Park: 
regress lnresid_quadr lnx3 
Este teste é um método estritamente exploratório, pois está sujeito a críticas. 
 
5.2.2 Teste de Glejser 
Obtém-se os resíduos da regressão por MQO e testa-se várias possibilidades de 
como o erro se distribui, já que Glejser sugere fazer uma regressão dos valores 
absolutos dos resíduos contra a variável X que se considera estreitamente relacionada a 32�. Glejser propõe testar as seguintes formas funcionais: /�̂2/= 7� + 7��2 + 82 /�̂2/= 7� + 7�;�2 + 82 
/�̂2/= 7� + 7� 1�2 + 82 /�̂2/= 7� + 7� 1;�2 + 82 /�̂2/= ;7� + 7��2 + 82 
/�̂2/= <7� + 7��2� + 82 
onde vi é o termode erro. 
Cabe destacar que os dois últimos modelos são não lineares nos parâmetros e, 
portanto, não podem ser estimados com os habituais procedimentos de MQO. 
Em termos práticos, os quatro primeiros modelos podem ser usados para detectar 
heterocedasticidade em grandes amostras, já que Glejser verificou que neste caso os 
resultados são satisfatórios. 
Mecânica do teste: 
1. gera-se a variável resíduo em valores absolutos 
gen res_abs=abs(resid) 
2. No caso do modelo considerando a raiz quadrada de x3 
gen sqrt_x3=sqrt(x3) 
3. regress res_abs sqrt_x3 
Cabe observar que todas as formas funcionais devem ser testadas e se pelo 
menos uma indicar heterocedasticidade, aceita-se a presença de heterocedasticidade nos 
11 
 
dados. Se o coeficiente relativo à variável Xi for estatisticamente significativo pelo 
habitual teste t, rejeita-se H0. 
 
* Coeficiente de correlação de Spearman 
* neste caso, precisa dos y estimados 
qui regress y x2-x6 
predict yhat, xb 
 
* calculo do Coeficiente 
spearman yhat res_abs, stats(rho p) matrix 
 
5.2.3 Teste de Goldfeld-Quandt 
Este método é aplicável quando se pressupõe que a variância heterocedástica, 32�, se relaciona de modo positivo a uma das variáveis explanatórias do modelo de 
regressão. Para simplificar, partiremos do modelo de duas variáveis: �2 = 7� + 7��2 + �2 
Imagine que 32� se relaciona positivamente a �2 da seguinte forma: 32� = 3��2� 
onde 3� é uma constante. 
A pressuposição acima postula que 32� é proporcional ao quadrado da variável 
X. Se esta equação for adequada, significa que 32� será maior quanto maiores forem os 
valores de Xi. Se for este o caso, é muito provável que a heterocedasticidade esteja 
presente no modelo. Para testar isso explicitamente, Goldfeld e Quandt sugerem as 
seguintes etapas: 
Mecânica do teste: 
3.1. Ordene ou classifique as observações de acordo com os valores de Xi, começando 
pelo menor valor de X; 
3.2. Omita as observações centrais (em torno de ¼ a 1/6); uma subamostra é a que está 
acima das centrais e a outra subamostra é a que está abaixo das centrais; 
3.3. Regrida Y contra os Xi nas duas subamostras e obtenha SQR1 e SQR2, sendo que a 
primeira dessas somas corresponde aos menores valores de Xi (o grupo com menor 
variância) e o segundo, o conjunto com maiores valores de Xi (grupo das maiores 
variâncias). 
3.4 Calcule a razão: 
= = >?�2/@�>?�1/@� 
• Sempre colocar a SQR maior no numerador!! 
3.5 Compare λ com a estatística F crítica, que tem (n-k) graus de liberdade no 
numerador e no denominador (atentar para n, que é o número de observações de cada 
subamostra, e k é o número de parâmetros da regressão de cada subamostra). Se o λ 
(=F) calculado for maior que o F crítico ao nível de significância selecionado, rejeita-se 
a hipótese nula de homocedasticidade, isto é, podemos dizer que a hipótese de 
heterocedasticidade é muito provável. 
Cabe destacar que a omissão das variáveis centrais é feita para acentuar a 
diferença entre o grupo com variâncias pequenas (isto é, SQR1) e o grupo de grandes 
variâncias (isto é, SQR2). Vale notar também que no caso de modelos com mais de uma 
variável X, o ordenamento das observações, o primeiro passo do teste, pode ser feito em 
relação a qualquer uma das variáveis X. Assim, no modelo: �2 = 7� + 7��2 + 7	�	2 + 7
�
2 + �2, 
12 
 
podemos classificar os dados por qualquer um desses X. Se não houver certeza a priori 
quanto à variável X adequada, podemos conduzir o teste para cada uma das variáveis X 
ou, por meio do teste de Park, para cada X. Finalmente, cabe destacar que presume-se 
que os resíduos se distribuem normalmente. 
A limitação deste teste consiste em identificar a variável X correta pela qual 
ordenar as observações, a qual pode ser evitada recorrendo-se ao teste de Breush-Pagan-
Godfrey (BPG). 
 
5.2.4 Teste Breusch-Pagan-Godfrey 
Para descrever este teste, recorremos ao modelo de regressão linear com k 
variáveis �2 = 7� + 7���2 + ⋯ + 7B�B2 + �2 
Suponha que a variância do erro, 32�, seja descrita como: 32� = C(�� + ����2 + ⋯ + �D�D2) 
isto é, 32� é uma função das variáveis não estocásticas Z; alguns ou todos os X podem 
servir de Z. Suponha, especificamente, que: 32� = �� + ����2 + ⋯ + �D�D2 
isto é, 32� é uma função linear dos Z. Se α2=α3=...=αm=0, 32�= α1, que é uma constante. 
Portanto, para testar se 32� é homocedástico, podemos testar a hipótese de que 
α2=α3=...=αm=0. Essa é a idéia básica que está por trás do teste de Breush-Pagan. O 
procedimento prático é o seguinte: 
Mecânica do teste: 
4.1. Estime a regressão principal e obtenha os resíduos. 
4.2. Obtenha o estimador da variância por máxima verossimilhança, dado por: 
3E� = ∑ �̂2�� 
Recordemos que o estimador da variância por MQO é: 
3F� = ∑ �̂2�@� 
4.3. Construa variáveis pi, definidas como: 
G2 = �̂2�3E� 
que são simplesmente cada resíduo elevado ao quadrado e dividido por 3E�. 
4.4. Faça a regressão de pi contra os Z, como: G2 = �� + ����2 + ⋯ + �D�D2 + 82 
onde vi é o termo residual desta regressão. 
4.5. Obtenha SQE da regressão feita na etapa 4 e defina: 
H = 12 (>?I) 
Pressupondo que µ i se distribui normalmente, podemos demonstrar que, se há 
homocedasticidade e se o tamanho da amostra n aumenta indefinidamente, então: H 
segue distribuição de qui-quadrado com (m-1) graus de liberdade; m é o número de 
parâmetros da regressão estimada em 4.5. 
Portanto, em uma aplicação, se o H = (χ2) calculado for maior que o valor crítico 
de χ2 ao nível de significância escolhido, pode-se rejeitar a hipótese de 
homocedasticidade; caso contrário, não a rejeitamos. 
Cabe destacar que para se obter SQE, necessária na etapa 4.5, recorremos a: 
�� = >?I>?( = >?I>?I + >?� 
13 
 
��(>?I + >?�) = >?I ��>?I + ��>?� = >?I ��>?� = >?I − ��>?I ��>?� = >?I(1 − ��) 
>?I = ��>?�(1 − ��) 
No Stata: 
qui regress y x2-x6 
scalar sigmamv=e(rss)/e(N) 
gen pi= resid_quad/sigmamv 
 
* Regressáo do pi contra a variável x3 
regress pi x3 
 
* Obtendo o valor calculado e significância 
scalar chi_calc = e(rss)/2 
di 1-chi2(e(df_m),chi_calc) 
 
* Para calcular direto no Stata, digitar em command: estat hettest 
 
5.2.5 Teste de White 
* O teste de White também precisa ser instalado 
ssc des whitetst 
ssc install whitetst 
regress y contra todos os X’s 
whitetst 
Este comando no Stata já faz todos os passos do teste de White. É só interpretar. 
 
O teste de White é conduzido do seguinte modo: 
1. Estime a regressão normalmente e obtenha os resíduos. 
2. Calcule a seguinte regressão auxiliar: �̂2� = �� + ����2 + �	�	2 + �
��2� + �J�	2� + �K��2�	2 + 82 
Isto é, é feita uma regressão dos quadrados dos resíduos da regressão original contra as 
variáveis ou regressores X originais, seus valores elevados ao quadrado e os produtos 
cruzados dos regressores. Também podem ser incluídos expoentes mais altos dos 
regressores. Observe que há um termo constante nessa equação mesmo que a regressão 
original não o contenha. Obtenha o R2 desta regressão (auxiliar). 
3. Sob a hipótese nula de que não há heterocedasticidade, pode-se demonstrar que o 
tamanho da amostra (n) multiplicado pelo R2 da regressão auxiliar segue 
assintoticamente a distribuição de qui-quadrado com um número de graus de liberdade 
igual ao número de regressores (excluído o termo constante) da regressão auxiliar. 
4. Se o valor de qui-quadrado calculado for superior ao qui-quadrado crítico no nível de 
significância selecionado, rejeita-se H0 e conclui-se que há heterocedasticidade. 
 
* Regressão com erros padrão robustos (correção de White) 
regress y x2 x3 x4 x5 x6, vce(robust) 
 
5.3 Providências corretivas para HETEROCEDASTICIDADE 
 
14 
 
A heterocedasticidade, que pode ser denotada por I(�2�) = 32� não destrói as 
propriedades de não tendenciosidade (I(7)L = 7) e de consistência (à medida que o 
tamanhoda amostra aumenta, o estimador se aproxima do verdadeiro valor de β) dos 
estimadores de MQO; mas eles deixam de ser eficientes (um estimador eficiente é 
aquele que é não tendencioso e tem variância mínima). A falta de eficiência torna dúbio 
os habituais testes de hipóteses. São necessárias, portanto, medidas corretivas, que 
dividem-se em duas abordagens: 
 
1. Quando 32� é conhecido: o método dos mínimos quadrados ponderados (uma vertente 
dos mínimos quadrados generalizados) 
O método dos MQO não usa as “informações” contidas na variabilidade desigual 
da variável dependente Y, ele dá igual peso ou importância a todas as observações. O 
método de mínimos generalizados (MQG) leva em conta essa informação 
explicitamente dando menos peso aquelas observações provenientes de populações com 
maior variabilidade e, portanto, é capaz de gerar estimadores não BLUE. 
Para ver como isso é feito, consideremos o modelo de duas variáveis: �2 = 7� + 7��2 + �2 
que, para simplificar a manipulação algébrica, podemos escrever como: �2 = 7��M2 + 7��2 + �2 
 
onde �M2=1 para cada i. 
Agora, suponha que as variâncias heterocedásticas 32� são conhecidas. Dividindo 
a equação imediatamente anterior por σi, obtemos: �232 = 7� �M232 + 7� �232 + �232 
que, para facilitar a exposição, escreveremos como: �2∗ = 7�∗�M2∗ + 7�∗�2∗ + �2∗ 
onde as variáveis marcadas com asterisco, ou transformadas, são variáveis originais 
divididas pelo 32 conhecido. Usamos a notação 7�∗ e 7�∗ para os parâmetros do modelo 
transformado a fim de distingui-lo dos parâmetros de MQO, β1 e β2. 
O propósito de transformar o modelo original deve-se ao termo de erro transformado. 
Note o seguinte aspecto do termo de erro transformado, �2∗: 8O!(�2∗) = I(�2∗)� = I P�232Q
�
 
8O!(�2∗) = �RST I(�2�), já que 32� é conhecido 8O!(�2∗) = �RST (32�) já que I(�2�) = 32� 8O!(�2∗) = 1 
que é uma constante. Isto é, a variância do termo de erro transformado �2∗ agora é 
homocedástico. Como ainda estamos mantendo as demais premissas do modelo 
clássico, constatamos que é µ* que é homocedástico, sugerindo que, se aplicarmos os 
MQO ao modelo transformado, ele gerará estimadores que são BLUE. Em resumo, os 
estimadores de mínimos quadrados ponderados são BLUE e não os estimadores de 
MQO. 
O fator de ponderação é U<VW. =
UVW 
 
2. Quando 32� não é conhecido: Raramente 32� é conhecido. 
a) Variância e erros-padrão consistentes para heterocedasticidade de White: 
15 
 
Os erros-padrão com a correção da heterocedasticidade de White também são 
conhecidos como erros-padrão robustos e podem ser obtidos diretamente com o 
comando a seguir no Stata: 
* Regressão com erros padrão robustos (correção de White) 
regress y x2 x3 x4 x5 x6, vce(robust) 
 
Como os coeficientes da regressão desconsiderando-se qualquer problema de 
heterocedasticidade são não tendenciosos, White propôs só mexer na variância. Os 
erros-padrão ajustados à heterocedasticidade (de White) podem ser tanto maiores ou 
menores que os erros-padrão não ajustados. 
 
b) Assume-se uma pressuposição sobre 32� 
Se acreditamos, em função de métodos gráficos, especulativos ou das 
abordagens de Park e Glejser, que a variância dos resíduos é, por exemplo, proporcional 
ao quadrado da variável explanatória X, ou proporcional a X, ou proporcional ao 
quadrado do valor médio de Y, ou alguma outra pressuposição, recorremos à 
transformação do modelo, adotando como fator de ponderação: 
COXY! Z5 GY�Z5!OçãY = 1;G!5��]GY�^çãY O��]_^ZO 
1. a variância do erro é proporcional a Xi2: E(ui2)=σ2Xi2 
2. a variância do erro é proporcional a Xi: E(ui2)=σ2Xi 
3. a variância do erro é proporcional ao quadrado do valor médio de Y: Xi2: 
E(ui2)=σ2[E(Yi)]2 
 
c) uma transformação logarítmica nas variáveis muitas vezes reduz a 
heterocedasticidade em comparação com a regressão principal. 
 
Finalmente, cabe destacar: “o impacto de uma variância do erro não constante 
sobre a eficiência do estimador de MQO e de sua inferência depende de vários fatores, 
incluindo o tamanho da amostra, o grau de variação de σi2, a configuração dos valores 
de X (isto é, do regressor), e a relação entre a variância dos erros e os X. portanto, não é 
possível formular conclusões totalmente gerais em relação aos prejuízos trazidos pela 
heterocedasticidade” (John Fox, Gujarati, 2006, p. 344). 
 
6 DIAGNÓSTICO DA AUTOCORRELAÇÃO 
 
6.1 Método gráfico – plotagem sequencial no tempo 
 
Pode-se plotar os resíduos contra o tempo ou os resíduos padronizados contra o 
tempo, que são simplesmente os resíduos divididos pelo erro-padrão da regressão, isto 
é, �̂�/3F. Também podemos plotar �̂� contra �̂�`�, isto é, os resíduos no período t contra 
os resíduos no período t-1, uma espécie de teste empírico do esquema AR(1). 
* Gráfico dos resíduos e dos resíduos contra resíduos defasados 
twoway (scatter resid ano) 
twoway (scatter resid L.resid) 
 
6.2 Teste de Durbin-Watson 
Premissas que embasam o teste – somente válido se atender a estas 
pressuposições: 
16 
 
1. O modelo de regressão inclui o termo de intercepto. Se este não estiver presente, 
como no caso do modelo que passa pela origem, é necessário fazer a regressão para 
incluir o intercepto antes de obter a SQR. 
2. As variáveis explanatórias, X, são não estocásticas ou fixadas em amostras repetidas. 
3. Os termos de erro são gerados pelo esquema auto-regressivo de primeira ordem: µ t = 
ρµ t-1 + εt. Portanto, não pode ser empregado para detectar esquemas auto-regressivos de 
ordens mais elevadas. 
4. Pressupõe-se que o termo de erro esteja normalmente distribuído (verificar pelo teste 
de Jarque-Bera). 
5. O modelo de regressão não inclui os valores defasados da variável dependente como 
uma das variáveis explanatórias. 
6. Não há falta de observações nos dados. 
Testa-se H0: ausência de autocorrelação para a estatística calculada Z ≈2(1 − bF). Como -1<= b <=1, implica que 0<=d<=4. 
Esses são os limites de d; qualquer valor estimado para d deve ficar entre estes 
limites. 
Se bF = 0, d =2; isto é, não há correlação serial de primeira ordem, espera-se que 
d fique em torno de 2. Portanto, como regra prática, se verificarmos em uma aplicação 
que d é menor que 2, podemos pressupor que não há autocorrelação de primeira ordem, 
seja positiva ou negativa. Se bF = +1, indicando perfeita correlação dos resíduos, d≈0. 
Então, quanto mais próximo de zero estiver d, maior a evidencia de correlação serial 
positiva. Esta relação deveria ser evidente, porque se há autocorrelação positiva, os 
resíduos estimados se aglomerarão e suas diferenças tenderão a ser pequenas. Em 
consequência, a soma dos quadrados do numerador será menor que a do denominador, 
que permanece um valor único para qualquer regressão dada. 
Se bF = −1, isto é, se há correlação negativa perfeita entre resíduos sucessivos, d 
≈ 4. Portanto, quanto mais próximo d estiver de 4, maior a evidencia de correlação serial 
negativa. 
A mecânica do teste DW é a seguinte, supondo que as premissas que o embasam 
sejam respeitadas: 
1. Calcula-se a regressão por MQO e obtém-se os resíduos. 
2. Calcula-se d conforme: 
 Z = ∑ (def`defgh)TfijfiT∑ defTfijfih 
3. Dados o tamanho da amostra e o número de variáveis explanatórias, encontram-se os 
valores de dL e dU. 
4. Seguem as regras de decisão dadas pela figura abaixo: 
 
* Teste Durbin Watson 
qui regress y x2-x6 
estat dwatson 
dwstat 
 
* No caso de variável dependente defasada no modelo 
* Exemplo: regress y L.y x2-x6 
* pode-se usar o teste durbin alternativo 
* vide - help estat durbinalt - 
 
6.3 Teste de Breush-Godfrey 
17 
 
É um teste geral, no sentido de que permite a existência de (1) regressores não 
estocásticos, como o valor defasado do regressando; (2) esquemas auto-regressivos de 
ordem mais elevada, como AR(1), AR(2), etc.; (3) médias móveis simples ou de ordensmais elevada de termos de ruído branco, como εt. 
O teste BG, também conhecido como teste LM, é feito como a seguir. 
Empregaremos o modelo de regressão com duas variáveis para ilustrar, mas pode-se 
aplicar a modelos com muito mais regressores. Seja: �� = 7� + 7��� + �� 
Suponha que o termo de erro µt siga um esquema auto-regressivo de ordem p, 
AR(p), como o seguinte: �� = b���`� + b���`� + ⋯ + bk��`k + l� 
onde l� é um termo de ruído branco. Como se vê, é uma simples extensão do esquema 
AR(1). 
A hipótese nula a ser testada é: m0: b1 = b2 = ⋯ = bG = 0 
Isto é, não há autocorrelação serial de qualquer ordem. O teste BG envolve as 
seguintes etapas: 
1. Estime a regressão principal por MQO. 
2. Faça a regressão de �̂� contra o Xt original (se houver mais de uma variável X no 
modelo, elas também serão incluídas) e �̂�`�, �̂�`�, … , �̂�`k, onde estes últimos são os 
valores defasados dos resíduos estimados na etapa 1. Assim, se p =4, incluiremos os 
quatro valores defasados dos resíduos como mais um regressor do modelo. Em resumo, 
calculamos a seguinte regressão: �̂� = �� + ���� + bF��̂�`� + bF��̂�`� + ⋯ + bFk�̂�`k + l� 
E obtemos seu R2. 
3. Compare (n-p).R2 ao qui-quadrado crítico com p graus de liberdade. Se qui-quadrado 
calculado > qui-quadrado crítico, rejeita-se H0, e neste caso, pelo menos um rô é 
estatisticamente diferente de zero. 
* Teste Breusch-Godfrey (BG) 
qui regress y x2-x6 
estat bgodfrey, lags(1) small 
estat bgodfrey, lags(2) small 
 
* Correção da autocorrelação com erros-padrão robustos por Newey-West 
newey y x2-x6, lag(2) 
 
* Inserindo termos AR's 
arima y x2-x6, ar(1/2) 
 
* Para defasar uma série: 
gen (nome da variável defasada) = l1.(nome da variável) 
Exemplo: gen X2def = l1.X2 
 
* Para diferenciar uma série: 
gen (nome da variável em primeira diferença) = d1.(nome da variável), noconst 
Exemplo: gen X2dif = d1.X2 
 
* Lembrar: lag é defasagem; é Yt-1 
Diferença é ∆Y= Yt – Yt-1 
 
18 
 
7 MODELOS DE REGRESSÃO COM DADOS EM PAINEL 
 
Nos dados em painel, a mesma unidade de corte transversal (uma família, uma 
empresa, um estado) é acompanhado ao longo do tempo. Em síntese, os dados em 
painel têm uma dimensão espacial e outra temporal. 
Os dados em painel também são chamados de dados combinados (combinação 
de séries temporais e observações em corte transversal), combinação de séries temporais 
e de dados de corte transversal, dados em micropainel, dados longitudinais (um estudo 
ao longo do tempo de uma variável ou de um grupo de temas), análise histórica de 
eventos (como o estudo da trajetória de carreira dos formados em 1965 em uma dada 
faculdade de administração). Embora sejam variações sutis, todos estes nomes conotam 
essencialmente o movimento no tempo de unidades de corte transversal. Portanto, 
empregaremos a expressão dados em painel em um sentido genérico, incluindo um ou 
mais destes termos. E chamaremos os modelos de regressão embasados nesses dados de 
modelos de regressão com dados em painel. 
 
7.1 Vantagens da utilização de dados em painel 
 
Balgati lista as seguintes vantagens dos dados em painel em relação aos dados de 
corte transversal ou às séries temporais: 
1. Como os dados em painel se relacionam a indivíduos, empresas, estados, países, etc., 
tende a haver muita heterogeneidade nessas unidades. As técnicas de estimação em 
painel podem levar em conta explicitamente essas variáveis individuais específicas (a 
heterogeneidade das unidades de corte transversal). 
2. Ao combinar séries temporais com dados de corte transversal, os dados em painel 
proporcionam “dados mais informativos, mais variabilidade e menos colinearidade entre 
as variáveis, mais graus de liberdade (pois se aumenta o tamanho da amostra) e mais 
eficiência”. 
3. Ao estudar repetidamente um corte transversal de observações, os dados em painel 
são mais adequados ao estudo da dinâmica da mudança. Períodos de desemprego, 
rotatividade no emprego e mobilidade da mão de obra são melhor estudados em dados 
em painel. 
4. Os dados em painel podem detectar e medir efeitos melhor do que quando a 
observação é feita por meio de corte transversal puro ou série temporal pura. Por 
exemplo, os efeitos das leis de salário mínimo sobre o emprego e os salários podem ser 
melhor estudados se incluirmos sucessivas rodadas de aumento do salário mínimo 
federal e/ou estadual. 
5. Os dados em painel nos permitem estudar modelos comportamentais mais 
complexos. Por exemplo, fenômenos como as economias de escala e a mudança 
tecnológica podem ser mais bem tratados por dados em painel do que por dados de corte 
transversal puro ou de séries temporais puras. 
6. Ao tornar disponíveis dados referentes a vários milhares de unidades, podemos 
minimizar o viés que decorreria da agregação de pessoas ou empresas em grandes 
conjuntos. 
 
A técnica de dados em painel ou de dados longitudinais consiste num conjunto 
de dados combinados em dimensões tanto de série temporal como de corte transversal. 
Os modelos de painel permitem explorar, simultaneamente, variações das variáveis ao 
longo do tempo e entre diferentes unidades ou grupos. Segundo Xavier (2007), a 
disposição dos dados em painel permite o uso de um número mais elevado de 
19 
 
observações, o que contribui para maior variabilidade dos dados, menor colinearidade 
entre as variáveis, elevação do número de graus de liberdade, maior eficiência do 
modelo estimado e é mais apropriado para o estudo de mudanças dinâmicas. Além 
disso, Nonnemberg e Mendonça (2005) expõem que a vantagem do emprego de dados 
em painel é que esse método permite levar em consideração as características 
idiossincráticas (heterogeneidade) existentes entre as unidades estudadas. 
 
7.2 Dados em Painel: um exemplo numérico 
 
Os dados da Tabela 16.1 foram extraídos de um famoso estudo de teoria do 
investimento proposto por Y. Grunfeld, “The Determinants of Corporate Investment”, 
Tese de Ph.D., Chicago, 1958. 
Grunfeld estava interessado em verificar como o investimento real bruto (Y) 
depende do valor real da empresa (X2) e do estoque real de capital (X3). Embora o 
estudo original incluísse várias empresas, para fins ilustrativos só veremos os dados de 
quatro delas: General Eletric (GE), General Motors (GM), US Steel (US) e 
Westinghouse. Na Tabela 16.1, apresentamos, para cada uma dessas empresas, os dados 
relativos a cada uma das três variáveis durante o período de 1935-1954. Portanto, 
temos quatro unidades de cross-section e 20 períodos temporais. Ao todo são, 
assim, 80 observações. A priori, espera-se que Y esteja positivamente relacionado a X2 
e X3. 
 
Tabela 16.1 Investimentos de quatro empresas, 1935-1954 
Período Empresa Y X2 X3 
1935 GE 33.10000 1170.600 97.80000 
1936 GE 45.00000 2015.800 104.4000 
1937 GE 77.20000 2803.300 118.0000 
1938 GE 44.60000 2039.700 156.2000 
1939 GE 48.10000 2256.200 172.6000 
1940 GE 74.40000 2132.200 186.6000 
1941 GE 113.0000 1834.100 220.9000 
1942 GE 91.90000 1588.000 287.8000 
1943 GE 61.30000 1749.400 319.9000 
1944 GE 56.80000 1687.200 321.3000 
1945 GE 93.60000 2007.700 319.6000 
1946 GE 159.9000 2208.300 346.0000 
1947 GE 147.2000 1656.700 456.4000 
1948 GE 146.3000 1604.400 543.4000 
1949 GE 98.30000 1431.800 618.3000 
1950 GE 93.50000 1610.500 647.4000 
1951 GE 135.2000 1819.400 671.3000 
1952 GE 157.3000 2079.700 726.1000 
1953 GE 179.5000 2371.600 800.3000 
1954 GE 189.6000 2759.900 888.9000 
1935 GM 317.6000 3078.500 2.800000 
1936 GM 391.8000 4661.700 52.60000 
1937 GM 410.6000 5387.100 156.9000 
1938 GM 257.7000 2792.200 209.2000 
20 
 
1939 GM 330.8000 4313.200 203.4000 
1940 GM 461.2000 4643.900 207.2000 
1941 GM 512.0000 4551.200 255.2000 
1942 GM 448.0000 3244.100 303.7000 
1943 GM 499.6000 4053.700264.1000 
1944 GM 547.5000 4379.300 201.6000 
1945 GM 561.2000 4840.900 265.0000 
1946 GM 688.1000 4900.000 402.2000 
1947 GM 568.9000 3526.500 761.5000 
1948 GM 529.2000 3245.700 922.4000 
1949 GM 555.1000 3700.200 1020.100 
1950 GM 642.9000 3755.600 1099.000 
1951 GM 755.9000 4833.000 1207.700 
1952 GM 891.2000 4924.900 1430.500 
1953 GM 1304.400 6241.700 1777.300 
1954 GM 1486.700 5593.600 2226.300 
1935 US 209.9000 1362.400 53.80000 
1936 US 355.3000 1807.100 50.50000 
1937 US 469.9000 2673.300 118.1000 
1938 US 262.3000 1801.900 260.2000 
1939 US 230.4000 1957.300 312.7000 
1940 US 361.6000 2202.900 254.2000 
1941 US 472.8000 2380.500 261.4000 
1942 US 445.6000 2168.600 298.7000 
1943 US 361.6000 1985.100 301.8000 
1944 US 288.2000 1813.900 279.1000 
1945 US 258.7000 1850.200 213.8000 
1946 US 420.3000 2067.700 232.6000 
1947 US 420.5000 1796.700 264.8000 
1948 US 494.5000 1625.800 306.9000 
1949 US 405.1000 1667.000 351.1000 
1950 US 418.8000 1677.400 357.8000 
1951 US 588.2000 2289.500 341.1000 
1952 US 645.2000 2159.400 444.2000 
1953 US 641.0000 2031.300 623.6000 
1954 US 459.3000 2115.500 669.7000 
1935 WEST 5 12.9300 0 191.500 0 1.800000 
1936 WEST 6 25.9000 0 516.000 0 0.800000 
1937 WEST 7 35.0500 0 729.000 0 7.400000 
1938 WEST 8 22.8900 0 560.400 0 18.10000 
1939 WEST 9 18.8400 0 519.900 0 23.50000 
1940 WEST 0 28.5700 0 628.500 0 26.50000 
1941 WEST 1 48.5100 0 537.100 0 36.20000 
1942 WEST 2 43.3400 0 561.200 0 60.80000 
1943 WEST 3 37.0200 0 617.200 0 84.40000 
1944 WEST 4 37.8100 0 626.700 0 91.20000 
21 
 
1945 WEST 5 39.2700 0 737.200 0 92.40000 
1946 WEST 6 53.4600 0 760.500 0 86.00000 
1947 WEST 7 55.5600 0 581.400 0 111.1000 
1948 WEST 8 49.5600 0 662.300 0 130.6000 
1949 WEST 9 32.0400 0 583.800 0 141.8000 
1950 WEST 0 32.2400 0 635.200 0 136.7000 
1951 WEST 1 54.3800 0 732.800 0 129.7000 
1952 WEST 2 71.7800 0 864.100 0 145.5000 
1953 WEST 3 90.0800 0 1193.50 0 174.8000 
1954 WEST 4 68.6000 0 1188.90 0 213.5000 
Notas: Y = I = investimento bruto = expansão de fábricas e equipamentos mais manutenção e reparos, em 
milhões de dólares deflacionados por P1 
X2 = F = valor da empresa = preço das ações ordinárias e preferenciais em 31 de dezembro (ou 
preço médio de 13 de dezembro a 31 de dezembro do ano seguinte) vezes o número de ações ordinárias e 
preferenciais em circulação mais o valor contábil das dívidas em 31 de dezembro, em milhões de dólares, 
deflacionados por P2. 
X3 = C = estoque de fábricas e equipamentos = soma acumulada de adições líquidas ao valor das 
fábricas e equipamentos deflacionada por P1 menos a depreciação deflacionada por P3, nestas condições. 
P1 = deflator implícito dos bens duráveis de produção (1947 = 100) 
P2 = deflator implícito do PNB (1947 = 100/ 
P3 = deflator das despesas de depreciação = média ao longo de dez anos de preços no atacado de 
metais e produtos metálicos (1947 = 100) 
Fonte: reproduzido de Vinod H. D. e Ullah, Aman. Recent Advances in Regression Methods. Nova York: 
Marcel Dekker, 1981, p. 259-261. 
 
O primeiro cuidado a ser tomado é como montar o painel no Excel. Deve-se 
ordenar os dados de acordo com a série temporal para cada unidade de seção 
cruzada. Não esquecer de dar um número a cada unidade de seção cruzada, 
porque o Stata não reconhece o nome do país ou da empresa, por exemplo. 
Em princípio, podemos rodar 20 regressões de corte transversal, uma para cada 
ano, embora neste caso tivéssemos de nos preocupar com os graus de liberdade, pois, 
desta forma, para cada ano, temos apenas quatro observações sobre o regressando e os 
regressores. Se também incluirmos o intercepto, só poderemos estimar três parâmetros, 
deixando apenas um grau de liberdade. Obviamente, esta regressão não teria muito 
sentido. 
Combinando todas as 80 observações, podemos escrever a função de 
investimento de Grunfeld do seguinte modo 
 �2� = 7� + 7���2� + 7	�	2� + �2� (16.2.1) 
 
i = 1, 2, 3, 4 
t = 1, 2, ..., 20 
em que i representa a i-ésima unidade de corte transversal e t o t-ésimo período de 
tempo. Por convenção, denotaremos os dados de corte transversal por i e 
identificaremos o tempo por t. Supomos aqui que há um máximo de N unidades de 
observação de corte transversal e T períodos de tempo. Se cada unidade de corte 
transversal tiver o mesmo número de observações de séries temporais, então um painel 
como o que acabamos de descrever é denominado de painel equilibrado. 
No presente exemplo, temos um painel equilibrado, pois cada empresa na 
amostra possui 20 observações. Se o número de observações diferir entre os 
participantes do painel, teremos um painel desequilibrado. 
22 
 
Trataremos, por hora, dos painéis equilibrados e assumimos, inicialmente, que 
os X são não estocásticos e que o termo de erro segue a premissa clássica, a saber, I(�2�)~q(0, 3�). 
Podemos estimar a equação (16.2.1) por três métodos diferentes: dados 
empilhados (pooled), segundo a abordagem dos efeitos fixos e segundo a abordagem 
dos efeitos aleatórios. 
 
7.3 Estimação de modelos de regressão com dados em painel: a abordagem dos 
efeitos fixos 
 
A estimação de (16.2.1) depende das premissas que fazemos a respeito do 
intercepto, dos coeficientes angulares e do termo de erro, �2�. Há várias possibilidades: 
1. O intercepto e os coeficientes angulares são constantes ao longo do tempo e no 
espaço e o termo de erro capta as diferenças ao longo do tempo e entre indivíduos. 
2. Os coeficientes angulares são constantes, mas o intercepto varia entre os indivíduos. 
3. Os coeficientes angulares são constantes, mas o intercepto varia entre indivíduos e ao 
longo do tempo. 
4. Todos os coeficientes (o intercepto e os coeficientes angulares) variam entre 
indivíduos. 
5. O intercepto e os coeficientes angulares variam entre indivíduos e ao longo do tempo. 
Cada um destes casos vai aumentando a complexidade (e talvez o realismo) da 
estimação de modelos de regressão com dados em painel, como (16.2.1). Naturalmente, 
a complexidade aumentará se formos aumentando o número de regressores, pois 
aumentará a possibilidade de colinearidade entre eles. A seguir, veremos alguns dos 
principais aspectos das várias possibilidades. 
 
1. Todos os coeficientes são constantes ao longo do tempo e entre indivíduos 
(empilhamento de dados ou pooled) 
 
A maneira mais simples é desconsiderar as dimensões de tempo e espaço dos 
dados combinados e estimar a habitual regressão de MQO. Ou seja, empilhar as 20 
observações de cada empresa, uma em cima da outra, com o que obtemos 80 
observações para cada variável do modelo. Neste caso, o termo de erro representa as 
diferenças entre indivíduos e ao longo do tempo. Os resultados desta regressão são os 
seguintes: 
 
. edit 
(5 vars, 80 obs pasted into editor) 
 
. tsset empresa periodo 
 panel variable: empresa (strongly balanced) 
 time variable: periodo, 1935 to 1954 
 delta: 1 unit 
 
. reg y x2 x3 
 
 Source | SS df MS Number of obs = 80 
-------------+------------------------------ F( 2, 77) = 119.63 
 Model | 4849457.37 2 2424728.69 Prob > F = 0.0000 
 Residual | 1560689.67 77 20268.697 R-squared = 0.7565 
-------------+------------------------------ Adj R-squared = 0.7502 
 Total | 6410147.04 79 81141.1018 Root MSE = 142.37 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x2 | .1100955 .01372978.02 0.000 .0827563 .1374348 
 x3 | .3033932 .0492957 6.15 0.000 .2052328 .4015535 
 _cons | -63.30413 29.6142 -2.14 0.036 -122.2735 -4.334734 
------------------------------------------------------------------------------ 
 
 
23 
 
 
 
 
 
 
. fitstat 
 
Measures of Fit for regress of y 
 
Log-Lik Intercept Only: -565.170 Log-Lik Full Model: -508.660 
D(77): 1017.319 LR(2): 113.020 
 Prob > LR: 0.000 
R2: 0.757 Adjusted R2: 0.750 
AIC: 12.791 AIC*n: 1023.319 
BIC: 679.903 BIC': -104.256 
 
 
Se examinarmos os dados da regressão com dados empilhados e aplicarmos os 
critérios convencionais, observamos que todos os coeficientes são individualmente 
significativos do ponto de vista estatístico, que os coeficientes angulares têm os sinais 
esperados – positivos – e um valor de R2 razoavelmente alto. Como esperado, Y se 
relaciona de modo positivo com X2 e X3. 
O único problema é que a estatística de Durbin-Watson é bastante baixa, 
sugerindo que talvez haja autocorrelação nos dados. Mas já sabemos que o a estatística 
calculada de Durbin-Watson pode ser baixa devido a erros de especificação. Por 
exemplo, o modelo estimado pressupõe que o valor do intercepto das empresas é o 
mesmo para as quatro empresas. Também pressupõe que os coeficientes angulares das 
duas variáveis X é idêntico para as quatro empresas. Portanto, apesar de sua 
simplicidade, a regressão combinada (16.2.1) pode distorcer a verdadeira imagem da 
relação entre Y e os X das quatro empresas. O que precisamos fazer é encontrar algum 
modo de levar em conta a natureza específica das quatro empresas, como mostramos em 
seguida. 
 
2.a. Os coeficientes angulares são constantes, mas o intercepto varia entre os 
indivíduos: o modelo de regressão de efeitos fixos ou a variável binária de mínimos 
quadrados 
 
Uma forma de levar em conta a “individualidade” de cada empresa ou cada 
unidade do corte transversal é fazer variar o intercepto para cada empresa, 
considerando, entretanto, que os coeficientes angulares são constantes entre as 
empresas. Para ver isso, escrevemos o modelo (16.2.1) como 
 �2� = 7�2 + 7���2� + 7	�	2� + �2� (16.3.2) 
 
Observemos que o subscrito i no termo de intercepto sugere que os interceptos 
das quatro empresas podem ser diferentes; as diferenças podem ser devidas a 
características especiais de cada empresa, como estilo ou filosofia gerenciais. 
O modelo (16.3.2) é conhecido como modelo de efeitos fixos. O termo efeitos 
fixos decorre do fato de que, embora o intercepto possa diferir entre os indivíduos (neste 
caso, as quatro empresas), cada intercepto individual não se altera ao longo do tempo, 
isto é, é invariante no tempo. Se fôssemos representar o intercepto como 7�2�, isso 
sugeriria que o intercepto de cada empresa ou indivíduo variaria no tempo. Pode-se 
verificar, ainda, que o modelo de efeitos fixos dado em (16.3.2) pressupõe que os 
coeficientes angulares dos regressores não variam entre indivíduos nem ao longo do 
tempo. 
Mas como é que permitimos que o intercepto (com efeito fixo) varie entre 
empresas? Podemos fazê-lo recorrendo à técnica das variáveis binárias vista no Cap. 9, 
24 
 
especialmente as variáveis binárias de intercepto diferencial. Portanto, escrevemos 
(16.3.2) como 
 �2� = �� + ��r�2 + �	r	2 + �
r
2 + 7���2� + 7	�	2� + �2� (16.3.3) 
 
em que r�2 = 1 se a observação pertence à GM, e 0 nos demais casos; r	2 = 1 se a 
observação pertence à US, e 0 nos demais casos; e r
2 = 1 se pertence à West, e 0 nos 
demais casos. 
Como são quatro empresas, só empregamos três variáveis binárias para evitar 
cair na armadilha das variáveis binárias, isto é, uma situação de perfeita colinearidade. 
Neste caso, não há variável binária para a GE. Em outras palavras, �� representa o 
intercepto da GE e ��, �	 e �
, os coeficientes diferenciais de intercepto, nos dizem de 
quanto os interceptos da GM, US e West diferem do intercepto da GE. Em resumo, a 
GE se torna a empresa de referência. 
Cabe mencionar que podemos escolher qualquer uma das empresas como a 
empresa de referência e, se desejamos valores explícitos para as variáveis de cada 
empresa, podemos introduzir quatro variáveis binárias desde que façamos a regressão 
que passa pela origem, isto é, sem o intercepto comum de (16.3.3), ��. Se não fizermos 
isso, cairemos na armadilha da variável binária. 
Como estamos empregando variáveis binárias para estimar efeitos fixos, o 
modelo também é conhecido como modelo de variáveis binárias de mínimos 
quadrados. Assim, as denominações efeitos fixos e variáveis binárias de mínimos 
quadrados podem ser usadas como sinônimos. Vale mencionar que o modelo de 
variáveis binárias de mínimos quadrados (16.3.3) também é conhecido como modelo de 
covariância e X2 e X3 são conhecidos como covariantes. 
Os resultados do cálculo de (16.3.3) são os seguintes: 
 
. gen D2 = 1 
 
.replace D2 = 0 if empresa <=1 
 
.replace D2 = 0 if empresa >= 3 
 
. gen D3 = 1 
 
. replace D3 =0 if empresa <=2 
(40 real changes made) 
 
. replace D3 = 0 if empresa > 3 
(20 real changes made) 
 
. gen D4 =1 
 
. replace D4 = 0 if empresa <= 3 
(60 real changes made) 
 
. reg y x2 x3 D2 D3 D4 (16.3.4) 
 
 Source | SS df MS Number of obs = 80 
-------------+------------------------------ F( 5, 74) = 211.37 
 Model | 5990684.14 5 1198136.83 Prob > F = 0.0000 
 Residual | 419462.898 74 5668.41754 R-squared = 0.9346 
-------------+------------------------------ Adj R-squared = 0.9301 
 Total | 6410147.04 79 81141.1018 Root MSE = 75.289 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x2 | .1079481 .0175089 6.17 0.000 .0730608 .1428354 
 x3 | .3461617 .0266645 12.98 0.000 .2930315 .3992918 
 D2 | 161.5722 46.45639 3.48 0.001 69.00583 254.1386 
 D3 | 339.6328 23.98633 14.16 0.000 291.839 387.4266 
 D4 | 186.5665 31.50681 5.92 0.000 123.7879 249.3452 
 _cons | -245.7924 35.81112 -6.86 0.000 -317.1476 -174.4371 
------------------------------------------------------------------------------ 
 
25 
 
Os resultados da regressão (16.3.3) mostram que todos os coeficientes estimados 
são altamente significativos do ponto de vista individual, já que os valores p dos 
coeficientes t estimados são extremamente baixos. Os valores do intercepto para as 
quatro empresas são estatisticamente diferentes, com os valores de -245,7924 para GE 
(que é o grupo de controle); -84,220 (= -245,7924+161,5722) para a GM; 93,8774 (= -
245,7924+339,6328) para a US; e -59,2258 (= -245,7924+186,5666) para a West. Essas 
diferenças no intercepto podem ser devidas a características únicas de cada empresa, 
como diferença no estilo gerencial ou no talento dos gestores. 
Podemos estimar esta mesma regressão diretamente por efeitos fixos no Stata, da 
seguinte forma: 
Inicialmente, indicar variável de seção cruzada e variável de série temporal: 
iis [nome da variável] → utiliza-se este comando para a variável de seção cruzada 
tis [nome da variável] → utiliza-se estecomando para a variável de série temporal 
ou por meio do comando: 
tsset [nome da variável de corte transversal nome da variável de série temporal] 
Neste caso, o efeito fixo será rodado para a variável de corte transversal (que 
vem primeiro na ordem). Para rodar o efeito fixo para a variável de série temporal, 
deve-se colocar em primeiro lugar a variável de série temporal, ao setar o painel. 
 
. iis empresa 
 
. tis period 
 
. xtreg y x2 x3, fe 
 
Fixed-effects (within) regression Number of obs = 80 
Group variable: empresa Number of groups = 4 
 
R-sq: within = 0.8068 Obs per group: min = 20 
 between = 0.7304 avg = 20.0 
 overall = 0.7554 max = 20 
 
 F(2,74) = 154.53 
corr(u_i, Xb) = -0.1001 Prob > F = 0.0000 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x2 | .1079481 .0175089 6.17 0.000 .0730608 .1428354 
 x3 | .3461617 .0266645 12.98 0.000 .2930315 .3992918 
 _cons | -73.84946 37.52291 -1.97 0.053 -148.6155 .9165759 
-------------+---------------------------------------------------------------- 
 sigma_u | 139.05116 
 sigma_e | 75.288894 
 rho | .77329633 (fraction of variance due to u_i) 
------------------------------------------------------------------------------ 
F test that all u_i=0: F(3, 74) = 67.11 Prob > F = 0.0000 
 
. predict fecross, u 
 
. list fecross 
 
 +-----------+ 
 | fecross | 
 |-----------| 
 1. | -171.9429 | 
 2. | -171.9429 | 
 3. | -171.9429 | 
 4. | -171.9429 | 
 5. | -171.9429 | 
 |-----------| 
 6. | -171.9429 | 
 7. | -171.9429 | 
 8. | -171.9429 | 
 9. | -171.9429 | 
 10. | -171.9429 | 
 |-----------| 
 11. | -171.9429 | 
 12. | -171.9429 | 
 13. | -171.9429 | 
 14. | -171.9429 | 
 15. | -171.9429 | 
 |-----------| 
 16. | -171.9429 | 
 17. | -171.9429 | 
 18. | -171.9429 | 
 19. | -171.9429 | 
 20. | -171.9429 | 
 |-----------| 
 21. | -10.37068 | 
 22. | -10.37068 | 
 23. | -10.37068 | 
 24. | -10.37068 | 
 25. | -10.37068 | 
 |-----------| 
 26. | -10.37068 | 
 27. | -10.37068 | 
 28. | -10.37068 | 
 29. | -10.37068 | 
 30. | -10.37068 | 
 |-----------| 
 31. | -10.37068 | 
 32. | -10.37068 | 
 33. | -10.37068 | 
 34. | -10.37068 | 
 35. | -10.37068 | 
 |-----------| 
 36. | -10.37068 | 
 37. | -10.37068 | 
 38. | -10.37068 | 
 39. | -10.37068 | 
 40. | -10.37068 | 
 |-----------| 
 41. | 167.6899 | 
 42. | 167.6899 | 
 43. | 167.6899 | 
 44. | 167.6899 | 
 45. | 167.6899 | 
 |-----------| 
 46. | 167.6899 | 
 47. | 167.6899 | 
 48. | 167.6899 | 
 49. | 167.6899 | 
 50. | 167.6899 | 
 |-----------| 
26 
 
 51. | 167.6899 | 
 52. | 167.6899 | 
 53. | 167.6899 | 
 54. | 167.6899 | 
 55. | 167.6899 | 
 |-----------| 
 56. | 167.6899 | 
 57. | 167.6899 | 
 58. | 167.6899 | 
 59. | 167.6899 | 
 60. | 167.6899 | 
 |-----------| 
 61. | 14.62365 | 
 62. | 14.62365 | 
 63. | 14.62365 | 
 64. | 14.62365 | 
 65. | 14.62365 | 
 |-----------| 
 66. | 14.62365 | 
 67. | 14.62365 | 
 68. | 14.62365 | 
 69. | 14.62365 | 
 70. | 14.62365 | 
 |-----------| 
 71. | 14.62365 | 
 72. | 14.62365 | 
 73. | 14.62365 | 
 74. | 14.62365 | 
 75. | 14.62365 | 
 |-----------| 
 76. | 14.62365 | 
 77. | 14.62365 | 
 78. | 14.62365 | 
 79. | 14.62365 | 
 80. | 14.62365 | 
 +-----------+ 
 
Verifica-se, portanto, que criar três dummies para ver qual o intercepto de cada 
empresa é o mesmo que regredir por efeitos fixos e somar o valor da constante gerada 
(-73,84946, neste caso) ao valor do termo de erro gerado para cada empresa e que, na 
verdade, pertence ao intercepto. Ou seja, para a empresa GE, temos o intercepto de -
73,84946 -171,9429 = -245,7923; para a empresa GM, temos o intercepto de -73,84946 
-10,37068 = -84,22014; para a empresa US, o intercepto é -73,84946 +167,6899 = 
93,8404; e, finalmente, para a empresa West, o intercepto é -73,84946 +14,62365 = -
59,22581. Estes resultados mostram que a empresa US é a mais agressiva em relação às 
demais no que se refere ao investimento bruto que independe de outras variáveis. 
 
2.b. Os coeficientes angulares são constantes, mas o intercepto varia ao longo do 
tempo: o modelo de regressão de efeitos fixos ou a variável binária de mínimos 
quadrados 
 
Assim como empregamos as variáveis binárias para dar conta do efeito 
individual (da empresa), podemos levar em consideração o efeito do tempo, no sentido 
de que a função de investimento de Grunfeld se desloca ao longo do tempo por causa de 
fatores como mudanças tecnológicas, alterações nas normas e/ou políticas fiscais e 
efeitos externos decorrentes de guerras e outros conflitos. Esses efeitos temporais 
podem ser facilmente levados em conta se introduzirmos variáveis binárias de tempo, 
uma para cada ano. Já que temos os dados para os 20 anos, que vão de 1935 a 1954, 
podemos introduzir 19 variáveis binárias temporais (pois se incluirmos as 20 variáveis 
binárias, devemos fazer a regressão sem constante para não cair na armadilha das 
variáveis binárias, gerando multicolinearidade perfeita) e reescrever o modelo (16.3.3) 
como 
 
 �2� = =� + =�r	J + =	r	K + ⋯ + =�srJ	 + 7���2� + 7	�	2� + �2� (16.3.6) 
 
em que r	J assume o valor 1 para a observação relativa ao ano de 1935 e 0 para os 
demais anos e assim por diante. Estamos tratando o ano de 1954 como o ano base, cujo 
valor do intercepto é dado por =�. 
Os resultados da regressão embasada em (16.3.6) são: 
 
. gen D35 = 1 
 
. replace D35 = 0 if periodo >= 1936 
(76 real changes made) 
e, assim, sucessivamente até 1953. 
 
. reg y D35 D36 D37 D38 D39 D40 D41 D42 D43 D44 D45 D46 D47 D48 D49 D50 D51 D52 D53 x2 
x3 
 
 Source | SS df MS Number of obs = 80 
-------------+------------------------------ F( 21, 58) = 9.27 
 Model | 4938658.06 21 235174.193 Prob > F = 0.0000 
 Residual | 1471488.98 58 25370.4997 R-squared = 0.7704 
-------------+------------------------------ Adj R-squared = 0.6873 
 Total | 6410147.04 79 81141.1018 Root MSE = 159.28 
 
------------------------------------------------------------------------------ 
27 
 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 D35 | 21.02495 129.7675 0.16 0.872 -238.7329 280.7828 
 D36 | -14.03424 133.1953 -0.11 0.916 -280.6535 252.5851 
 D37 | -58.41449 135.1823 -0.43 0.667 -329.0113 212.1823 
 D38 | -48.66584 126.5326 -0.38 0.702 -301.9483 204.6167 
 D39 | -96.80262 128.0009 -0.76 0.453 -353.0243 159.4191 
 D40 | -36.10807 129.116 -0.28 0.781 -294.5618 222.3457 
 D41 | 21.16647 127.7266 0.17 0.869 -234.5062 276.8391 
 D42 | 30.29937 124.1757 0.24 0.808 -218.2653 278.864 
 D43 | -12.76907 124.8506 -0.10 0.919 -262.6847 237.1466 
 D44 | -17.82782 125.6498 -0.14 0.888 -269.3431 233.6875 
 D45 | -38.96994 126.769-0.31 0.760 -292.7257 214.7858 
 D46 | 26.90836 125.7493 0.21 0.831 -224.8062 278.623 
 D47 | 27.81252 119.3515 0.23 0.817 -211.0954 266.7204 
 D48 | 26.05879 117.3271 0.22 0.825 -208.7969 260.9145 
 D49 | -28.65514 116.2965 -0.25 0.806 -261.4479 204.1376 
 D50 | -20.3938 115.8973 -0.18 0.861 -252.3874 211.5998 
 D51 | .9819593 116.2576 0.01 0.993 -231.733 233.6969 
 D52 | 21.96068 114.6821 0.19 0.849 -207.6005 251.5219 
 D53 | 39.43192 113.441 0.35 0.729 -187.6448 266.5087 
 x2 | .1159174 .01817 6.38 0.000 .0795462 .1522886 
 x3 | .2696593 .0833411 3.24 0.002 .1028339 .4364847 
 _cons | -56.33982 99.75287 -0.56 0.574 -256.0169 143.3373 
------------------------------------------------------------------------------ 
 
Verifica-se que nenhuma das variáveis binárias de tempo foi estatisticamente 
significativa individualmente. O valor de R2 de (16.3.6) foi de 0,7704, enquanto o de 
(16.3.1) foi de 0,7565, um aumento de apenas 0,0139. Com base no teste F restrito, 
verifica-se que esse incremento não é estatisticamente significativo, o que sugere que o 
efeito tempo não é significativo. Isso pode sugerir que a função investimento não muda 
muito ao longo do tempo. 
Teste F restrito 
H0: modelo restrito (16.3.1) 
H1: modelo irrestrito (16.3.6) 
No caso de variáveis dependentes diferentes nos dois modelos, utilizamos a 
estatística de teste 
# = (>?�t − >?�ut)/(� − 1)>?�ut/(�X − � − �) 
 
em que >?�t = soma de quadrados dos resíduos do modelo restrito >?�ut = soma de quadrados do modelo irrestrito 
n é o número de unidades de corte transversal 
t é o número de períodos de tempo 
k representa o número de variáveis explicativas, excluindo a constante. 
Se Fcalc > Fcrit, rejeita-se H0. 
 
No caso em que a variável dependente dos modelos restrito e irrestrito seja a 
mesma, o teste F pode tomar a seguinte forma, já que, neste caso, podemos comparar o 
coeficiente de determinação dos dois modelos 
# = (�ut� − �t�)/_(1 − �ut� )/(� − �) 
 
Cabe observar que �ut� > �t�, pois o coeficiente de determinação nunca diminui quando 
se acrescentam variáveis e, conseqüentemente, >?�t ≥ >?�ut . 
Neste caso das quatro empresas norte-americanas, em que a variável dependente 
é a mesma, temos que 
# = (�ut� − �t�)/_(1 − �ut� )/(� − �) =
(0,7704 − 0,7565)/3(1 − 0,7704)/(80 − 6) = 0,0139/30,2296/74 = 0,00463330,0031027= 1,4933 
28 
 
#	,|
;J% = 2,76 
Como Fcalc < Fcrit, não rejeita-se H0. Portanto, o modelo restrito é o verdadeiro 
modelo e o modelo irrestrito não é adequado, sugerindo que o efeito tempo não é 
significativo sobre os investimentos das empresas consideradas na amostra. 
Ainda, podemos fazer a regressão diretamente no Stata, modificando a ordem 
das variáveis de corte transversal e de série temporal, para que o Stata reconheça que ele 
deve calcular o efeito fixo na variável de tempo. Assim, deve-se setar iss para a variável 
de tempo e tis para a variável cross-section. Abaixo, seguem os resultados. 
 
. iis periodo 
 
. tis empresa 
 
. xtreg y x2 x3, fe 
 
Fixed-effects (within) regression Number of obs = 80 
Group variable: periodo Number of groups = 20 
 
R-sq: within = 0.7273 Obs per group: min = 4 
 between = 0.9080 avg = 4.0 
 overall = 0.7552 max = 4 
 
 F(2,58) = 77.36 
corr(u_i, Xb) = 0.0966 Prob > F = 0.0000 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x2 | .1159174 .01817 6.38 0.000 .0795462 .1522886 
 x3 | .2696593 .0833411 3.24 0.002 .1028339 .4364847 
 _cons | -64.18962 34.16507 -1.88 0.065 -132.5784 4.199206 
-------------+---------------------------------------------------------------- 
 sigma_u | 36.040313 
 sigma_e | 159.2812 
 rho | .04870391 (fraction of variance due to u_i) 
------------------------------------------------------------------------------ 
F test that all u_i=0: F(19, 58) = 0.19 Prob > F = 0.9999 
 
. predict fetime, u 
(4 missing values generated) 
 
. list fetime 
 
 
 +-----------+ 
 | fetime | 
 |-----------| 
 1. | 28.87476 | 
 2. | -6.184439 | 
 3. | -50.56469 | 
 4. | -40.81604 | 
 5. | -88.95282 | 
 |-----------| 
 6. | -28.25827 | 
 7. | 29.01627 | 
 8. | 38.14917 | 
 9. | -4.919267 | 
 10. | -9.978021 | 
 |-----------| 
 11. | -31.12014 | 
 12. | 34.75816 | 
 13. | 35.66232 | 
 14. | 33.90859 | 
 15. | -20.80534 | 
 |-----------| 
 16. | -12.544 | 
 17. | 8.831759 | 
 18. | 29.81048 | 
 19. | 47.28172 | 
 20. | 7.849801 | 
 |-----------| 
 21. | 28.87476 | 
 22. | -6.184439 | 
 23. | -50.56469 | 
 24. | -40.81604 | 
 25. | -88.95282 | 
 |-----------| 
 26. | -28.25827 | 
 27. | 29.01627 | 
 28. | 38.14917 | 
 29. | -4.919267 | 
 30. | -9.978021 | 
 |-----------| 
 31. | -31.12014 | 
 32. | 34.75816 | 
 33. | 35.66232 | 
 34. | 33.90859 | 
 35. | -20.80534 | 
 |-----------| 
 36. | -12.544 | 
 37. | 8.831759 | 
 38. | 29.81048 | 
 39. | 47.28172 | 
 40. | 7.849801 | 
 |-----------| 
 41. | 28.87476 | 
 42. | -6.184439 | 
 43. | -50.56469 | 
 44. | -40.81604 | 
 45. | -88.95282 | 
 |-----------| 
 46. | -28.25827 | 
 47. | 29.01627 | 
 48. | 38.14917 | 
 49. | -4.919267 | 
 50. | -9.978021 | 
 |-----------| 
 51. | -31.12014 | 
 52. | 34.75816 | 
 53. | 35.66232 | 
 54. | 33.90859 | 
 55. | -20.80534 | 
 |-----------| 
 56. | -12.544 | 
 57. | 8.831759 | 
 58. | 29.81048 | 
 59. | 47.28172 | 
 60. | 7.849801 | 
 |-----------| 
 61. | 28.87476 | 
 62. | -6.184439 | 
 63. | -50.56469 | 
 64. | -40.81604 | 
 65. | -88.95282 | 
 |-----------| 
 66. | -28.25827 | 
 67. | 29.01627 | 
 68. | 38.14917 | 
 69. | -4.919267 | 
 70. | -9.978021 | 
 |-----------| 
 71. | -31.12014 | 
 72. | 34.75816 | 
 73. | 35.66232 | 
 74. | 33.90859 | 
 75. | -20.80534 | 
 |-----------| 
 76. | -12.544 | 
 77. | 8.831759 | 
 78. | 29.81048 | 
 79. | 47.28172 | 
 80. | 7.849801 | 
 |-----------| 
 
29 
 
Assim, para calcularmos o intercepto para cada ano, podemos proceder de duas 
formas: 1. se criamos as 19 dummies, somamos a constante a cada um dos coeficientes 
da dummy de cada ano, ou seja, para 1935, temos -56,33982 +21,02495 = -35,31487; 
para 1936, o intercepto é -56,33982 -14,03424 = 70,37406; e assim sucessivamente para 
todos os anos da série; ou, 2. a partir do modelo rodado por efeitos fixos na variável de 
tempo, somamos a constante a cada um dos fetime gerado para cada ano (os fetime são, 
na verdade, o valor do coeficiente da dummy que seria gerado se rodássemos por 
MQVD) . Assim, para 1935, o intercepto é -64,18962 +28,87476 = -35,31486; para 
1936, o intercepto é -64,18962 -6,184439 = 70,374059, e assim sucessivamente para 
todos os anos da série. Observemos que tanto por meio da criação de dummies como 
regredindo por efeitos fixos na variável de tempo, os resultados são os mesmos, como é 
de se esperar. 
 
3. Os coeficientes angulares são constantes, mas o intercepto varia com os 
indivíduos e com o tempo

Outros materiais