Buscar

GUJARATI USANDO STATA

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 50 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 50 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 50 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

GUJARATI USANDO STATA 
Por: GEÁSI MORAIS 
 
 
 
 
 
Este manual foi desenvolvido no intuito de auxiliar os estudantes de graduação que estão 
cursando a disciplina econometria. Todas as rotinas aqui expostas acompanham os procedimentos do 
livro Econometria Básica do autor Damodar N. Gujarati, usando o Software Stata 11. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Estimação da função consumo (I.3.3) com dados da tabela I.1 
 
reg y x 
 
 Source | SS df MS Number of obs = 15 
-------------+------------------------------ F( 1, 13) = 8144.59 
 Model | 3351406.23 1 3351406.23 Prob > F = 0.0000 
 Residual | 5349.35306 13 411.488697 R-squared = 0.9984 
-------------+------------------------------ Adj R-squared = 0.9983 
 Total | 3356755.58 14 239768.256 Root MSE = 20.285 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | .706408 .0078275 90.25 0.000 .6894978 .7233182 
 _cons | -184.0779 46.26183 -3.98 0.002 -284.0205 -84.13525 
------------------------------------------------------------------------------ 
 
 
Estimação da regressão 3.6.1 
A regressão 3.6.1 é estimada com dados da tabela 3.2 
 
 
reg y x 
 
 Source | SS df MS Number of obs = 10 
-------------+------------------------------ F( 1, 8) = 202.87 
 Model | 8552.72727 1 8552.72727 Prob > F = 0.0000 
 Residual | 337.272727 8 42.1590909 R-squared = 0.9621 
-------------+------------------------------ Adj R-squared = 0.9573 
 Total | 8890 9 987.777778 Root MSE = 6.493 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | .5090909 .0357428 14.24 0.000 .4266678 .591514 
 _cons | 24.45455 6.413817 3.81 0.005 9.664256 39.24483 
------------------------------------------------------------------------------ 
 
A covariância de beta 1 e beta 2 é obtida por meio da matriz de variância e covariância (var-cov): 
. mat a = e(V) 
 
. mat list a 
 
 
symmetric a[2,2] 
 x _cons 
 x .00127755 
_cons -.2171832 41.137052 
 
Onde os elementos da diagonal principal são as variância de beta 1 (variância do termo de 
intercepto, a constante) e a variância de beta 2 (a variância do coeficiente de x, o coeficiente angular). 
Os outros elementos fora da diagonal principal são as covariâncias, no nosso caso, a covariância 
de beta1 e beta2. 
 
 
A equação 3.7.1, estimada a partir dos dados da tabela 3.4 é dada por: 
 
reg y x 
 
 Source | SS df MS Number of obs = 11 
-------------+------------------------------ F( 1, 9) = 17.69 
 Model | .29297476 1 .29297476 Prob > F = 0.0023 
 Residual | .1490797 9 .016564411 R-squared = 0.6628 
-------------+------------------------------ Adj R-squared = 0.6253 
 Total | .44205446 10 .044205446 Root MSE = .1287 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | -.479529 .1140218 -4.21 0.002 -.7374642 -.2215939 
 _cons | 2.691124 .1216225 22.13 0.000 2.415995 2.966253 
------------------------------------------------------------------------------ 
 
 
. mat a = e(V) 
 
. mat list a 
 
symmetric a[2,2] 
 x _cons 
 x .01300097 
_cons -.01314279 .01479203 
 
 
 
Estimação da equação 3.7.2 a partir dos dados da tabela I.1 
 
reg y x 
 
 Source | SS df MS Number of obs = 15 
-------------+------------------------------ F( 1, 13) = 8144.59 
 Model | 3351406.23 1 3351406.23 Prob > F = 0.0000 
 Residual | 5349.35306 13 411.488697 R-squared = 0.9984 
-------------+------------------------------ Adj R-squared = 0.9983 
 Total | 3356755.58 14 239768.256 Root MSE = 20.285 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | .706408 .0078275 90.25 0.000 .6894978 .7233182 
 _cons | -184.0779 46.26183 -3.98 0.002 -284.0205 -84.13525 
------------------------------------------------------------------------------ 
 
 
 
 
 
O teste t da equação 5.7.4 
 
Sabemos que a equação do consumo-renda é: 
 
reg y x 
 
 Source | SS df MS Number of obs = 10 
-------------+------------------------------ F( 1, 8) = 202.87 
 Model | 8552.72727 1 8552.72727 Prob > F = 0.0000 
 Residual | 337.272727 8 42.1590909 R-squared = 0.9621 
-------------+------------------------------ Adj R-squared = 0.9573 
 Total | 8890 9 987.777778 Root MSE = 6.493 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | .5090909 .0357428 14.24 0.000 .4266678 .591514 
 _cons | 24.45455 6.413817 3.81 0.005 9.664256 39.24483 
------------------------------------------------------------------------------ 
 
Para testar a hipótese que beta2 é igual a 0.3 basta digitar o comando: 
 
test x=0.3 
 
 ( 1) x = .3 
 
 F( 1, 8) = 34.22 
 Prob > F = 0.0004 
 
 
Na saída temos que o valor de F=34.22. Porém sabemos a raiz quadra do valor de F numa 
regressão simples é igual a t. 
Assim t=raiz de 34.22=5.85 
 
 
 
A tabela ANOVA 5.4 do exemplo consumo-renda pode ser obtida pela mesma saída da 
regressão: 
 
 
reg y x 
 
 Source | SS df MS Number of obs = 10 
-------------+------------------------------ F( 1, 8) = 202.87 
 Model | 8552.72727 1 8552.72727 Prob > F = 0.0000 
 Residual | 337.272727 8 42.1590909 R-squared = 0.9621 
-------------+------------------------------ Adj R-squared = 0.9573 
 Total | 8890 9 987.777778 Root MSE = 6.493 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | .5090909 .0357428 14.24 0.000 .4266678 .591514 
 _cons | 24.45455 6.413817 3.81 0.005 9.664256 39.24483 
------------------------------------------------------------------------------ 
 
 
 
Regressão 5.12.2 usandoa tabela 7.2 
 
reg despalim desptot 
 
 Source | SS df MS Number of obs = 55 
-------------+------------------------------ F( 1, 53) = 31.10 
 Model | 139022.82 1 139022.82 Prob > F = 0.0000 
 Residual | 236893.616 53 4469.69087 R-squared = 0.3698 
-------------+------------------------------ Adj R-squared = 0.3579 
 Total | 375916.436 54 6961.41549 Root MSE = 66.856 
 
------------------------------------------------------------------------------ 
 despalim | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 desptot | .4368088 .0783226 5.58 0.000 .2797135 .593904 
 _cons | 94.20878 50.85635 1.85 0.070 -7.796134 196.2137 
------------------------------------------------------------------------------ 
 
No mesmo exemplo é testado a hipótese de que o verdadeiro beta2 seja igual a 0.5: 
 
H0: beta 2=0.5 
 
test desptot=0.5 
 
 ( 1) desptot = .5 
 
 F( 1, 53) = 0.65 
 Prob > F = 0.4234 
 
Pelo teste F (t^2) não a hipótese H0 não é rejeitada, ou seja, o verdadeiro beta2 é igual a 0.5. 
 
 
Logo em seguida é feito o teste Jarque Bera de Normalidade dos termos de erro: 
 
H0: os termos de erro tem distribuição normal: 
 
Para teste esta hipótese é preciso primeiro gerar os resíduos da regressão acima. 
O comando para gerar os resíduos é: 
 
predict residuos, r 
A palavra resíduos pode ser substituída por qualquer outro nome que você queira dar para o 
série de resíduos 
O comando para fazer o teste Jarque Bera é: 
 
jb6 residuos 
Jarque-Bera normality test: .2576 Chi(2) .8792 
Jarque-Bera test for Ho: normality: (residuos) 
 
 
O valor da estatística JB é 0.2576 e a probabilidade de obter esse número é aproximadamente 
88%, o que nos leva a não rejeitar a hipótese H0 de normalidade dos termos de erro. 
 
No livro também tem a média dos resíduos e outras medidas, a síntese do comando no Stata 
para isso é summarize ou simplesmente sum. 
 
sum 
 
 Variable | Obs Mean Std. Dev. Min Max 
-------------+-------------------------------------------------------- 
 despalim | 55 373.3455 83.4351 196 610 
 desptot | 55 639.0364 116.1595 382 801 
 residuos | 55 1.76e-07 66.23382 -153.7664 171.5859 
 
 
desse modo, obtemos o número de observações, a media, o desvio padrão, o mínimo e o 
máximo e todas as variáveis que temos. 
 
Para obter essas medidas de uma variável especifica basta digitar o nome da variável depois do 
comando sum. 
 
sum residuos 
 
 Variable | Obs Mean Std. Dev. Min Max 
-------------+-------------------------------------------------------- 
 residuos | 55 1.76e-07 66.23382 -153.7664 171.5859 
 
 
 
Estimação da equação 6.1.12 com base nos dados da tabela 6.1 
 
reg y x, noconst 
 
 Source | SS df MS Number of obs = 10 
-------------+------------------------------ F( 1, 9) = 32.38 
 Model | 12364.2629 1 12364.2629 Prob > F = 0.0003 
 Residual | 3437.14716 9 381.90524 R-squared = 0.7825 
-------------+------------------------------ Adj R-squared = 0.7583 
 Total | 15801.4101 10 1580.14101 Root MSE = 19.542 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | 1.089912 .1915512 5.69 0.000 .6565926 1.523231 
------------------------------------------------------------------------------ 
 
A única diferença no comando para fazer a regressão sem intercepto é o acréscimo de uma 
virgula e a palavra noconst. 
 
A regressão com intercepto é: 
 
reg y x 
 
 Source | SS df MS Number of obs = 10 
-------------+------------------------------ F( 1, 8) = 20.12 
 Model | 8616.40362 1 8616.40362 Prob > F = 0.0020 
 Residual | 3425.2855 8 428.160687 R-squared = 0.7155 
-------------+------------------------------ Adj R-squared = 0.6800 
 Total | 12041.6891 9 1337.96546 Root MSE = 20.692 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | 1.069084 .2383154 4.49 0.002 .5195275 1.61864 
 _cons | 1.279718 7.68856 0.17 0.872 -16.45013 19.00957 
------------------------------------------------------------------------------ 
 
 
Estimação da regressão 6.5.5 com base nos dados da tabela 6.3 
 
Para estimar a regressão 6.5.5 que é um modelo log-log (ou log-linear), temos que primeiro 
transforma as variáveis para ln (logaritmo natural). O comando no Stata é: 
 
gen lndespalim = ln(despalim) 
 
gen lndesptot = ln(desptot) 
 
O comando acima está logaritmizando as variáveis, isto pode ser feito numa planilha do Excel 
antes de por os dados no Stata. O comanda gen significa que eu vou gerar uma nova variável através de 
uma operação matemática. A palavra lndespalim é o nome da nova variável pode ser qualquer outro. E 
o lado direito da igualdade é a operação em si, ln(despalim) significa que estou tirando o logaritmo 
natural da variável despalim. O mesmo raciocino para a variável desptot. 
 
Depois de gerara as variáveis podemos rodar a regressão: 
 
 
reg lndespalim lndesptot 
 
 Source | SS df MS Number of obs = 55 
-------------+------------------------------ F( 1, 53) = 37.21 
 Model | 1.16070799 1 1.16070799 Prob > F = 0.0000 
 Residual | 1.65334333 53 .031195157 R-squared = 0.4125 
-------------+------------------------------ Adj R-squared = 0.4014 
 Total | 2.81405132 54 .052112062 Root MSE = .17662 
 
------------------------------------------------------------------------------ 
 lndespalim | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 lndesptot | .7363261 .1207125 6.10 0.000 .4942075 .9784448 
 _cons | 1.154333 .777959 1.48 0.144 -.4060553 2.714721 
------------------------------------------------------------------------------ 
 
 
 
Estimação da regressão 6.7.2 com base nos dados da tabela 6.4 
 
Do mesmo modo que geramos a variável no modelo log-log, temos que gerar a variável inversa 
no modelo reciproco: 
 
gen inverpnb = 1/pnb 
 
onde inverpnb é nome que queremos dar pra variável que será gerada e 1/pnb é a operação que 
vai gera a nova variável, ou seja a inversa do PNB. 
Depois basta fazer a regressão normalmente: 
 
reg mi inverpnb 
 
 Source | SS df MS Number of obs = 64 
-------------+------------------------------ F( 1, 62) = 52.61 
 Model | 166946.595 1 166946.595 Prob > F = 0.0000 
 Residual | 196731.405 62 3173.08717 R-squared = 0.4591 
-------------+------------------------------ Adj R-squared = 0.4503 
 Total | 36367863 5772.66667 Root MSE = 56.33 
 
------------------------------------------------------------------------------ 
 mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 inverpnb | 27273.16 3759.999 7.25 0.000 19757.03 34789.3 
 _cons | 81.79436 10.83206 7.55 0.000 60.14138 103.4473 
------------------------------------------------------------------------------ 
 
 
 
Estimação da regressão 6.7.5 com base nos dados da tabela 6.5 
 
Primeiro você observa que o lado esquerdo da equação, a variável dependente esta em primeira 
diferença, assim é preciso criar essa variável no Stata. Porém para criar uma variável em primeira 
diferença o Stata precisa saber que estamos trabalhando com uma série temporal. O comando para 
declara que estamos trabalhando com uma serie temporal é: 
 
 
tsset ano, yearly 
 time variable: ano, 1960 to 1998 
 delta: 1 year 
 
 
 
ou basta clicar em Statistic , Time serie, Setup na utilities, Declare dataset to be data-serie 
data. 
Depois basta selecionar a variável que representa a série temporal, no nosso caso é ano (Time 
variable) e escolher a optação anualmente (Yearly) e clicar em OK. 
 
Agora que o Stata sabe que estamos trabalhando com serie temporal temos que criar uma 
variável em primeira diferença para a taxa de inflação. 
 
O comando é: 
gen deltapi = pi-l1.pi 
(1 missing value generated) 
 
 
O lado esquerdo da igualdade nos diz que estamos gerando uma nova variável com nome 
deltapi, que pode ser qualquer outro. O lado esquerdo da igualdade nos diz que estamos subtraindo 
de pi a sua primeira defasagem, ou seja pi do período anterior, representado por L1.pi, o L1 significa a 
primeira defasagem de uma variável, no caso de pi. 
 
Agora que temos a variável em primeira diferença deltapi, podemos rodar a regressão como 
temos feito até agora: 
 
reg deltapi un 
 
 Source | SS df MS Number of obs = 38 
-------------+------------------------------ F( 1, 36) = 16.56 
 Model | 39.0574389 1 39.0574389 Prob > F = 0.0002 
 Residual | 84.9123 36 2.358675 R-squared = 0.3151 
-------------+------------------------------ Adj R-squared = 0.2960 
 Total | 123.969739 37 3.35053348 Root MSE = 1.5358 
 
------------------------------------------------------------------------------ 
 deltapi | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 un | -.6895286 .1694472 -4.07 0.000 -1.033183 -.3458737 
 _cons | 4.178089 1.057162 3.95 0.000 2.034066 6.322112 
------------------------------------------------------------------------------ 
 
 
Para a regressão 6.7.6 com base nos dados da tabela 6.5, basta gera a variável inversa da taxa 
desemprego (inverso de UN): 
 
gen inversoun = 1/un 
 
como já temos a primeira diferença da taxa de inflação, podemos rodar a regressão: 
 
 
 
 
reg deltapi inversoun 
 
 Source | SS df MS Number of obs = 38 
-------------+------------------------------ F( 1, 36) = 9.38 
 Model | 25.6226535 1 25.6226535 Prob > F = 0.0041 
 Residual | 98.3470854 36 2.73186348 R-squared = 0.2067 
-------------+------------------------------ Adj R-squared = 0.1846 
 Total | 123.969739 37 3.35053348 Root MSE = 1.6528 
 
------------------------------------------------------------------------------ 
 deltapi | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 inversoun | 18.55085 6.05733 3.06 0.004 6.266015 30.83568 
 _cons | -3.25137 1.094158 -2.97 0.005 -5.470425 -1.032316 
------------------------------------------------------------------------------ 
 
 
 
Estimação da regressão 7.3.1 com base nos dados da tabela 6.4 
 
 
reg mi taf 
 
 Source | SS df MS Number of obs = 64 
-------------+------------------------------ F( 1, 62) = 125.65 
 Model | 243515.049 1 243515.049 Prob > F = 0.0000 
 Residual | 120162.951 62 1938.11211 R-squared = 0.6696 
-------------+------------------------------ Adj R-squared = 0.6643 
 Total | 363678 63 5772.66667 Root MSE = 44.024 
 
------------------------------------------------------------------------------ 
 mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 taf | -2.390496 .2132625 -11.21 0.000 -2.816802 -1.96419 
 _cons | 263.8635 12.22499 21.58 0.000 239.4261 288.3009 
------------------------------------------------------------------------------ 
 
Depois de rodar a regressão 7.3.1 é necessário gerar uma série com seus resíduos para podemos 
estimar a regressão 7.3.5. Os resíduos é gerado pelo comando: 
 
predict u1, r 
 
observe que foi crida uma nova coluna na planilha do Stata, com os resíduos. O nome que da 
série de resíduos é u1 que pode ser qualquer outro. 
 
 
Agora vamos gerar a regressão 7.3.1 com os mesmos dado da regressão anterior é salvar seus 
resíduos para posteriormente rodarmos a regressão 7.3.5: 
 
reg pnb taf 
 
 Source | SS df MS Number of obs = 64 
-------------+------------------------------ F( 1, 62) = 4.82 
 Model | 33750527.5 1 33750527.5 Prob > F = 0.0319 
 Residual | 434302773 62 7004883.43 R-squared = 0.0721 
-------------+------------------------------ Adj R-squared = 0.0571 
 Total | 468053300 63 7429417.46 Root MSE = 2646.7 
 
------------------------------------------------------------------------------ 
 pnb | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 taf | 28.14268 12.82111 2.20 0.032 2.513646 53.77171 
 _cons | -39.30328 734.9526 -0.05 0.958 -1508.453 1429.846 
------------------------------------------------------------------------------ 
 
 
Os resíduos: 
 
predict u2, r 
 
como anteriormente u2 é o nome da serie de resíduos da regressão 7.3.2, que pode ser 
qualquer outro. 
 
 
Agora que estamos de posse dos resíduos das duas regressões podemos rodar a regressão 7.3.5: 
 
 
reg u1 u2, noconst 
 
 Source | SS df MS Number of obs = 64 
-------------+------------------------------ F( 1, 63) = 8.21 
 Model | 13847.3245 1 13847.3245 Prob > F = 0.0057 
 Residual | 106315.625 63 1687.54961 R-squared = 0.1152 
-------------+------------------------------ Adj R-squared = 0.1012 
 Total | 120162.95 64 1877.54609 Root MSE = 41.08 
 
------------------------------------------------------------------------------ 
 u1 | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 u2 | -.0056466 .0019712 -2.86 0.006 -.0095857 -.0017075 
------------------------------------------------------------------------------Observe que a regressão dos resíduos é sem o intercepto (noconst). 
 
 
Estimação da regressão 7.6.2 com base nos dados da tabela 6.4: 
O procedimento para estima uma regressão múltipla é o mesmo para regressão simples, basta 
acrescentar a nova variável no modelo: 
 
reg mi pnb taf 
 
 Source | SS df MS Number of obs = 64 
-------------+------------------------------ F( 2, 61) = 73.83 
 Model | 257362.373 2 128681.187 Prob > F = 0.0000 
 Residual | 106315.627 61 1742.87913 R-squared = 0.7077 
-------------+------------------------------ Adj R-squared = 0.6981 
 Total | 363678 63 5772.66667 Root MSE = 41.748 
 
------------------------------------------------------------------------------ 
 mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 pnb | -.0056466 .0020033 -2.82 0.006 -.0096524 -.0016408 
 taf | -2.231586 .2099472 -10.63 0.000 -2.651401 -1.81177 
 _cons | 263.6416 11.59318 22.74 0.000 240.4596 286.8236 
------------------------------------------------------------------------------ 
 
 
 
Estimação das regressões 7.8.8 e 7.8.9 com base nos dados da tabela 7.1 
 
 
7.8.8 
. reg y x 
 
 Source | SS df MS Number of obs = 11 
-------------+------------------------------ F( 1, 9) = 17.69 
 Model | .29297476 1 .29297476 Prob > F = 0.0023 
 Residual | .1490797 9 .016564411 R-squared = 0.6628 
-------------+------------------------------ Adj R-squared = 0.6253 
 Total | .44205446 10 .044205446 Root MSE = .1287 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | -.479529 .1140218 -4.21 0.002 -.7374642 -.2215939 
 _cons | 2.691124 .1216225 22.13 0.000 2.415995 2.966253 
------------------------------------------------------------------------------ 
 
 
7.8.9 
 
. gen lny = ln(y) 
 
. gen lnx = ln(x) 
 
. reg lny lnx 
 
 Source | SS df MS Number of obs = 11 
-------------+------------------------------ F( 1, 9) = 26.27 
 Model | .066054476 1 .066054476 Prob > F = 0.0006 
 Residual | .02263302 9 .00251478 R-squared = 0.7448 
-------------+------------------------------ Adj R-squared = 0.7164 
 Total | .088687496 10 .00886875 Root MSE = .05015 
 
------------------------------------------------------------------------------ 
 lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 lnx | -.2530461 .049374 -5.13 0.001 -.3647379 -.1413543 
 _cons | .7774176 .0152421 51.00 0.000 .7429375 .8118977 
------------------------------------------------------------------------------ 
 
 
Estimação da regressão 7.9.4 com base nos dados da tabela 7.3 
 
gen lny = ln(y) 
 
. gen lnx2 = ln(x2) 
 
. gen lnx3 = ln(x3) 
 
. reg lny lnx2 lnx3 
 
 Source | SS df MS Number of obs = 15 
-------------+------------------------------ F( 2, 12) = 48.07 
 Model | .538038027 2 .269019013 Prob > F = 0.0000 
 Residual | .067158351 12 .005596529 R-squared = 0.8890 
-------------+------------------------------ Adj R-squared = 0.8705 
 Total | .605196377 14 .043228313 Root MSE = .07481 
 
------------------------------------------------------------------------------ 
 lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 lnx2 | 1.498767 .5398018 2.78 0.017 .3226405 2.674894 
 lnx3 | .4898585 .1020435 4.80 0.000 .2675249 .7121922 
 _cons | -3.338459 2.449504 -1.36 0.198 -8.675471 1.998552 
------------------------------------------------------------------------------ 
 
 
 
 
Estimação da regressão 7.10.6 com base nos dados da tabela 7.4 
 
Para estimamos essa regressão temos primeiro que gerar as variáveis x2 e x3. No Stata o 
procedimento é: 
 
. gen x2 = x^2 
 
. gen x3 = x^3 
 
 
One x2 e x3 são os nomes das variáveis x2 e x3, que pode ser qualquer outro. 
 
Depois de gerada as variáveis podemos rodar o modelo normalmente: 
 
reg y x x2 x3 
 
 Source | SS df MS Number of obs = 10 
-------------+------------------------------ F( 3, 6) = 1202.22 
 Model | 38918.1562 3 12972.7187 Prob > F = 0.0000 
 Residual | 64.7438228 6 10.7906371 R-squared = 0.9983 
-------------+------------------------------ Adj R-squared = 0.9975 
 Total | 38982.9 9 4331.43333 Root MSE = 3.2849 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | 63.47766 4.778607 13.28 0.000 51.78483 75.17049 
 x2 | -12.96154 .9856646 -13.15 0.000 -15.37337 -10.5497 
 x3 | .9395882 .0591056 15.90 0.000 .794962 1.084214 
 _cons | 141.7667 6.375322 22.24 0.000 126.1668 157.3665 
------------------------------------------------------------------------------ 
 
 
Estimação da regressão 8.2.1 com base nos dados da tabela 6.4 
 
 
reg mi pnb taf 
 
 Source | SS df MS Number of obs = 64 
-------------+------------------------------ F( 2, 61) = 73.83 
 Model | 257362.373 2 128681.187 Prob > F = 0.0000 
 Residual | 106315.627 61 1742.87913 R-squared = 0.7077 
-------------+------------------------------ Adj R-squared = 0.6981 
 Total | 363678 63 5772.66667 Root MSE = 41.748 
 
------------------------------------------------------------------------------ 
 mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 pnb | -.0056466 .0020033 -2.82 0.006 -.0096524 -.0016408 
 taf | -2.231586 .2099472 -10.63 0.000 -2.651401 -1.81177 
 _cons | 263.6416 11.59318 22.74 0.000 240.4596 286.8236 
------------------------------------------------------------------------------ 
 
 
Fazendo o teste t (equação 8.4.1) 
 
test pnb=0 
 
 ( 1) pnb = 0 
 
 F( 1, 61) = 7.95 
 Prob > F = 0.0065 
 
 
Na saída temos o favor F=7.95, que é igual a t^2=(-2.8187)^2 
 
Fazendo o teste Jarque Bera de normalidade dos resíduos. 
Primeiro temos que gerar a series de resíduos: 
 
predict resid, r 
onde resid, é o nome da série de resíduos que vamos gerar, pode ser qualquer outro. 
A hipótese H0: os erros tem distribuição normal 
 
. jb6 resid 
Jarque-Bera normality test: .5594 Chi(2) .756 
Jarque-Bera test for Ho: normality:(resid) 
 
Pelo valor da probabilidade, 0.756, não podemos rejeitar a hipótese H0 de normalidade dos 
temos de erro. 
 
 
A tabela ANOVA 8.3 também pode ser vista na saída da regressão: 
 
reg mi pnb taf 
 
 Source | SS df MS Number of obs = 64 
-------------+------------------------------ F( 2, 61) = 73.83 
 Model | 257362.373 2 128681.187 Prob > F = 0.0000 
 Residual | 106315.627 61 1742.87913 R-squared = 0.7077 
-------------+------------------------------ Adj R-squared = 0.6981 
 Total | 363678 63 5772.66667 Root MSE = 41.748 
 
------------------------------------------------------------------------------ 
 mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 pnb | -.0056466 .0020033 -2.82 0.006 -.0096524 -.0016408 
 taf | -2.231586 .2099472 -10.63 0.000 -2.651401 -1.81177 
 _cons | 263.6416 11.59318 22.74 0.000 240.4596 286.8236 
------------------------------------------------------------------------------ 
 
 
Fazendo o teste de igualdade de coeficiente da equação 8.6.6 
 
Primeiro, temos que fazer a regressão 7.10.6 e obter os betas, as variâncias dos betas e a 
covariância dos betas. 
 
 
. gen x2=x^2 
 
. gen x3=x^3 
 
. reg y x x2 x3 
 
 Source | SS df MS Number of obs = 10 
-------------+------------------------------ F( 3, 6) = 1202.22 
 Model | 38918.1562 3 12972.7187 Prob > F = 0.0000 
 Residual | 64.7438228 6 10.7906371 R-squared = 0.9983 
-------------+------------------------------ Adj R-squared = 0.9975 
 Total | 38982.9 9 4331.43333 Root MSE = 3.2849 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | 63.47766 4.778607 13.28 0.000 51.78483 75.17049 
 x2 | -12.96154 .9856646 -13.15 0.000 -15.37337 -10.5497 
 x3 | .9395882 .0591056 15.90 0.000 .794962 1.084214 
 _cons | 141.7667 6.375322 22.24 0.000 126.1668 157.3665 
------------------------------------------------------------------------------ 
 
 
A matriz de variância e covariância é dada por: 
 
mat a = e(V) 
mat list a 
 
symmetric a[4,4] 
 x x2 x3 _cons 
 x 22.835081 
 x2 -4.6113834 .97153464 
 x3 .26585324 -.05764229 .00349347 
_cons -28.475292 5.3953186 -.29973992 40.644733 
 
Observe que a diagonal principal da matriz é a variância dos betas e o restante as covariâncias. 
Desse modo basta pegar os valores e substituir na formula do teste t de igualdade de coeficiente. Ou 
fazer o teste diretamente no Stata. O comando é: 
 
test x2=x3 
 
 ( 1) x2 - x3 = 0 
 
 F( 1, 6) = 177.23 
 Prob > F = 0.0000 
 
Como o valor da probabilidade é igual a zero, isso nos leva a rejeitar a hipótese nula de 
igualdade entre os coeficiente de x2 e x3. Observe que o valor F é igual a t^2. 
 
 
Teste F da equação 8.7.10 
 
Esse teste é para escolha entre duas regressões: uma com restrição (8.7.24) e outra 
irrestrita(8.7.23). observe que a equação com restrição é igual a equação sem restrição quando os 
coeficiente de lnx4 e lnx5 são iguais a zero. Desse modo basta fazer um teste que nos diga se lnx4 e lnx5 
é igual a zero. Se for igual a zero é óbvio que o modelo restrito é melhor e se for diferente de zero o 
modelo irrestrito é melhor. 
 
Desse modo, primeiro rodamos a regressão completa. 
 
 
. gen lny=ln(y) 
 
. gen lnx2=ln(x2) 
 
. gen lnx3=ln(x3) 
 
. gen lnx4=ln(x4) 
 
. gen lnx5=ln(x5) 
 
. reg lny lnx2 lnx3 lnx4 lnx5 
 
 Source | SS df MS Number of obs = 23 
-------------+------------------------------ F( 4, 18) = 249.93 
 Model | .761050242 4 .190262561 Prob > F = 0.0000 
 Residual | .013702848 18 .000761269 R-squared = 0.9823 
-------------+------------------------------ Adj R-squared = 0.9784 
 Total | .77475309 22 .03521605 Root MSE = .02759 
 
------------------------------------------------------------------------------ 
 lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 lnx2 | .3425546 .0832663 4.11 0.001 .1676186 .5174907 
 lnx3 | -.5045934 .1108943 -4.55 0.000 -.7375737 -.2716132 
 lnx4 | .1485461 .0996726 1.49 0.153 -.0608583 .3579505 
 lnx5 | .0911056 .1007164 0.90 0.378 -.1204917 .302703 
 _cons | 2.189793 .1557149 14.06 0.000 1.862648 2.516938 
------------------------------------------------------------------------------ 
 
 
Agora, fazemos o teste para verificar se o coeficiente de lnx4 e lnx5 é igual a zero. 
A hipótese nula é: 
H0: beta de lnx4= beta de lnx5=0 
 
test lnx4=lnx5=0 
 
 ( 1) lnx4 - lnx5 = 0 
 ( 2) lnx4 = 0 
 
 F( 2, 18) = 1.14 
 Prob > F = 0.3421 
 
 
O valo F=1.12, com probabilidade 0.3421, nos leva a não rejeitar a hipótese H0. Ou seja, os 
coeficientes de lnx4 e lnx5 são iguais a zero. Desse modo o modelo no qual essas variáveis são excluídas 
é melhor (regressão 8.7.24). 
 
 
Exemplo 8.5, teste MWD 
 
TESTE MWD 
H0: Modelo linear 
H1: modelo log-log 
Etapas: 
I. Estimação do modelo linear e obtenção dos valores estimados de Y (yf). 
 
reg y x2 x3 
 
 Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 2, 13) = 21.84 
 Model | 48239727.6 2 24119863.8 Prob > F = 0.0001 
 Residual | 14356628.4 13 1104356.03 R-squared = 0.7706 
-------------+------------------------------ Adj R-squared = 0.7354 
 Total | 62596356 15 4173090.4 Root MSE = 1050.9 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x2 | -3782.196 572.4548 -6.61 0.000 -5018.909 -2545.482 
 x3 | 2815.251 947.5113 2.97 0.011 768.2777 4862.225 
 _cons | 9734.218 2888.06 3.37 0.005 3494.944 15973.49 
------------------------------------------------------------------------------ 
 
Para obter os valores do y estimado, o comando é semelhante ao que usamos para obter 
os resíduos, a diferença é que no lugar de r que acrescentamos depois da virgula, colocamos xb 
depois da virgula. 
No Stata: 
. predict yf, xb 
 
Observe na planilha do Stata foi criada uma nova coluna com o nome yf (que pode ser 
qualquer outro nome) dos y estimados. 
 
 
II. Estimação do modelo log-log e obtenção dos valores estimados de 
LnY (lnf). 
 
gen lny=ln(y) 
 
gen lnx2=ln(x2) 
 
gen lnx3=ln(x3) 
 
reg lny lnx2 lnx3 
 
Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 2, 13) = 17.50 
Model | 1.0300302 2 .515015098Prob > F = 0.0002 
Residual | .382568648 13 .029428358 R-squared = 0.7292 
-------------+------------------------------ Adj R-squared = 0.6875 
Total | 1.41259884 15 .094173256 Root MSE = .17155 
 
------------------------------------------------------------------------------ 
lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
lnx2 | -1.760718 .298206 -5.90 0.000 -2.404953 -1.116484 
lnx3 | 1.33978 .5273242 2.54 0.025 .2005655 2.478995 
_cons | 9.227759 .5683903 16.23 0.000 7.999826 10.45569 
------------------------------------------------------------------------------ 
 
Para obter o lny estimado o procedimento é o mesmo que no passo 
anterior, a diferença vai ser apenas o nome que vamos dar para a variável. No 
Stata: 
 
predict lnf, xb 
observe novamente que foi criada uma nova coluna na planilha do Stata 
para os lny estimados. 
 
III. Calculo de Z1 = (Lnyf - lnf). 
Para calcularmos z1, temos primeiro que tira o logaritmo da variável yf. No 
Stata: 
 
gen lnyf = ln(yf) 
 
Agora podemos calcular z1: 
 
gen z1= lnyf-lnf 
 
IV. Regredimos o modelo linear acrescentando a variável Z1. Rejeita-se H0 se 
o coeficiente de Z1 for estatisticamente significativo segundo o teste t habitual. Como 
neste caso t não é significativo não rejeitamos o modelo linear como sendo o melhor. 
 
. reg y x2 x3 z1 
 
 Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 3, 12) = 13.44 
 Model | 48240240.9 3 16080080.3 Prob > F = 0.0004 
 Residual | 14356115.1 12 1196342.92 R-squared = 0.7707 
-------------+------------------------------ Adj R-squared = 0.7133 
 Total | 62596356 15 4173090.4 Root MSE = 1093.8 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x2 | -3783.062 597.286 -6.33 0.000 -5084.437 -2481.688 
 x3 | 2817.715 993.3304 2.84 0.015 653.4343 4981.996 
 z1 | 85.27798 4116.827 0.02 0.984 -8884.518 9055.074 
 _cons | 9727.57 3023.018 3.22 0.007 3140.978 16314.16 
------------------------------------------------------------------------------ 
 
V. Calculo de Z2 = (antilog de lnf - yf). 
Antes de gera Z2 temos que calcular o antilogaritmo de lnf. O comando no 
Stata é: 
 
gen antilnf=exp(lnf) 
onde antilnf é o nome da variável que vamos criar, pode ser qualquer outro. E 
o lado direito é operação que queremos realizado, ou seja, o antilogaritmo da 
variável lnf. 
Agora podemos calcular Z2: 
gen z2= antilnf - yf 
 
VI. Regressão log-log acrescentando a variável Z2. Rejeita-se H1 se o 
coeficiente Z2 for estatisticamente significativo segundo o teste t. Como Z2 não é 
significativo a nível de 10%, não rejeitamos o modelo log-log como sendo o melhor. 
Porém se consideramos o nível de 12% podemos rejeitar a hipótese H1, ou seja, 
rejeitamos o modelo log-log é melhor. 
 
reg lny lnx2 lnx3 z2 
 
 Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 3, 12) = 14.17 
 Model | 1.10156341 3 .367187804 Prob > F = 0.0003 
 Residual | .311035433 12 .025919619 R-squared = 0.7798 
-------------+------------------------------ Adj R-squared = 0.7248 
 Total | 1.41259884 15 .094173256 Root MSE = .161 
 
------------------------------------------------------------------------------ 
 lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 lnx2 | -1.969905 .3068873 -6.42 0.000 -2.638555 -1.301254 
 lnx3 | 1.589154 .5171554 3.07 0.010 .4623696 2.715939 
 z2 | -.0001294 .0000779 -1.66 0.123 -.0002991 .0000403 
 _cons | 9.148609 .5355542 17.08 0.000 7.981736 10.31548 
------------------------------------------------------------------------------ 
 
 
Estimação da regressão 9.2.5 com os dados da tabela 9.1 
 
 
 
reg y d2 d3 
 
 Source | SS df MS Number of obs = 51 
-------------+------------------------------ F( 2, 48) = 2.38 
 Model | 78676547 2 39338273.5 Prob > F = 0.1038 
 Residual | 794703718 48 16556327.5 R-squared = 0.0901 
-------------+------------------------------ Adj R-squared = 0.0522 
 Total | 873380265 50 17467605.3 Root MSE = 4068.9 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 d2 | -1734.473 1435.953 -1.21 0.233 -4621.649 1152.704 
 d3 | -3264.615 1499.155 -2.18 0.034 -6278.868 -250.3625 
 _cons | 26158.62 1128.523 23.18 0.000 23889.57 28427.66 
------------------------------------------------------------------------------ 
 
 
 
Estimação da regressão 9.4.2 com os dados da tabela 9.1 
 
 
reg y d2 d3 x 
 
 Source | SS df MS Number of obs = 51 
-------------+------------------------------ F( 3, 47) = 40.82 
 Model | 631161483 3 210387161 Prob > F = 0.0000 
 Residual | 242218782 47 5153591.11 R-squared = 0.7227 
-------------+------------------------------ Adj R-squared = 0.7050 
 Total | 873380265 50 17467605.3 Root MSE = 2270.2 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 d2 | -1673.514 801.1703 -2.09 0.042 -3285.261 -61.76764 
 d3 | -1144.157 861.1182 -1.33 0.190 -2876.503 588.1896 
 x | 3.288848 .3176425 10.35 0.000 2.649834 3.927862 
 _cons | 13269.11 1395.056 9.51 0.000 10462.62 16075.6 
------------------------------------------------------------------------------ 
 
 
 
 
Estimação da regressão 9.5.4 com os dados da tabela 9.2 
 
 
Para estimamos podemos rodar essa regressão, primeiro temos que gera a variável DX, que é 
simplesmente a multiplicação da variável dummy pela variável X. No Stata: 
 
gen dx=d*x 
 
Agora podemos fazer a regressão como fazemos normalmente: 
 
reg y d x dx 
 
 Source | SS df MS Number of obs = 26 
-------------+------------------------------ F( 3, 22) = 54.78 
 Model | 88079.8327 3 29359.9442 Prob > F = 0.0000 
 Residual | 11790.2539 22 535.920634 R-squared = 0.8819 
-------------+------------------------------ Adj R-squared = 0.8658 
 Total | 99870.0867 25 3994.80347 Root MSE = 23.15 
 
------------------------------------------------------------------------------ 
 y | Coef.Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 d | 152.4786 33.08237 4.61 0.000 83.86992 221.0872 
 x | .0803319 .0144968 5.54 0.000 .0502673 .1103964 
 dx | -.0654694 .0159824 -4.10 0.000 -.098615 -.0323239 
 _cons | 1.016115 20.16483 0.05 0.960 -40.80319 42.83542 
------------------------------------------------------------------------------ 
 
 
 
Estimação das regressões 9.7.2 e 9.7.3 com os dados da tabela 9.3 
 
 
reg y d1 d2 d3 d4, noconst 
 
 Source | SS df MS Number of obs = 32 
-------------+------------------------------ F( 4, 28) = 518.00 
 Model | 59654886.6 4 14913721.7 Prob > F = 0.0000 
 Residual | 806142.375 28 28790.7991 R-squared = 0.9867 
-------------+------------------------------ Adj R-squared = 0.9848 
 Total | 60461029 32 1889407.16 Root MSE = 169.68 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 d1 | 1222.125 59.99041 20.37 0.000 1099.24 1345.01 
 d2 | 1467.5 59.99041 24.46 0.000 1344.615 1590.385 
 d3 | 1569.75 59.99041 26.17 0.000 1446.865 1692.635 
 d4 | 1160 59.99041 19.34 0.000 1037.115 1282.885 
------------------------------------------------------------------------------ 
 
Observe que no modelo sem intercepto o R2 é o R2 bruto, para modelo que passa pela origem e 
que não pode ser comparado com o R2 de modelos com intercepto. 
 
 
reg y d2 d3 d4 
 
 Source | SS df MS Number of obs = 32 
-------------+------------------------------ F( 3, 28) = 10.60 
 Model | 915635.844 3 305211.948 Prob > F = 0.0001 
 Residual | 806142.375 28 28790.7991 R-squared = 0.5318 
-------------+------------------------------ Adj R-squared = 0.4816 
 Total | 1721778.22 31 55541.2329 Root MSE = 169.68 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 d2 | 245.375 84.83926 2.89 0.007 71.58966 419.1603 
 d3 | 347.625 84.83926 4.10 0.000 173.8397 521.4103 
 d4 | -62.125 84.83926 -0.73 0.470 -235.9103 111.6603 
 _cons | 1222.125 59.99041 20.37 0.000 1099.24 1345.01 
------------------------------------------------------------------------------ 
 
 
 
Estimação da regressão 9.8.4 com os dados da tabela 9.6 
 
Primeiro temos que gerar (Xi – Xi*). Sabendo que Xi*=5.500. No stata: 
 
gen x2=x-5500 
 
onde x2 é o nome da nova variável que representa essa diferença. Agora temos que gerar a 
variável (Xi – Xi*)Di=x2*Di. No Stata, tem-se: 
 
gen x2d=x2*d 
 
onde x2d e a variável que queremos ((Xi – Xi*)Di) 
 
Agora basta rodar a regressão normalmente: 
 
reg y x x2d 
 
 Source | SS df MS Number of obs = 10 
-------------+------------------------------ F( 2, 7) = 129.61 
 Model | 8832644.9 2 4416322.45 Prob > F = 0.0000 
 Residual | 238521.502 7 34074.5002 R-squared = 0.9737 
-------------+------------------------------ Adj R-squared = 0.9662 
 Total | 9071166.4 9 1007907.38 Root MSE = 184.59 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | .2791258 .0460081 6.07 0.001 .1703338 .3879177 
 x2d | .0945 .0825524 1.14 0.290 -.1007054 .2897054 
 _cons | -145.7167 176.7341 -0.82 0.437 -563.6265 272.1932 
------------------------------------------------------------------------------ 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
MULTICOLINEARIDADE. 
 
Com base nos dados da tabela 10.7 fizemos uma rotina para detecção de multicolinearidade em um 
modelo de regressão linear. 
Fizemos a seguinte regressão, não esquecendo que a variável x6 é o tempo. 
reg y x1 x2 x3 x4 x5 x6 
 
 Source | SS df MS Number of obs = 15 
-------------+------------------------------ F( 6, 8) = 295.77 
 Model | 155088615 6 25848102.4 Prob > F = 0.0000 
 Residual | 699138.24 8 87392.28 R-squared = 0.9955 
-------------+------------------------------ Adj R-squared = 0.9921 
 Total | 155787753 14 11127696.6 Root MSE = 295.62 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x1 | -2.051082 8.70974 -0.24 0.820 -22.13578 18.03361 
 x2 | -.0273342 .0331748 -0.82 0.434 -.1038355 .0491671 
 x3 | -1.952293 .4767006 -4.10 0.003 -3.051567 -.8530199 
 x4 | -.9582393 .2162271 -4.43 0.002 -1.45686 -.4596187 
 x5 | .0513397 .233968 0.22 0.832 -.4881915 .5908709 
 x6 | 1585.156 482.6832 3.28 0.011 472.086 2698.225 
 _cons | 67271.28 23237.42 2.89 0.020 13685.68 120856.9 
------------------------------------------------------------------------------ 
 
1. R2 alto, mas poucas razões t significativas. O primeiro sinal de que um modelo 
apresenta multicolinearidade é o R2 elevado e alguns t não significativo. Como podemos ver na saída do 
Stata, apresentada acima, a nossa regressão apresenta sinais de multicolinearidade. 
 
2. Altas correlações entre pares de regressores. Outra regra pratica que se sugere é 
que, se os coeficientes de correlação entre dois regressores forem altos, digamos, maiores que 0.8, então, 
a multicolinearidade é um problema sério. 
Para obter as correlações simples, o comando no Stata é: 
 
. corr x1 x2 x3 x4 x5 x6 
(obs=16) 
 
 | x1 x2 x3 x4 x5 x6 
-------------+------------------------------------------------------ 
 x1 | 1.0000 
 x2 | 0.9916 1.0000 
 x3 | 0.6206 0.6043 1.0000 
 x4 | 0.4647 0.4464 -0.1774 1.0000 
 x5 | 0.9792 0.9911 0.6866 0.3644 1.0000 
 x6 | 0.9911 0.9953 0.6683 0.4172 0.9940 1.0000 
 
 
Se observarmos as correlações entre as variáveis, temos mais um sinal de multicolinearidade no 
modelo, pois os pares de regressores são altamente correlacionados. 
 
3. Regressões auxiliares. Pela regra prática de Klien. A multicolinearidade só será um 
problema sério se o R
2
 obtido em pelo menos uma das regressões auxiliares for maior que 
o R
2
 geral, isto é, aquele obtido na regressão de Y contra todos os regressores. 
Sabemos que o R2 da regressão principal é 0.9955 (R-squared = 0.9955), se encontrarmos um 
valor maior que este em alguma regressão auxiliar temosproblema de multicolinearidade. 
A primeira regressão auxiliar é x1 como variável dependente contra as demais variáveis 
dependentes. No Stata, temos: 
 
reg x1 x2 x3 x4 x5 x6 
 
 Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 5, 10) = 269.06 
 Model | 173397.547 5 34679.5095 Prob > F = 0.0000 
 Residual | 1288.89024 10 128.889024 R-squared = 0.9926 
-------------+------------------------------ Adj R-squared = 0.9889 
 Total | 174686.438 15 11645.7625 Root MSE = 11.353 
 
------------------------------------------------------------------------------ 
 x1 | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x2 | .0025613 .0009484 2.70 0.022 .0004481 .0046746 
 x3 | .0319216 .0151299 2.11 0.061 -.00179 .0656331 
 x4 | .008802 .0074785 1.18 0.266 -.0078611 .0254651 
 x5 | -.0175496 .006331 -2.77 0.020 -.0316561 -.0034432 
 x6 | -9.992189 16.66535 -0.60 0.562 -47.12491 27.14054 
 _cons | 2044.583 533.3698 3.83 0.003 856.1613 3233.005 
------------------------------------------------------------------------------ 
 
Na saida acima tem-se que o R2 da primeira regressão auxiliar é menor que o da 
regressão principal. Porém, ainda temos que fazer outras regressões auxiliar. 
 
A segunda regressão auxiliar a variável depende é x2, a variável independente são as 
demais (com exceção do y). 
 
reg x2 x3 x4 x5 x6 x1 
 
 Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 5, 10) = 3575.03 
 Model | 1.4811e+11 5 2.9621e+10 Prob > F = 0.0000 
 Residual | 82856688.7 10 8285668.87 R-squared = 0.9994 
-------------+------------------------------ Adj R-squared = 0.9992 
 Total | 1.4819e+11 15 9.8794e+09 Root MSE = 2878.5 
 
------------------------------------------------------------------------------ 
 x2 | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x3 | -13.7898 1.500185 -9.19 0.000 -17.13242 -10.44718 
 x4 | -2.998116 1.787322 -1.68 0.124 -6.980518 .9842857 
 x5 | 5.62436 1.180367 4.76 0.001 2.994339 8.254381 
 x6 | 10902.88 2570.756 4.24 0.002 5174.877 16630.88 
 x1 | 164.6571 60.96993 2.70 0.022 28.80766 300.5066 
 _cons | -480986 148413.8 -3.24 0.009 -811672.6 -150299.5 
------------------------------------------------------------------------------ 
 
Com base na saída do Stata para segunda regressão auxiliar, já podemos concluir, pela 
regra pratica de Klien que a multicolinearidade esta presente, pois o R2 dessa regressão é maior 
que o da regressão principal (0.9992>0.9926) 
 
As outras regressões auxiliares são expressas por: 
 
reg x3 x4 x5 x6 x1 x2 
 
 Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 5, 10) = 65.24 
 Model | 12708738.6 5 2541747.72 Prob > F = 0.0000 
 Residual | 389612.84 10 38961.284 R-squared = 0.9703 
-------------+------------------------------ Adj R-squared = 0.9554 
 Total | 13098351.4 15 873223.429 Root MSE = 197.39 
 
------------------------------------------------------------------------------ 
 x3 | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x4 | -.2713815 .1090108 -2.49 0.032 -.5142727 -.0284903 
 x5 | .350986 .0954316 3.68 0.004 .138351 .5636209 
 x6 | 768.5517 167.0507 4.60 0.001 396.3396 1140.764 
 x1 | 9.649428 4.573555 2.11 0.061 -.5410873 19.83994 
 x2 | -.0648431 .0070542 -9.19 0.000 -.0805609 -.0491253 
 _cons | -28518.24 11446.89 -2.49 0.032 -54023.49 -3012.989 
------------------------------------------------------------------------------ 
 
 
reg x4 x5 x6 x1 x2 x3 
 
 Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 5, 10) = 5.18 
 Model | 5240403.53 5 1048080.71 Prob > F = 0.0133 
 Residual | 2024157.91 10 202415.791 R-squared = 0.7214 
-------------+------------------------------ Adj R-squared = 0.5820 
 Total | 7264561.44 15 484304.096 Root MSE = 449.91 
 
------------------------------------------------------------------------------ 
 x4 | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x5 | .1993171 .3276332 0.61 0.557 -.5306952 .9293294 
 x6 | 1167.779 561.677 2.08 0.064 -83.71492 2419.274 
 x1 | 13.82322 11.74472 1.18 0.266 -12.34565 39.99208 
 x2 | -.0732429 .0436636 -1.68 0.124 -.1705314 .0240457 
 x3 | -1.40991 .5663444 -2.49 0.032 -2.671804 -.1480157 
 _cons | -11881.24 33002.42 -0.36 0.726 -85415.22 61652.74 
------------------------------------------------------------------------------ 
 
reg x5 x6 x1 x2 x3 x4 
 
 Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 5, 10) = 796.30 
 Model | 723991849 5 144798370 Prob > F = 0.0000 
 Residual | 1818385.01 10 181838.501 R-squared = 0.9975 
-------------+------------------------------ Adj R-squared = 0.9962 
 Total | 725810234 15 48387348.9 Root MSE = 426.43 
 
------------------------------------------------------------------------------ 
 x5 | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x6 | -782.0409 587.1614 -1.33 0.212 -2090.318 526.2363 
 x1 | -24.75928 8.931925 -2.77 0.020 -44.66084 -4.857707 
 x2 | .123433 .0259045 4.76 0.001 .0657142 .1811519 
 x3 | 1.638107 .4453946 3.68 0.004 .6457062 2.630508 
 x4 | .1790548 .2943265 0.61 0.557 -.4767455 .8348551 
 _cons | 95694.37 8682.033 11.02 0.000 76349.59 115039.1 
------------------------------------------------------------------------------ 
 
 
 
reg x6 x1 x2 x3 x4 x5 
 
 Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 5, 10) = 1515.96 
 Model | 339.552031 5 67.9104061 Prob > F = 0.0000 
 Residual | .447969291 10 .044796929 R-squared = 0.9987 
-------------+------------------------------ Adj R-squared = 0.9980 
 Total | 340 15 22.6666667 Root MSE = .21165 
 
------------------------------------------------------------------------------ 
 x6| Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x1 | -.0034729 .0057922 -0.60 0.562 -.0163788 .009433 
 x2 | .0000589 .0000139 4.24 0.002 .000028 .0000899 
 x3 | .0008837 .0001921 4.60 0.001 .0004557 .0013116 
 x4 | .0002584 .0001243 2.08 0.064 -.0000185 .0005354 
 x5 | -.0001927 .0001447 -1.33 0.212 -.000515 .0001296 
 _cons | 8.305049 15.40358 0.54 0.602 -26.01627 42.62636 
------------------------------------------------------------------------------ 
 
 
4. FIV(fator de inflação da variância). O fator de inflação da variância maior que 10 
indica presença de multicolinearidade no modelo. 
O comando no Stata é vif, porém se digitarmos esse comando no Stata agora, ele vai calcular o 
FIV na última equação estimada no programa, assim é recomendável que estime a equação 
principal novamente. Se você não quiser ver as saídas da regressão, para economizar espaço, ou 
por não necessitar mais de usá-la basta digitar a palavra qui , antes de rodar o modelo no Stata: 
reg y x1 x2 x3 x4 x5 x6 
 
 Source | SS df MS Number of obs = 16 
-------------+------------------------------ F( 6, 9) = 330.29 
 Model | 184172402 6 30695400.3 Prob > F = 0.0000 
 Residual | 836424.056 9 92936.0062 R-squared = 0.9955 
-------------+------------------------------ Adj R-squared = 0.9925 
 Total | 185008826 15 12333921.7 Root MSE = 304.85 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x1 | 1.506187 8.491493 0.18 0.863 -17.7029 20.71528 
 x2 | -.0358192 .033491 -1.07 0.313 -.1115811 .0399427 
 x3 | -2.02023 .4883997 -4.14 0.003 -3.125067 -.915393 
 x4 | -1.033227 .2142742 -4.82 0.001 -1.517949 -.548505 
 x5 | -.0511041 .2260732 -0.23 0.826 -.5625172 .460309 
 x6 | 1829.151 455.4785 4.02 0.003 798.7875 2859.515 
 _cons | 77270.12 22506.71 3.43 0.007 26356.41 128183.8 
------------------------------------------------------------------------------ 
 
Ou simplesmente: 
qui reg y x1 x2 x3 x4 x5 x6 
 
Desse modo podemos digitar o comando para o calculo do FIV, e esse será calculado com base na 
equação acima, a última equação rodada pelo programa. 
 
vif 
 
 Variable | VIF 1/VIF 
-------------+---------------------- 
 x2 | 1788.51 0.000559 
 x6 | 758.98 0.001318 
 x5 | 399.15 0.002505 
 x1 | 135.53 0.007378 
 x3 | 33.62 0.029745 
 x4 | 3.59 0.278635 
-------------+---------------------- 
 Mean VIF | 519.90 
 
Como podemos verificar na saída do Stata, praticamente todos os FIV são maiores que 10, 
indicando a presença de multicolinearidade. 
 
 
HETEROCEDASTICIDADE 
 
Teste de Park 
Exemplo 11.1 com base nos dados da tabela 11.1 
Obtemos primeiro a regressão 11.5.3 
reg y x 
 
 Source | SS df MS Number of obs = 9 
-------------+------------------------------ F( 1, 7) = 5.44 
 Model | 619377.506 1 619377.506 Prob > F = 0.0523 
 Residual | 796278.05 7 113754.007 R-squared = 0.4375 
-------------+------------------------------ Adj R-squared = 0.3572 
 Total | 1415655.56 8 176956.944 Root MSE = 337.27 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | .2329993 .0998528 2.33 0.052 -.0031151 .4691137 
 _cons | 1992.062 936.6123 2.13 0.071 -222.6741 4206.798 
------------------------------------------------------------------------------ 
 
 
 
Agora obtemos os resíduos da regressão acima: 
 
predict u, r 
 
onde u é o nome que foi dado para os resíduos. 
Temos que gerar os resíduos ao quadrado: 
 
gen u2=u^2 
temos que gerar o logaritmo dos resíduos ao quadrado: 
 
gen lnu2=ln(u2) 
A variável depende (x) também tem que ser logaritmizada: 
gen lnx = ln(x) 
 
Por fim rodamos a regressão 11.5.4: 
 
reg lnu2 lnx 
 
 Source | SS df MS Number of obs = 9 
-------------+------------------------------ F( 1, 7) = 0.45 
 Model | .95900152 1 .95900152 Prob > F = 0.5257 
 Residual | 15.0546945 7 2.15067064 R-squared = 0.0599 
-------------+------------------------------ Adj R-squared = -0.0744 
 Total | 16.013696 8 2.001712 Root MSE = 1.4665 
 
------------------------------------------------------------------------------ 
 lnu2 | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 lnx | -2.802023 4.196131 -0.67 0.526 -12.7243 7.12025 
 _cons | 35.82686 38.3227 0.93 0.381 -54.79192 126.4456 
------------------------------------------------------------------------------ 
 
 
A hipótese nula do teste é: 
H0: Homocedástico 
Se o beta 2 for estatisticamente significativo, podemos rejeitar a hipótese nula, e considerar que a 
heterocedasticidade está presente nos dados. No nosso exemplo o valor da probabilidade não foi 
significativo, assim não rejeitamos a hipótese nula de variância constante nos erros. 
 
Teste de Glejser 
 
Exemplo 11.2 
Esse exemplo é uma continuação do exemplo anterior. Como já temos os resíduos da equação 
anterior, o teste de Glejser trabalhar com os resíduos em valor absoluto. Assim vamos gerar os resíduos 
em valor absoluto usando o Stata: 
 
gen absu = abs(u) 
Depois regredimos os resíduos em valor absoluto contra o x: 
 
reg absu x 
 
 Source | SS df MS Number of obs = 9 
-------------+------------------------------ F( 1, 7) = 0.09 
 Model | 4724.55491 1 4724.55491 Prob > F = 0.7718 
 Residual | 363925.371 7 51989.3388 R-squared = 0.0128 
-------------+------------------------------ Adj R-squared = -0.1282 
 Total | 368649.926 8 46081.2408 Root MSE = 228.01 
 
------------------------------------------------------------------------------ 
 absu | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | -.0203497 .0675047 -0.30 0.772 -.179973 .1392736 
 _cons | 407.476 633.1895 0.64 0.540 -1089.779 1904.731 
------------------------------------------------------------------------------ 
 
 
Assim como no teste de Park, a hipótese nula do teste de Glejser é: 
H0: variância constante dos termos de erro 
E como o beta2 não foi estatisticamente significativo, não rejeitamos a hipótese nula, assim o 
modelo é homocedástico. 
 
Observe que o teste de Glejser recomenda que usemos outrasformas funcionais para a variável 
independente (o X). 
Para isso é preciso primeiro que geremos tais variáveis. Para gerar a raiz quadrada de x, o 
comando é: 
gen sqrtx = sqrt(x) 
ou simplesmente: 
gen raizdex = x^0.5 
onde o lado direito destas equações é a operação matemática que estamos realizando e o lado 
esquerdo, o gen é o comando para gerar a variável, e sqrtx, raizdex são os nomes que escolhemos para 
as variáveis. 
Também podemos gerar o inverso de x e o inverso da raiz de x: 
 
gen inversox=1/x 
gen inveraizdex = 1/raizdex 
 
Depois de gerada as variáveis podemos fazer o teste de Glejser paras essas formas funcionais. 
A segunda forma recomendada por Glejser é: 
reg absu raizdex 
 
 Source | SS df MS Number of obs = 9 
-------------+------------------------------ F( 1, 7) = 0.08 
 Model | 4049.60546 1 4049.60546 Prob > F = 0.7884 
 Residual | 364600.321 7 52085.7601 R-squared = 0.0110 
-------------+------------------------------ Adj R-squared = -0.1303 
 Total | 368649.926 8 46081.2408 Root MSE = 228.22 
 
------------------------------------------------------------------------------ 
 absu | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 raizdex | -3.710843 13.3084 -0.28 0.788 -35.1802 27.75851 
 _cons | 575.4425 1284.251 0.45 0.668 -2461.328 3612.213 
------------------------------------------------------------------------------ 
 
Não rejeitamos a hipótese nula de homocedasticidade. 
 
A terceira forma recomendada é: 
 
reg absu inversox 
 
 Source | SS df MS Number of obs = 9 
-------------+------------------------------ F( 1, 7) = 0.04 
 Model | 2266.19598 1 2266.19598 Prob > F = 0.8411 
 Residual | 366383.73 7 52340.5329 R-squared = 0.0061 
-------------+------------------------------ Adj R-squared = -0.1358 
 Total | 368649.926 8 46081.2408 Root MSE = 228.78 
 
------------------------------------------------------------------------------ 
 absu | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 inversox | 1298256 6239224 0.21 0.841 -1.35e+07 1.61e+07 
 _cons | 76.65779 683.4301 0.11 0.914 -1539.398 1692.713 
------------------------------------------------------------------------------ 
 
Não rejeitamos a hipótese nula de homocedasticidade. 
A quarta forma recomendada é: 
 
reg absu inveraizdex 
 
 Source | SS df MS Number of obs = 9 
-------------+------------------------------ F( 1, 7) = 0.05 
 Model | 2812.82061 1 2812.82061 Prob > F = 0.8232 
 Residual | 365837.106 7 52262.4437 R-squared = 0.0076 
-------------+------------------------------ Adj R-squared = -0.1341 
 Total | 368649.926 8 46081.2408 Root MSE = 228.61 
 
------------------------------------------------------------------------------ 
 absu | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 inveraizdex | 29681 127938.8 0.23 0.823 -272846.2 332208.2 
 _cons | -91.18788 1334.823 -0.07 0.947 -3247.543 3065.167 
------------------------------------------------------------------------------ 
 
Não rejeitamos a hipótese nula de homocedasticidade. 
Temos que ter atenção para o fato de que, se pelo menos uma equações estimadas para o teste de 
Glejser apresentar heterocedasticidade, o modelo é heterocedástico. 
 
Teste Breusch-Pagan-Godfrey (BPG) 
Esse teste já bem incluso na rotina do Stata. Para sua realização basta, depois de estimar a 
regressão, digitar o comando hettest. 
O exemplo 11.5 com base nos dados da tabela 11.3 faz o teste BPG. No Stata para esse exemplo 
tem-se: 
 
 
. reg y x 
 
 Source | SS df MS Number of obs = 30 
-------------+------------------------------ F( 1, 28) = 496.72 
 Model | 41886.7134 1 41886.7134 Prob > F = 0.0000 
 Residual | 2361.15325 28 84.3269018 R-squared = 0.9466 
-------------+------------------------------ Adj R-squared = 0.9447 
 Total | 44247.8667 29 1525.78851 Root MSE = 9.183 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+---------------------------------------------------------------- 
 x | .6377846 .0286167 22.29 0.000 .579166 .6964031 
 _cons | 9.290307 5.231386 1.78 0.087 -1.4257 20.00632 
------------------------------------------------------------------------------ 
 
 
hettest 
 
Breusch-Pagan / Cook-Weisberg test for heteroskedasticity 
 Ho: Constant variance 
 Variables: fitted values of y 
 
 chi2(1) = 5.21 
 Prob > chi2 = 0.0224 
 
A hipótese nula desse teste, assim com o teste de Park e de Glejser é que os erros tem variância 
constante: H0: homocedasticidade. 
Como o valor observado de qui-quadrado, de 5.21 é estatisticamente significativo, 0,0221, 
rejeitamos a hipótese nula de homocedasticidade nos termos de erro, desse modo o modelo é 
heterocedástico. 
 
Teste de White 
 
O teste de White, assim como o teste BPG já tem uma rotina no Stata, basta digitar o comando 
whitetst depois de estimar a regressão. 
Como no Gujarati o exemplo 11.6 não tem dados no livro, vamos usar a mesma regressão que 
usamos no teste BPG. Que é dada por: 
qui reg y x 
 
o comando acima estima a regressão sem mostrar a saída no Stata, fizemos isso pois o teste é 
baseado na é pega a ultima equação que o Stata estimou. Agora podemos fazer o teste de White: 
 
whitetst 
White's general test statistic : 5.330902 Chi-sq( 2) P-value = .0696 
 
A saída do Stata, indica que valor observado de qui-quadrado, 5.33 é significativo ao nível de 1%, 
assim a hipótese nula de homocedasticidade é rejeitada. 
 
 
Teste de Koenker-Bassett (KB) 
 
A hipótese nula deste teste é que β2 da regressão auxiliar (resíduos estimados ao quadrado contra 
Y estimado ao quadrado), seja estatisticamente igual a zero. Se ela não for rejeitada, podemos concluir 
que não há heterocedasticidade. A hipótese nula pode ser testada pelo teste t ou F. 
 
Com base nos dados da tabela 11.3 vamos fazer o procedimento do teste KB. 
Primeiro estima-se a equação principal. 
 
reg y x 
 
 Source | SS df MS Number of obs = 30 
-------------+------------------------------ F( 1, 28) = 496.72 
 Model | 41886.7134 1 41886.7134 Prob > F = 0.0000 
 Residual | 2361.15325 28 84.3269018 R-squared = 0.9466 
-------------+------------------------------ Adj R-squared = 0.9447 
 Total | 44247.8667 29 1525.78851 Root MSE = 9.183 
 
------------------------------------------------------------------------------ 
 y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 
-------------+----------------------------------------------------------------

Outros materiais