Buscar

Lista Regressão Múltipla

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 16 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 16 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 16 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Lista 3 - Regressão Múltipla
Econometria I
Monitoras: Carolina Nour e Isabela I. Gomes
Março, 2021
Questão 1. Considere as seguintes citações:
"Econometricians want too much from the data and hence tend to be disappointed by the
answers, because the data are incomplete and imperfect. In part it is our fault, the appetite
grows with eating. As we get larger samples, we keep adding variables and expanding our
models, until on the margin, we come back to the same insignificance levels." - Griliches,
American Economic Review, 1985
"Controlling for covariates can increase the likelihood that regression estimates have a
causal interpretation. But more control is not always better. Some variables are bad controls
and should not be included in a regression model even when their inclusion might be expected
to change the regression coefficients." - Angrist & Pischke, Mostly Harmless Econometrics,
2009
Os autores alertam para importantes questōes, em especial: a omissão de variáveis relevantes
(subespecificação) e a inclusão de irrelevantes (sobreespecificação).
a) Defina cada conceito. Como você espera que cada problema mencionado afete os esti-
madores de MQO (viés, variância, R2 )? Explique intuitivamente.
Como já mencionado no enunciado, a subespecificação é a omissão de variáveis que são rele-
vantes para o modelo populacional. Nesse caso, ou seja, se omitirmos variáveis, o estimador
de MQO será viesado. Isso pode acontecer pelo fato de que ao omitir uma variável relevante
para o modelo, esta pode estar correlacionada com a sua variável independente de interesse.
1
Esse ponto ficará mais claro no item (c). Com relação à variância temos que neste caso era
será menor. Uma possível intuição para isso seria o fato de ao considerarmos menos fatores
(variáveis) no modelo, teremos menor variação do estimador. A omissão de variáveis faz com
que o R2 seja menor quando comparamos com o caso em que você inclui essas variáveis. Por
propriedade algébrica do R2, ao adicionarmos variáveis no modelo, sendo elas relevantes ou
não, o R2 sempre aumenta ou pelo menos fica o mesmo de antes.
Já no caso de sobreespecificação temos que a inclusão de variáveis irrelevantes1 não geram
nenhum problema de viés. Nesse caso, pela mesma intuição de antes, vamos ter que a var-
iância e o R2 serão maiores.
b) Como você definiria controles ruins? E controles bons? Explique com exemplos.
Podemos dizer que controles ruins são aquelas variáveis que são relevantes para o modelo (ou
seja, se a omitirmos podemos ter algum viés), mas são afetadas pela variável de interesse. No
exemplo clássico de salário e educação, podemos dizer que um controle ruim é a habilidade
que o indivíduo tem após terminar os estudos. Nesse caso, a variável de interesse nível de
educação afeta essa medida de habilidade. Por outro lado, se usarmos uma medida de habil-
idade inata não teremos esse problema. Esse seria um exemplo de um controle bom.
Vamos agora formalizar cada um dos casos.
Caso 1: Suponha que o modelo verdadeiro é Yi = β0 + β1x1i + β2x2i + ui, mas o modelo
estimado é Ŷi = γ̂0 + γ̂1x1i
c) Derive o viés de variável omitida. Discuta em quais casos o viés é positivo, negativo e
nulo.
Sabemos que
γ̂1 =
∑n
i=1 (xi − x̄) yi∑n
i=1 xi (xi − x̄)
=
∑n
i=1 (xi − x̄) (β0 + β1x1i + β2x2i + ui)∑n
i=1 xi (xi − x̄)
(1)
=
∑n
i=1 (xi − x̄) β1x1i +
∑n
i=1 (xi − x̄) β2x2i +
∑n
i=1 (xi − x̄)ui∑n
i=1 xi (xi − x̄)
(2)
= β1 +
∑n
i=1 (xi − x̄) β2x2i +
∑n
i=1 (xi − x̄)ui∑n
i=1 xi (xi − x̄)
(3)
1Aqui não estamos considerando os bad controls
2
Sob a hipótese de exogeneidade, temos que:
E[γ̂1 | X] = β1 + β2
∑n
i=1 (xi − x̄)x2i∑n
i=1 xi (xi − x̄)
(4)
O viés será positivo se: β2 e C(x1i, x2i) forem ambos positivos ou negativos. Se β2 for positivo
e C(x1i, x2i) negativo, o viés será negativo. O oposto também se aplica. Teremos um viés
zero se um dos termos forem zero, ou seja, se x2i não for relevante para o modelo ou se x2i
não for correlacionado com x1i.
d) Mostre que Var (γ̂1 | X) ≤ Var
(
β̂1 | X
)
.
Nós temos que
Var (γ̂1 | X) =
σ2∑n
i=1 (xi − x̄)
2 (5)
E que
Var
(
β̂1 | X
)
=
σ2
(1−R21)
∑n
i=1 (xi − x̄)
2 (6)
Dessa forma, como o denominador da segunda variância condicional é menor que o da
primeira, a variância de Var
(
β̂1 | X
)
é maior. Note que se R21 for igual a zero, quer dizer
que não temos correlação entre x1i e x2i, o que nos faz voltar para a primeira variância.
Caso 2: Suponha que o modelo verdadeiro é Yj = β0 + β1x1i + ui, mas o modelo estimado é
Ŷi = γ̂0 + γ̂1x1i + γ̂2x2i
Sabemos que
γ̂1 =
∑n
i=1 (xi − x̄) yi∑n
i=1 xi (xi − x̄)
=
∑n
i=1 (xi − x̄) (β0 + β1x1i + ui)∑n
i=1 xi (xi − x̄)
(7)
= β1 +
∑n
i=1 (xi − x̄) (ui)∑n
i=1 xi (xi − x̄)
(8)
Sob a hipótese de exogeneidade, temos então que
E[γ̂1 | X] = β1 (9)
Ou seja, o estimador é não viesado.
e) Mostre que Var (γ̂1 | X) ≥ Var
(
β̂1 | X
)
A melhor forma de vizualizar isso é através da
3
prova de que o estimador de MQO é BLUE. Dado que γ̂1 é não viesado, ele se encaixa no
estimador genérico considerado na prova.
Questão 2. Considere o seguinte modelo populacional:
Yi = xiβ + εi
Onde β é o vetor K × 1 de parâmetros de MQO, e xi é o vetor de variáveis explicativas de
dimensão 1×K. Assuma que E [εi | xi] = 0
a) Explique o que é "Heteroscedasticidade" e como você definiria um εi (ou a matriz �,N×1)
heterocedástico. Sob esta condição, o estimador de MQO é viesado?
Heterocedasticidade é o fenômeno estatístico que ocorre quando o modelo de regressão apre-
senta variâncias para Y e X ou (X1, X2, X3, . . . , Xn) não iguais para todas as observações,
contrariando a hipótese de que:
V [εi | X] = σ2 i = 1, 2, · · · , n
Se há mais de um estado na amostra disponível, podemos rodar a regressão incluindo um
conjunto de "dummys" que indicam cada estado da da Federação Dessa forma, estaremos
capturando esse componente de termo de erro comum (em média), para cada um dos estados.
Além disso, sob heterocedasticidade o estimador de MQO não é viesado.
b) Mostre "como" o estimador usual da variância de β̂MQO é prejudicado no caso de het-
erocedasticidade. (Dica: abra as continhas até o passo em que utilizávamos a hipótese de
homoscedasticidade para entender). Vamos escrever a heterocedasticidade da seguinte forma:
E [εε′ | X] = ΩX
4
Onde, ΩX é uma matriz genérica diferente de σIk Vamos abrir a variância do estimador:
Var[β̂ | X] = E
[
(β̂ − β)(β̂ − β)′ | X
]
= E
[
(X ′X)
−1
X ′εε′X (X ′X)
−1 | X
]
= (X ′X)
−1
X ′E [εε′ | X]X (X ′X)−1
= (X ′X)
−1
X ′ΩXX (X
′X)
−1
Perceba que não conseguimos simplificar mais essa variância.
Questão 3. Um estudante faltou na última monitoria de Econometria mas acha que enten-
deu o conceito de R2:
"R2 é tipo assim: mede o grau de acerto do modelo. R2 alto significa que a reta estimada
passa por muitos pontos da amostra. Se a reta estimada passa por todos os pontos, então o
R2 certamente 1. Se houver dois modelos, prefiro o que tiver maior R2. Há dúvida sobre a
inclusão de uma variável? Basta checar se o R2 aumenta ou diminui."
Há vários equívocos na explicação acima.
a) Explique o que de fato R2 representa. R2 s de diferentes modelos são comparáveis?
O R2 de uma regressão (também chamado de coeficiente de determinação) pode ser definido
como razão entre a soma dos quadrados explicados e a soma dos quadrados totais. Ou ainda,
R2 ≡ SSE/SST = 1− SSR/SST (10)
O R2 pode ser interpretado como a proporção da variação amostral em yi que é explicado
pela linha da regressão de OLS. É uma medida de fit (adequação) para modelos de regressão
linear.
No entanto, o R2 pode não dizer muita coisa sobre um modelo, no sentido do modelo ter boas
propriedades ou não (por exemplo, o R2 não diz nada sobre viés). É uma medida que é mais
importante no contexto de previsão, o que será melhor explorado no curso de Econometria
II.
Aqui, se tivermos um modelo com baixo R2, mas com estimadores não viesados e resultados
estatísticamente significantes ainda podemos tirar conclusões sobreos resultados obtidos. Ao
5
mesmo tempo que um alto R2 nem sempre é algo bom. Diante disso, não devemos comparar
R2 entre modelos.
b) Mostre que a inclusão de uma nova variável nunca diminui o R2.
Assuma o modelo populacional de OLS na sua forma matricial:
y = Xβ + u
onde X é uma matriz n×p, β é um vetor de coeficientes obtidos por OLS p×1 e u é um vetor
de resíduos p × 1. Agora vamos adcionar uma variável X0 e estimar uma nova estimativa
usando OLS
y = X0β̂0 +Xβ̂ + v
Já que β, β̂0 e β̂ são estimadores de OLS sabemos que u′X = v′X0 = v′X = 0. Combinando
as duas primeiras equações temos que
Xβ + u = X0β̂0 +Xβ̂ + v
Se multiplicarmos os dois lados da equação acima por u′ temos
u′u = u′X0β̂0 + u
′v
Analogamente, se multiplicarmos a mesma equação só que agora por v′ temos
v′u = v′v
Combinando as duas últimas equações ficamos com
u′X0β̂0 = u
′u− v′v
6
Finalmente
v′v =
(
y −X0β̂0 −Xβ̂
)′ (
y −X0β̂0 −Xβ̂
)
=
(
Xβ + u−X0β̂0 −Xβ̂
)′ (
Xβ + u−X0β̂0 −Xβ̂
)
=
(
X(β − β̂)−X0β̂0 + u
)′ (
X(β − β̂)−X0β̂0 + u
)
=
(
X(β − β̂)−X0β̂0
)′ (
X(β − β̂)−X0β̂0
)
+ 2u′
(
X(β − β̂)−X0β̂0
)
+ u′u
=
(
X(β − β̂)−X0β̂0
)′ (
X(β − β̂)−X0β̂0
)
− 2u′X0β̂0 + u′u
=
(
X(β − β̂)−X0β̂0
)′ (
X(β − β̂)−X0β̂0
)
− 2 (u′u− v′v) + u′u
=
(
X(β − β̂)−X0β̂0
)′ (
X(β − β̂)−X0β̂0
)
− u′u+ 2v′v
u′u =
(
X(β − β̂)−X0β̂0
)′ (
X(β − β̂)−X0β̂0
)
+ v′v
≥ v′v
(11)
Assim nós temos então que a soma dos quadrados dos resíduos do primeiro modelo é sempre
maior ou igual que a do segundo. Como o R2 é inversamente proporcioal ao SQR, nós temos
que o R2 do segundo modelo (com inclusão de variável) é maior ou igual que o do primeiro.
c) Use R2surprise.dta. Regrida Y sobre X. Faça um gráfico e veja que apesar do R2 alto,
a reta estimada não necessariamente passa por um ponto da amostra.
Ver Script
d) Use R2miracle.dta. Regrida W sobre Z. Faça um gráfico e veja que embora a reta estimada
passa próxima a todos os pontos da amostra, R2 ≈ 0. Explique.
Ver Script
Questão 4. No trecho abaixo, Olivier Blanchard aborda outra questão comum em Econome-
tria:
"When students run their first regression, the first problem that they usually encounter is
that of multicollinearity. Many of them conclude that there is something wrong with OLS;
some resort to new and often creative techniques to get around that problem. But, we tell
them, this is wrong. Multicollinearity is God’s will, not a problem with OLS or statistical
techniques in general."
7
a) Explique, com as suas palavras, o que é multicolinearidade.
Multicolinearidade se refere a uma situação em que duas ou mais variáveis explicativas são
altamente linearmente relacionadas.
b) Explique detalhadamente quais as consequências de multicolinearidade.
Intuitivamente, quando temos multicolinearidade entre variáveis fica muito difícil estimar o
efeito marginal de uma delas, dado que as variáveis "andam tão juntas". Ou seja, é muito
difícil ver o efeito de uma variável enquanto as demais estão constantes. Além disso, os erros
padrões dos coeficientes estimados tendem a ser muito grandes. Outro problema que pode
aparecer é que o R2 pode ser bem alto, mesmo que o modelo contenha variáveis insignifi-
cantes.
c) Explique, com as suas palavras, o que é (multi)colinearidade perfeita.
Se uma variável independente é uma combinação linear perfeita de outra, então podemos
dizer que elas são colineares perfeitas. Neste caso, é importante notar que o modelo não
pode ser estimado por MQO.
d) Em notação matricial, vimos que β̂ = (X ′X)−1X ′Y. O que acontece com β̂ quando há
perfeita colinearidade entre os Xs? Como examinar sua existência?
Quando há perfeita colinearidade não conseguimos estimar o β̂ por MQO. Isso acontece
porque a inversa de (X ′X)−1 não existe. Uma forma bem simples de examinar a existência
de colinearidade perfeita é verificar se (X ′X) é singular, ou seja, se o determinante dessa
matriz é igual a zero.
e) Seja a seguinte matriz X que contém as explicativas a serem usadas em uma regressão:

1 0 0
1 7 0
1 0 1

Examine se há perfeita colinearidade.
Podemos verificar colinearidade tentando observar se uma variável pode ser combinação lin-
ear da outra. Podemos ver que, neste caso, não é o que acontece. Dessa forma, não há
colinearidade perfeita.
f) Seja a seguinte matriz X ′X a ser usada em outra regressão:
8

9 0 0 0 0
0 4 0 8 0
2 0 7 0 0
1 3 0 6 0
0 0 0 0 5

Examine se há perfeita colinearidade.
Aqui a melhor forma é calcular o determinante da matriz. É fácil verificar que o determinante
de X ′X é igual a zero.
g) Sob homoscedasticidade, a matriz de variância-covariância é expressa como:
var− cov(β̂) = σ2 (X ′X)−1
Explique o que acontece a esta matriz quando:
(i) há perfeita colinearidade;
(ii) a colinearidade é alta porém não perfeita.
Quando há colinearidade perfeita a matriz de variância-covariância dos estimadores vai para
infinito (explode). E no caso de colinearidade alta essa matriz assume um valor também alto,
o que significa que os erros padrões dos estimadores são altos e isso pode levar a conclusões
falsas sobre significância de coeficientes.
Questão 5. Considere as matrizes
P = X (X′X)−1X′ e M = In −P. Mostre que
1. P e M são simétricas e idempotentes.
Simetria:2
P′ =
(
X (X′X)
−1
X′
)′
= X′
[
(X′X)
−1
]
X = X′ (X′X)
−1
X = P
M′ = (In −P)′ = I ′n −P′ = In −P = M
2Aqui vamos usar as seguintes propriedades: (AB)′ = B′A′ e
(
A−1
)′
= (A′)
−1
9
Idempotência:
PP = X (X′X)
−1
X′X (X′X)
−1
X′ = X (X′X)
−1
X′ = P
MM = (In −P) (In −P) = In − 2InP + PP = In −P = M
2. PM = MP = 0. Dê a intuição.
MP = (In −P)P = P−PP = P−P = 0
A matriz P projeta ortogonalmente no espaço gerado pelas colunas de X. A matriz M,
também conhecida por "residual maker", gera os resíduos da projeção gerada por P. Assim,
quando projetamos a "residual maker" no espaço gerado pelas colunas de X (ou seja, PM),
obtemos um vetor nulo, pois a "residual maker" já é ortogonal ao espaço onde estamos
projetando. De forma análoga, o resíduo da projeção de P no espaço gerado pelas colunas
de X (ou seja, MP) também é zero.
3. Usando as duas matrizes, y pode ser decomposto em duas partes ortogonais. Dê a intuição.
Podemos decompor y da seguinte forma: y = Py + My. Você pode mostrar algebricamente
que Py = ŷ e que My = û, mas aqui vamos focar na intuição de por quê isso vale. A matriz
P projeta ortogonalmente y no espaço gerado pelas colunas de X. Essa projeção é ŷ. Já a
matriz M gera os resíduos da projeção de y no espaço gerado pelas colunas de X e, portanto,
My = û. Como esse resíduo foi gerado de forma a ser ortogonal à projeção temos que û é
ortogonal a ŷ, ou de forma equivalente, My é ortogonal a Py.
Questão 6. Considere um modelo de regressão. Seja X particionada conforme
X
(n×k)
=
 X1 ... X2
(n× k1) (n× k2)

de modo que o primeiro regressor é constante. Particione β e β̂ de acordo:
10
β′ =
 β′1 β′2
(1× k1) (1× k2)

β̂′ =
 β̂′1 β̂′2
(1× k1) (1× k2)

Assim, a regressão pode ser escrita da forma
y = X1β1 +X2β2 + e
Seja H1 = X1 (X ′1X1)
−1X ′1,M1 = I−H1, X̃2 = M1X2 e ỹ = M1y. Observe que ỹ é o vetor de
resíduos da regressão de y em X1, e a j-ésima coluna de X̄2 é o vetor de resíduos da regressão
da j-ésima coluna de X2 em X1. Mostre os seguintes resultados:
Obs: Note que a matriz H1 é a chamada hat matrix que transforma y em ŷ. Já a matriz
M1 representa a residual maker. Dessa forma, a matriz X̃2 = M1X2 representa a variável X2
"limpa" de X1, dado que podemos escrever
X2 = H1X2 +M1X2
Nesse caso, temos que M1X2 captura o resíduo da regressão parcial de X2 em X1. Seguindo
a mesma lógica temos que ỹ é a variável y "limpa" de sua correlação com X1
a) As condições de primeira ordem do problema de MQO são dadas por
X ′1X1β̂1 +X
′
1X2β̂2 = X
′
1y (1)
X ′2X1β̂1 +X
′
2X2β̂2 = X
′
2y (2)
Lembrando que as equações normais de MQO implicam que
(X ′X)β̂ = X ′y
11
como X = [X1X2], temos que
X ′X =
X ′1
X ′2
[X1 X2] =
X ′1X1 X ′1X2X ′2X1 X
′
2X2

assim como
X ′y =
X ′1
X ′2
 y =
X ′1y
X ′2y

Voltando às equações normais então e particionando o vetor β̂, temos que:X ′1X1 X ′1X2
X ′2X1 X
′
2X2
β̂1
β̂2
 =
X ′1y
X ′2y

b) β̂2 =
(
X̃ ′2X̃2
)−1
X̃ ′2ỹ.
Dica: derive X1β1 = −H1X2β2 + H1y a partir de (1). Substitua em (2) de modo a obter
X ′2M1X2β2 = X
′
2M1y. Em seguida utilize o fato de que M1 é simétrica e idempotente.
O objetivo aqui é encontrar o estimador de β̂2 via regressões parciais
Isolando β̂1 em (1) nós temos que:
β̂1 = (X
′
1X1)
−1X ′1y − (X ′1X1)−1X ′1X2β̂2
Multiplicando todos os elementos por por X1 e lembrando que H1 = X1 (X ′1X1)
−1X ′1 nós
ficamos com:
X1β̂1 = H1y −H1X2β̂2
12
Agora vamos substituir a equação acima na equação (2) do item (a):
X ′2X1β̂1 +X
′
2X2β̂2 = X
′
2y
X ′2(H1y −H1X2β̂2) +X ′2X2β̂2 = X ′2y
X ′2(I −H1)X2β̂2 = X ′2(I −H1)y
X ′2M1X2β̂2 = X
′
2M1y
(M1X2)
′(M1X2)β̂2 = (M1X2)
′(M1y)
X̃ ′2X̃2β̂2 = X̃
′
2ỹ
onde, na penúltima linha usamos queM1 = M1M1 = M ′1M1. Desta forma, β̂2 = (X̃ ′2X̃2)−1X̃ ′2ỹ.
Dessa forma nós temos que o meu estimador β̂2 é função de X̃2 e de ỹ ou seja, vem da regressão
ỹ = X̃2β2 + e
ou ainda,
M1y = M1X2 + e
c) O vetor de resíduos da regressão de ỹ em X̃2 equivale numericamente a e, o vetor de
resíduos da regressão de y em X.
Dica: Se e é o vetor de resíduos da regressão de y em X, então temos
y = β̂1X1 + β̂2X2 + e
Pré-multiplicando ambos os lados por M1 e utilizando que M1X1 = 0, obtemos
ỹ − X̂2β̂2 +M1e
Mostre queM1e = e e observe que β̂2 equivale ao coeficiente estimado por MQO da regressão
13
de ỹ em X̂2
Esse exercício remete ao teorema de frisch waugh, que nos diz que tanto faz nós estimarmos
aqui no caso β2 através da regressão múltipla usando X1 e X2 como variáveis explicativas
ou estimar as regressões parciais de X2 em X1 e de y em X1 e obter as versões "limpas" (os
resíduos das parciais) de X2 e y, que aqui são representadas por X̃2 e ỹ. Neste caso, para
que isso seja válido os meus resíduos precisam ser o mesmo nas duas regressões.
Pelas condições de primeira ordem do problema de mínimos quadrados, temos que, para
e o resíduo da regressão de y em X, X ′e = 0, ou seja
X ′e =
X ′1
X ′2
 e =
X ′1e
X ′2e
 =
0
0

Desta forma, X ′1e = 0 e, então
M1e = (I −H1)e = e−X1(X ′1X1)−1(X ′1e) = e
Concluindo que os resíduos da regressão auxiliar de ỹ em X̃2 são iguais aos da regressão
original.
d) β̂2 =
(
X̃ ′2X̃2
)−1
X̃ ′2y. Observe a diferença com o obtido no item (b). O vetor de
resíduos da regressão de y em X̃2 será igual ao vetor de resíduos e? O SSR da regressão de
y em X̃2 será igual ao SSR da regressão de ỹ em X̃2?
Neste exercício queremos deixar claro que para os resíduos serem os mesmos precisamos estar
fazendo na terceira etapa das regressões parciais a regressão de ỹ em X̃2 e não de y em X̃2
Da equação para o β̂2 do item (b) nós temos que
β̂2 = (X̃
′
2X̃2)
−1X̃ ′2ỹ = (X̃
′
2X̃2)
−1X2M1M1y = (X̃
′
2X̃2)
−1X2M1y = (X̃
′
2X̃2)
−1X̃2y
usando o fato de que M1 é idempotente.
Note, contudo que o resíduo da equação de y em X̃2 será dado por
v = y − X̃2β2 =
14
Defina os resíduos desta regressão como v = y−X̃2β̂2 = M̃2y, onde M̃2 = (I−X̃2(X̃ ′2X̃2)−1X̃ ′2).
Temos então que:
M̃2y = M̃2X1β̂1 + M̃2X2β̂2 + M̃2e
Para cada um desses termos, temos que:
M̃2X1 = X1 − X̃2(X̃ ′2X̃2)−1X̃ ′2X1 = X1 − X̃2(X̃ ′2X̃2)−1X ′2M1X1 = X1
M̃2X2 = X2 − X̃2(X̃ ′2X̃2)−1X̃2X2 = X2 − X̃2(X̃ ′2X̃2)−1X̃2X̃2 = X2 − X̃2
M̃2e = e− X̃2(X̃ ′2X̃2)−1X̃2e = e− X̃2(X̃ ′2X̃2)−1X2M1e = e− X̃ ′2(X̃ ′2X̃2)−1X ′2e = e
então
v = M̃2y = X1β̂1 + (X2 − X̃2)β̂2 + e
e a menos que β̂ = 0 ou β̂1 = 0 e (X2 − X̃2) = 0, v 6= e.
Isso quer dizer que os resíduos só serão os mesmos se nenhum dos conjuntos de variáveis
X1 ou X2 tiver efeito em y ou se X1 não tiver efeito y e (X2 = X̃2), sendo que esse último
termo nos diz que X2 não possui correlação com X1
Questão 7. Você está interessado em avaliar a discriminação de gênero no mercado de tra-
balho e para isso tem uma base de dados comn = 526 indivíduos. A base wage1.dta contém
o salário-horário, anos de educação, experiência e uma variável para gênero.
(a) Execute a regressão: wagei = α0 +β0 +femalei +ε1i , como você interpreta os resultados?
(b) Na especificação acima substitua o salário horário (wage) pelo log do salário-horário
(lwage).
Como os resultados mudam? Qual a diferença em relação ao item a.?
(c) Agora inclua os controles, educação, experiência e experiência ao quadrado. Como os
resultados mudam? Compare com o resultado do item (a)? O que você pode inferir sobre as
relaçōes entre gênero e experiência e entre gênero e educação?
wage i = α1 + β1 female i + γ
0
1 educ i + γ
0
2 exper i + γ
0
3 exper
2 + ε2i
15
d) Descreva um teste de hipóteses usando a estatística t. Escreva a hipótese nula. Escreva a
estatística a ser utilizada. Apresente o resultado do teste e sua interpretação.
e) Descreva um teste de hipóteses usando a estatística F. Expresse a hipótese nula através
de restrições lineares na forma matricial. Escreva a estatística a ser utilizada. Apresente o
resultado do teste e sua interpretação. Como esse teste se compara ao do item anterior.
f) Um pesquisador só pode executar regressōes com no máximo 3 regressores. Ele tem a
intenção de usar o modelo completo do item c (4 variáveis) para avaliar a discriminação de
gênero e propõe a seguinte rotina:
1. Executar a regressao wagei = α2 + γ11educi + γ12experi + γ13exper2i + ui
2. Obter os resíduos: ûi = wagei − ŵagei
3. Executar a regressão femalei = α3 + δ1educi + δ2experi + δ3exper2i + vi
4. Obter os resíduos: v̂i = femalei − femalei
5. Executar a regressão: ûi = α4 + β̃1ν̂i + �i
O procedimento funcionará? Isto é, β̃1 = β1? Por quê?
(g) Execute os passos do item f no R. Você obteve algo de diferente em relação ao resultado
em(c). Por quê?
(h) Um colega lhe disse que o tamanho de sua amostra era "muito pequeno", então você de-
cidiu dobrá-la duplicando as observações. Rode o modelo do item acom sua "nova amostra".
O que acontece com os coeficientes estimados? E com os erros-padrão dos estimadores? Esse
procedimento está correto? Por quê?
16

Outros materiais