Buscar

lista3sol 324

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 9 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 9 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 9 páginas

Prévia do material em texto

Universidade de Sa˜o Paulo - Departamento de Economia
EAE 0324 - Econometria I
Prof. Dr. Ricardo Avelino
1o Semestre de 2008
Lista de Exerc´ıcios 3 - Soluc¸a˜o
Questa˜o 1
a) Lembre-se de que se as observac¸o˜es sa˜o independentes, Xi ∼ N
¡
µ, σ2
¢
∨i
e X¯ = 1
N
(
P
Xi),
E
¡
X¯
¢
= E
·
1
N
³X
Xi
´¸
=
1
N
hX
E (Xi)
i
=
1
N
hX
µ
i
=
1
N
Nµ = µ
e
V
¡
X¯
¢
= V
·
1
N
³X
Xi
´¸
=
1
N2
hX
V (Xi)
i
=
1
N2
hX
σ2
i
=
1
N2
Nσ2 =
σ2
N
Adicionalmente, X¯ e´ uma combinac¸a˜o linear de v.a. normalmente dis-
tribu´ıdas, enta˜o tambe´m e´ normal, distribu´ıda de acordo com
X¯ ∼ N
¡
µ, σ2/N
¢
Mais ainda, para uma v.a. Xi ∼ N
¡
µ, σ2
¢
,
z =
Xi − µ
σ
∼ N (0, 1)
Assim,
P (6 ≤ X ≤ 8) = P
µ
6− µ
σ
≤ X − µ
σ
≤ 8− µ
σ
¶
= P
µ
6− 7
5
≤ X − 7
5
≤ 8− 7
5
¶
= P (−0.2 ≤ z ≤ 0.2)
=
+0.2Z
−0.2
1√
2π
exp
½
−1
2
z2
¾
dz = 0.1585
Similarmente,
P
¡
6 ≤ X¯ ≤ 8
¢
= P
µ
6− µ
σ/
√
N
≤ X¯ − µ
σ/
√
N
≤ 8− µ
σ/
√
N
¶
= P
µ
6− 7
5/10
≤ X − 7
5/10
≤ 8− 7
5/10
¶
= P (−2 ≤ z ≤ 2)
=
+2Z
−2
1√
2π
exp
½
−1
2
z2
¾
dz = 0.9545
1
As probabilidades diferem pois embora ambas as varia´veis tenham a mesma
me´dia, X¯ e´ mais concentrada em torno da me´dia que X.
Questa˜o 2
Primeiro calculamos a variaˆncia de nosso estimador.
V [αY1 + (1− α)Y2] = α2V (Y1) + (1− α)2V (Y2) + 2α(1− α)cov(Y1, Y2)
Como Y1 e Y2 sa˜o independentes temos que cov(Y1, Y2) = 0 e em con-
sequ¨eˆncia:
V [αY1 + (1− α)Y2] = α2V (Y1) + (1− α)2V (Y2) = α2σ21 + (1− α)2σ22
Seja a func¸a˜o f(α) = α2σ21+(1−α)2σ22 que queremos minimizar. Se a func¸a˜o
for convexa, enta˜o podemos ter certeza de que α∗ que faz com que f 0(α∗) = 0
seja o u´nico mı´nimo. Quando este e´ o caso? e qual e´ o mı´nimo?
f e´ convexo quando f 00 e´ positivo. Para ser verdade precisamos que: 0 ≤
f 00(α) = 2σ21+2σ22...mas e´ sempre esse o caso!! Enta˜o o u´nico mı´nimo e´ realizado
para α∗ quando f 0(α∗) = 2α∗σ21 − 2(1− α∗)σ22 = 0 enta˜o temos:
α∗ =
σ22
σ21+σ
2
2
Observando mais atentamente α∗ = V (Y2)
V [Y1+Y2]
e 1 − α∗ = V (Y1)
V [Y1+Y2]
, enta˜o
intuitivamente precisamos ponderar as varia´veis em termos de cada variaˆncia
em relac¸a˜o a variaˆncia total.
Questa˜o 3
O estimador de M.Q.O. de β1 e β0 pode ser expresso como:
βˆ1 =
Pn
i=1(Yi − Y¯ )(Xi − X¯)Pn
i=1(Xi − X¯)2
βˆ0 = Y¯ − βˆ1X¯
Usando o fato de que
nX
i=1
(Yi − Y¯ )(Xi − X¯) =
nX
i=1
Xi
¡
Yi − Y¯
¢
=
nX
i=1
XiYi − Y¯
nX
i=1
Xi
2
e
nX
i=1
(Xi − X¯)2 =
nX
i=1
Xi
2 −NX¯2
temos que
βˆ1 =
Pn
i=1XiYi − Y¯
Pn
i=1XiPn
i=1Xi
2 − X¯2
=
18, 000− (1, 400/500) .3, 000
66, 000− 500. (3, 000/500)2
=
9600
48000
= 0.2
e
βˆ0 = Y¯ − βˆ1X¯ = (1, 400/500)− 0.2 (3, 000/500) = 1.6
Questa˜o 4
Temos apenas que aplicar as regras para calcular a variaˆncia de uma com-
binac¸a˜o linear de varia´veis, para as quais sabemos suas variaˆncias. Enta˜o supo-
mos que Xi para i=1,2,3 sa˜o independentes e que teˆm a mesma me´dia m e
variaˆncia σ2.
V ( 4X1+12X2+3X319 ) =
1
192 {42V (X1)+122V (X2)+32V (X3)} = σ2 16+144+9361 =
σ20.468
V (X1+X2+X33 ) =
1
32 {V (X1) + V (X2) + V (X3)} = σ20.33
Obviamente, tanto quanto σ2 6= 0 temos:
V (X1+X2+X33 ) < V (
4X1+12X2+3X3
19 )
Enta˜o o segundo estimador e´ mais eficiente, note que, entretanto, podemos
comparar esses dois estimadores em termos de suas variaˆncias porque eles sa˜o
ambos na˜o viciados. E´ fa´cil checar isto.
E(
4X1 + 12X2 + 3X3
19
) =
m
19
(4 + 12 + 3) = m
E(
X1 +X2 +X3
3
) =
m
3
(1 + 1 + 1) = m
Questa˜o 5
a) Se todas as observac¸o˜es da varia´vel independente sa˜o ideˆnticas, significa
que Xi = X¯ ∀i. Relembramos as fo´rmulas de M.Q.O. para os estimadores βˆ1
e βˆ0;
βˆ1 =
Pn
i=1(Yi − Y¯ )(Xi − X¯)Pn
i=1(Xi − X¯)2
3
βˆ0 = Y¯ − βˆ1X¯
e´ imediato ver que o numerador e o denominador na expressa˜o para βˆ1 sa˜o 0.
Enta˜o, o estimador da inclinac¸a˜o na˜o e´ definido O mesmo e´ verdade para o
estimador do intercepto, desde que e´ uma func¸a˜o de βˆ1.A intuic¸a˜o para este
resultado e´ que precisamos ao menos de dois pontos com distintas coordenadas
no eixo horizontal para ajustar uma linha.
b) Lembre-se de que a variaˆncia do estimador de OLS de β1 e´ dada por,
V
³
βˆ1
´
=
σ2Pn
i=1(X1 − X¯1)2
Consequ¨entemente, a variaˆncia de β1 e´ proporcional ao inverso da variaˆncia
amostral de X1. Durante um per´ıodo de flutuac¸a˜o de taxa de juros, a variaˆncia
de X1 aumenta, e, consequ¨entemente, a variaˆncia de β1 descrece, ou, alter-
nativamente, a precisa˜o com que estimamos β1 aumenta. Assim, estariamos
melhores durante um per´ıodo de flutuac¸a˜o das taxas de juros.
c) Usando a propriedade da esperanac¸a e da variaˆncia, temos:
E (Z) = 0.5E (Y )− 0.5 = 0.5 ∗ 1− 0.5 = 0
V (Z) = 0.25V (Y ) = 0.25 ∗ 4 = 1
d) O modelo verdadeiro, correto, pode ser escrito como
Y = β0 + β1X1 + β2X2 + �
ondeX1 eX2 denota˜o a renda da vizinhanc¸a e a renda familiar, respectivamente.
No entanto, ajustamos o modelo
Y = β0 + β1X1 + u,
onde
u = β2X2 + �
O efeito causal de uma mudanc¸a infinitesimal da renda da vizinhanc¸a no
desempenho escolar, todas as demais varia´veis constantes, coeteris paribus, e´
β1. Sabemos que o estimador de M.Q.O. de β1 pode ser expresso como
βˆ1 =
Pn
i=1(X1i − X¯1)(Yi − Y¯ )Pn
i=1(X1i − X¯1)2
Desde
Yi − Y¯ = β0 + β1X1i + β2X2i + �i − β0 − β1X¯1 − β2X¯2 − �¯
= β1
¡
X1i − X¯1
¢
+ β2
¡
X2i − X¯2
¢
+ �i − �¯,
4
segue-se que
βˆ1 =
Pn
i=1(X1i − X¯1)
¡
β1
¡
X1i − X¯1
¢
+ β2
¡
X2i − X¯2
¢
+ �i − �¯
¢Pn
i=1(X1i − X¯1)2
= β1 + β2
(1/n)
Pn
i=1(X1i − X¯1)
¡
X2i − X¯2
¢
(1/n)
Pn
i=1(X1i − X¯1)2
+
(1/n)
Pn
i=1(X1i − X¯1) (�i − �¯)
(1/n)
Pn
i=1(X1i − X¯1)2
Tirando os limites quando n tende a infinito, segue-se da Lei Fraca dos
Grandes Nu´meros que
p lim βˆ1 = β1 + β2
p lim (1/n)
Pn
i=1(X1i − X¯1)
¡
X2i − X¯2
¢
p lim (1/n)
Pn
i=1(X1i − X¯1)2
+
p lim (1/n)
Pn
i=1(X1i − X¯1) (�i − �¯)
p lim (1/n)
Pn
i=1(X1i − X¯1)2
= β1 + β2
E(X1 − X¯1)
¡
X2 − X¯2
¢
E(X1 − X¯1)2
+
E(X1 − X¯1) (�− �¯)
E(X1 − X¯1)2
= β1 + β2
Cov(X1,X2)
V (X1)
desde que β1 e β2 sa˜o constantes, independentes de n, eX1 e u sa˜o independentes
na me´dia, o que implica que E(X1−X¯1) (�− �¯) = 0, e .E(X1−X¯1)2 = V (X1) >
0
O senso comum sugere que crianc¸as de famı´lias ricas va˜o melhor na escola,
enta˜o esperamos que β2 seja positivo. Mais ainda, em geral, quanto mais rica
a vizinhanc¸a, maior a renda familiar. Assim, esperamos que Cov(X1,X2) > 0.
Desde que V (X1) > 0, segue-se que o sinal esperado do vie´s e´ positivo. Omissa˜o
da renda familiar da regressa˜o implica que o coeficiente de β1 captura o efeito
de ambas varia´veis.
Questa˜o 6
a.
Lembre-se que o estimador de O.L.S. (M.Q.O.) minimiza a soma dos quadra-
dos dos erros! Mas qual a definic¸a˜o de erro?
Lembre-se de que o erro na estimac¸a˜o e´ a diferenc¸a entre o valor verdadeiro
e o que voceˆ pode predizer se voceˆ soubesse apenas Xi. Em nosso caso:
Procuramos por um estimador αˆ de α tal que: yi = αxi+ ui. Enta˜o se tiver
um estimador αˆ e o valor de xj para algum indiv´ıduoj qual seria a predic¸a˜o de yj
que nomeia-se yˆj? E´ simplesmente: yˆj = αˆxj . Qual e´ o erro do estimador enta˜o?
Como dito, e´ a diferenc¸a entre o valor verdadeiro yj e a predic¸a˜o yˆj = αˆxj .
5
Enta˜o e´: yj − yˆj = yj − αˆxj . Enta˜o, dado uma amostra de tamanho n queremos
minimizar a soma dos quadrados dos erros, que e´:
nX
1
(yj − yˆj)2 =
nX
1
(yj − αˆxj)2
E queremos minimizar isto em relac¸a˜o ao que procuramos para....αˆ. Depois
de checar (Recomendamos que o fac¸a!) que a func¸a˜o e´ convexa, achamos que o
mı´nimo e´ atingido para:
αˆ =
P
yjxjP
x2j
b.
Podemos reescrever o estimador como: αˆ =
X
{ xj
(
S
x2j )
}yj =
X
kjyj e
kj =
xj
(
S
x2j)
Onde k0js sa˜o constantes que dependem somente dos x
0
js e na˜o dos y
0
js. O
que significa que αˆ e´ linear nos y0js.
c.
E[αˆ] = E[
X
kjyj ] =
X
kjE[yj ] sabemos que o modelo correto e´ yi =
αxi + ui (onde E[ui]=0), o qual usamos na seguinte equac¸a˜o.
E[αˆ] =
X
kjE[αxj + uj ] =
X
kjE[αxj ] +
X
kjE[uj ] =
X
kjE[αxj ] + 0
E[αˆ] =
X
kjE[αxj ] = α
X
kjE[xj ] = α
X
kjxj
= α
X xj
(
P
x2j)
xj = α
X x2j
(
P
x2j)
= α
1P
x2j
X
x2j = α
Enta˜o o estimador e´ na˜o viciado!
d.
α¯ = y¯
x¯
=
1
n
S
yi
1
n
S
xi
=
X
1
(
S
xi)
yi enta˜o α¯ e´ tambe´m linear em y
0
is.
E[α¯] =
X 1
(
P
xi)
E[yi] =
X 1
(
P
xi)
E[αxj + uj ] =
X 1
(
P
xi)
E[αxj ] = α
e na˜o viciado.
e.
V (αˆ) =
X
k2i V (yi) porque por um lado temos que x
0
is na˜o sa˜o estoca´sticose
que os u0is sa˜o na˜o correlacionados. Enta˜o os y
0
is tambe´m sa˜o na˜o correlacionados
e V (yi) = σ
2 para qualquer i.
V (αˆ) = σ2
X
[
xi
(
P
x2i )
]2 = σ2
1
(
P
x2i )
2
X
x2i = σ
2 1P
x2i
6
V (α¯) =
X 1
(
P
xi)2
V (yi) = σ
2
X 1
(
P
xi)2
=
σ2n
(
P
xi)2
Queremos comparar V (αˆ) e V (α¯). E´ suficiente achar o sinal de
P
x2i −
1
n
(
P
xi)
2 para inferir sobre a desigualdade.P
x2i − 1n(
P
xi)
2 =
P
x2i − 1n(
P
xi)(
P
xi) =
P
x2i − x¯(
P
xi) =
P
x2i −P
xix¯ =
P
xi(xi − x¯)
E note que:
P
xi(xi − x¯) =
P
(xi − x¯)(xi − x¯) =
P
(xi − x¯)2
Como, 0 ≤
P
(xi − x¯)2 =
P
x2i − 1n(
P
xi)
2.
Consequ¨entemente 1
n
(
P
xi)
2 ≤
P
x2i and V (αˆ) = σ
2 1S
x2i
≤ V (α¯) = σ2n(Sxi)2
Mas pod´ıamos ter conclu´ıdo usando o teorema de Gauss-Markov:
Sob as hipo´tese padro˜es do modelo correto, o estimador de M.Q.O. e´ o melhor
estimador linear na˜o viciado (melhor em termos de menor variaˆncia).
Questa˜o 7
Pela definic¸a˜o de densidade condicional, sabemos que:
fY |X (y|x) = fY,X (y, x)
fX (x)
o que implica que
fY,X (y, x) = fY |X (y|x) fX (x) = 2y + 4x
1 + 4x
1 + 4x
3
=
2y + 4x
3
A densidade condicional de X, dado Y, pode ser expressa como
fX|Y (x|y) = fY,X (y, x)
fY (y)
Integrando a densidade conjunta com respeito a x, encontramos a densidade
marginal de y, que e´:
fY (y) =
1Z
0
fY,X (y, x) dx =
1Z
0
2y + 4x
3
dx =
2xy
3
+
4x2
6
c10 =
2y + 2
3
Enta˜o,
fX|Y (x|y) =
2y+4x
3
2y+2
3
=
2y + 4x
2y + 2
=
y + 2x
y + 1
7
Questa˜o 8
Note que para a distribuic¸a˜o uniforme no intervalo [0, 1], temos f (x) = 1.
Assim, o primeiro e o segundo momentos sa˜o dados, respectivamente, por
E(x) =
1Z
0
xf (x) dx =
1Z
0
xdx =
x2
2
c10 =
1
2
− 0 = 1
2
e
E(x2) =
1Z
0
x2f (x) dx =
1Z
0
x2dx =
x3
3
c10 =
1
3
− 0 = 1
3
Expandindo o termo entre pareˆntese da esperanc¸a, temos,
E [x1 − 2x2 + x3]2 = E [(x1 − 2x2) + x3]2
= E
h
(x1 − 2x2)2 + x23 + 2 (x1 − 2x2)x3
i
= E
£
x21 − 4x1x2 + 4x22 + x23 + 2x1x3 − 4x2x3
¤
= E
£
x21
¤
− 4E [x1x2] + 4E
£
x22
¤
+E
£
x23
¤
+ 2E [x1x3]
−4E [x2x3]
= E
£
x21
¤
− 4E [x1]E [x2] + 4E
£
x22
¤
+E
£
x23
¤
+2E [x1]E [x3]− 4E [x2]E [x3]
= 6E
£
x21
¤
− 6 [E [x1]]2 = 6
1
3
− 61
4
=
24− 18
12
=
1
2
O fato de a amostra ser aleato´ria implica que as observac¸o˜es sa˜o indepen-
dentes, que, por sua vez, implica que Cov [x1, x2] = E [x1x2]−E [x1]E [x2] = 0,
or E [x1x2] = E [x1]E [x2] = [E [x1]]
2
.
Questa˜o 9
Primeiro, vamos calcular a func¸a˜o geradora de momentos de Y em t=0:
MY (0) = exp [c (MX (0)− 1)] = exp [c (1− 1) = 1]
desde que
MX (0) = E
£
etX
¤¯¯
t=0
= E
£
e0X
¤
= 1
Agora, calculando os dois primeiros momentos de Y, os quais sa˜o dados pelas
duas primeiras derivadas de MY (t) com respeito a t, valorado em t = 0.
E [Y ] =
d
dt
MY (t)
¯¯¯¯
t=0
= MY (t)
·
c
d
dt
MX (t)
¸¯¯¯¯
t=0
= MY (0) c
·
d
dt
MX (t)
¸
t=0
= cµ
8
E
£
Y 2
¤
=
d2
dt2
MY (t)
¯¯¯¯
t=0
= MY (t)
·
c
d2
dt2
MX (t)
¸¯¯¯¯
t=0
+ MY (t)
·
c
d
dt
MX (t)
¸2 ¯¯¯¯¯
t=0
= MY (0) c
·
d2
dt2
MX (t)
¸
t=0
+MY (0) c
2
·
d
dt
MX (t)
¸2
t=0
= c
¡
σ2 + µ2
¢
+ c2µ2
onde usamos os fatos de que d
dt
MY (t)
¯¯
t=0
= µ e d
2
dt2
MY (t)
¯¯¯
t=0
= σ2 + µ2.
Consequ¨eˆntemente, nomeando a me´dia e variaˆncia de Y , respectivamente,
por µY e σ
2
Y , temos
µY = cµ
e
σ2Y = E
£
Y 2
¤
− (µY )
2 = c
¡
σ2 + µ2
¢
Questa˜o 10
Uma amostra aleato´ria significa que os Y 0i s tem a mesma distribuic¸a˜o e sa˜o
independentes. Consequ¨entemente:
E[Y¯ ] =
nE[Yi]
n
= E[Yi]
Por outro lado, E[Yi] =
P
todos poss´ıveis valores de Y yi Pr(Yi = yi) = (β+1)
1
2+
(β − 1)12 = β
Enta˜o e´ um estimador na˜o viciado de β.
b.
Note que se β pode ser ou 0 ou 2. Enta˜o se Yi e´ igual a -1, enta˜o β na˜o pode
ser 2! E precisa ser 0. Enta˜o nosso estimador da´ o exato valor de β.
Mesmo se Yi e´ igual a 3 temos que β na˜o pode ser 0! E precisa ser 2.
Novamente, o novo estimador da´ o exato valor.
E como em todos os outros casos esse estimador e´ igual a Y¯ , enta˜o intuiti-
vamente e´ um melhor estimador porque no mı´nimo da´ o mesmo valor que Y¯ e
algumas vezes o exato valor. De fato, isso adve´m de que o novo estimador tem
a vantagem de ter todos as informac¸o˜es dadas, e Y¯ na˜o.
9

Outros materiais