Baixe o app para aproveitar ainda mais
Prévia do material em texto
Universidade Estadual Paulista ”Ju´lio de Mesquita Filho” TRABALHO DE ECONOMETRIA Marcela Almeida Alves Prof. Manoel Presidente Prudente 2017 1 1. (a) X = c(105,130,141,159,160,172) Y = c (2042,2301,2421,2518,2606,2718) Z = c(1,1,1,1,1,1) x = cbind(Z,X) XX = t(x)%%x tXY = t(x)%*%Y b = solve(XX)%*%(tXY); b [,1] Z 1025.246864 X 9.751463 reg = lm (Y X); reg plot (X,Y,las=1) abline (reg,col = 2) abline (v=mean(X),col=3) abline (h=mean(Y),col=4) (b) anova(reg) m = X - mean(X) n = Y - mean(Y) SQTotal = sum(n∧2); SQTotal SQReg = b[2]*sum(m*n); SQReg SQRes = SQTotal - SQReg; SQRes QMReg = SQReg/1; QMReg QMRes = SQRes/(n-2); QMRes Fest = QMReg/QMRes; Fest [1] 250.315 Ftab = qf(0.95,1,n-2); Ftab [1] 7.708647 Como Fest > Ftab rejeita-se Ho e conclui-se que existe ao menos uma diferena entre os grupos comparados. (c) s2 = QMRes;s2 s2b = s2 / (sum(m∧2)); s2b s2a = ((1/n)+((mean(X))∧2)/(sum(m∧2)))*s2; s2a t0 = qt(0.95,n-2); t0 b[1] - t0 * sqrt(s2a) 2 b[1] + t0 * sqrt(s2a) b[2] - t0 * sqrt(s2b) b[2] + t0 * sqrt(s2b) Enta˜o, intervalo de confianc¸a para β : [8, 437503; 11, 06542] intervalo de confianc¸a para α : [833, 1276; 1217, 366] (d) xh = 180 - mean(X) Yh = a2 + b2*xh;Yh [1] 1371.424 Ent~ao o custo estimado Y h = 1371.424. Yh - t0 * (sqrt((1 + (1/n) + (xh∧2/sum(x∧2)))*s2)) [1] 1280.884 Yh + t0 * (sqrt((1 + (1/n) + (xh∧2/sum(x∧2)))*s2)) [1] 1461.963 Enta˜o intervalo de confianc¸a para a predic¸a˜o: [1280,884; 1461.963] 2. (a) r = -0.6 n = 20 Fest = (r∧2) * ((n-2)/(1-r∧2)); Fest [1] 10.125 Ftab = qf(0.99,1,n-2); Ftab [1] 8.28542 Como Fest > Ftab o coeficiente de correlac¸a˜o r e´ significativo ao n´ıvel de 1%. Renda per capita e proporc¸a˜o de analfabetos se mostram negativamente correlacionados, ou seja, analfabetismo implica baixa renda per capita. (b) coef det = r∧2; coef det [1] 0.36 Logo r2 = 0, 36 3. x1 = c (6,12,10,8,9) x2 = c (28,40,32,36,34) Y = c (10,20,17,12,11) Z = c(1,1,1,1,1) (a) X1 = cbind(Z,x1) reg1 = lm(Y X1); reg1 XX1 = t(X1)%*%X1 tXY1 = t(X1)%*%Y b1 = solve(XX1)%*%(tXY1); b1 3 [, 1] Z -1.75 x1 1.75 Logo coeficiente angular da regressa˜o Y contra X1 e´ 1.75 (b) X2 = cbind(Z,x2) reg2 = lm(Y X2); reg2 XX2 = t(X2)%*%X2 tXY2 = t(X2)%*%Y b2 = solve(XX2)%*%(tXY2); b2 [,1] Z -7.250 x2 0.625 Logo coeficiente angular da regressa˜o Y contra X2 e´ 0.625 (c) X = cbind(Z,x1,x2) XX = t(X)%*%X tXY = t(X)%*%Y b = solve(XX)%*%(tXY); b [, 1] Z 2.3333333 x1 2.0833333 x2 -0.2083333 Logo Y = 2.33 + 2.0833X1− 0.2083X2 (d) m = x1 - mean(x1) n = x2 - mean(x2) y = Y - mean(Y) SQReg1 = b[2]*sum(m*y); SQReg1 SQRes1 = sum(y∧2) - SQReg1 ;SQRes1 s21 = SQRes1/2 Vb1 = s21*solve(t(X1)%*%X1)[1,1]; Vb1 t1 = (b[2] - 0) / sqrt(Vb1); t1 [1] 1.373088 Significativo (e) SQReg2 = b[2]*sum(m*y) + b[3]*sum(n*y); SQReg SQRes2 = sum(y∧2) - SQReg ;SQRes s2 = SQRes/2; QMRes Vb2 = s2*solve(XX)[2,2]; Vb2 t2 = (b[2] - 0) / sqrt(Vb2); t2 [1] 2.331262 Na˜o significativo 4 (f) A inclusa˜o de X2 afeta o valor da estimativa do coeficiente de regressa˜o, o valor da estimativa (s2) da variaˆncia residual e o valor do coeficiente, obtido da matriz (X ′X)−1. 4. Y = matrix(c(2,1.5,2.5,3,5.5,6.5),nrow=6) X = matrix(c(1,1,1,1,1,1,-1,-1,-1,1,1,1,1,2,3,1,2,3), nrow=6) (a) XX = t(X)%*%X tXY = t(X)%*%Y b = solve(XX)%*%(tXY); b [, 1] [1, ] 1.5 [2, ] 1.5 [3, ] 1.0 Logo Y = 1.5 + 1.5Zi+Xi (b) Temos que Y = 1, 5 + 1, 5Zi+Xi Quando Z = −1 o modelo fica Y = 1, 5− 1, 5 +X =⇒ Y = X Quando Z = 1 o modelo fica Y = 1, 5 + 1, 5 +X =⇒ Y = 3 +X Logo o deslocamento da oferta de um per´ıodo para o outro e´ de 3 unidades. (c) Na˜o significativo. 5. (a) A multicolinearidade e´ definida como a presenc¸a de um alto grau de correlac¸a˜o entre as varia´veis independentes. As varia´veis regressoras, localizadas nas colunas da matriz X, encontram-se em exata dependeˆncia inear, resultando na matriz singular XX, por isso, a presena de dependeˆncia no linear tem impactos na estimac¸a˜o dos coeficientes de regressa˜o. (b) i. Identificac¸a˜o Teste de Farrar & Glauber: Ho: Auseˆncia de multicolinearidade Ha: Presenc¸a de multicolinearidade Rejeita-se Ho se X2 > X2tab X2tab com g.l. = k*(k-1) / 2 X2 = −[(n− 1− 1/6) ∗ (2.k+ 5)]Ln(det 1 r12 . . . r1k r21 1 . . . r2k ... ... . . . ... rk1 rk2 . . . 1 ) onde: n = nu´mero de observac¸o˜es k = nu´mero de varia´veis rij = coeficiente de correlac¸a˜o 5 ii. Identificac¸a˜o VIF (Variance Inflation Factor): V IFk = 1/(1− rk2) onde rk = coeficiente de correlac¸a˜o da varia´vel K com as demais varia´veis E´ indicativo de problemas de multicolinearidade se V IF > 10 (c) Assim como na˜o existe um me´todo espec´ıfico de detecc¸a˜o, tambe´m aqui, na˜o ha´ uma u´nica soluc¸a˜o. Recomendam-se os seguintes procedimentos isolados ou combinados: i. A ampliac¸a˜o da amostra; ii. O uso de informac¸o˜es ”a priori”, ja´ dispon´ıveis atrave´s de outros trabalhos; iii. Transformac¸a˜o de alguma(as) varia´vel(eis) do modelo; iv. Ou ainda, em casos extremos, a eliminac¸a˜o de varia´vel(eis) do modelo; 6. X1 = c (0,1,1,2,2,3) X2 = c (0,1,2,1,2,3) X3 = c (1,1,1,1,1,1) Y = c (-0.5,3.5,7.0,7.0,7.5,11.5) X=cbind(X3,X1,X2) (a) XX = t(X)%*%X tXY = t(X)%*%Y b = solve(XX)%*%(tXY); b [, 1] [1, ] 2 [2, ] 2 Logo Y = 2X1 + 2X2 (b) reg = lm(Y X1+X2) anova (reg) R2 = sum(72.727,7.273) / sum(72.727,7.273,3.00);R2 [1] 0.9638554 ou summary(reg) R2 = 0.9639 (c) t = −2, 828, significativo. (d) F = 41, significativo. (e) xh = matrix(c(1,0.5,2.5)nrow=3) Yh = t(xh)%*%b 6 VYh = t(xh)%*%solve(XX)%*%xh%*%s2 Yh - qt(0.9,4)*sqrt(VYh) [, 1] [1, ] 3.235973 Yh + qt(0.9,4)*sqrt(VYh) [, 1] [1, ] 8.764027 Enta˜o intervalo de confianc¸a para a estimativa: [3.235973; 8.764027] (f) rk = 0.82 vif = 1 / (1 - rk); vif [1] 5.555556 Como V IF < 10 na˜o temos indicativos de multicolinearidade neste problema. 7. (a) E´ um fenoˆmeno estat´ıstico na qual a variabilidade dentro de cada observac¸a˜o na˜o e´ constante entre diferentes observac¸o˜es. (b) i. Identificac¸a˜o Teste de Glejser: Ho: Auseˆncia de heterocedasticia Ha: Presenc¸a de heterocedasticia �i = β1 + β2Xi+ νi Se β2 for estatisticamente diferente de zero em algumadas regresso˜es auxiliares ( pelo teste t), enta˜o rejeita-se a hipo´tese nula. ii. Identificac¸a˜o Teste de White: Ho: Auseˆncia de heterocedasticia Ha: Presenc¸a de heterocedasticia Rejeita-se Ho se X2calc > X2tab X2tab com g.l. = nu´mero de regressoras X2calc = nR2 (c) Consequncias da heterocedasticia: i. Os estimadores de MQ ainda sera˜o na˜o-tendenciosos e consistentes; ii. Pore´m, os estimadores na˜o sera˜o eficientes,ou seja, na˜o apresentara˜o a menor variaˆncia, quando comparados com outros estimadores lineares na˜o-tendenciosos, implicando em concluo˜es enganosas na realizac¸a˜odo teste t. 7 8. (a) Autocorrelac¸a˜o e´ a correlac¸a˜o entre integrantes de se´ries de observac¸o˜eses ordenadas no tempo (como as se´ries temporais) ou no espac¸o (como nos dados de corte transversal). (b) Consequeˆncias: i. Estimadores deixam de ser eficientes (continuam lineares, na˜o tendenciosos, consistentes e com distribuic¸a˜o normal assinto´tica); ii. Os estimadores das variaˆncias sa˜o viesados: tendeˆncia de subestimar os erros-padra˜o. Estat´ıstica t elevada. Mais prova´vel de rejeitar Ho (p.e. afirmar que os coeficientes sa˜o estatisticamente significativos), mesmo que eles na˜o sejam. iii. A variaˆncia residual σˆ = ∑ µˆ2/n− 2 provavelmente subestimara´ o verdadeiro σ2; iv. Seremos levados a superestimar R2; v. Os habituais testes de significaˆncia t e F na˜o sera˜o mais va´lidos; 9. Z = c(0,0,1,1,2,2,3,3) C = c(0,4,1,5,2,6,3,7)Y = c(0,4,2,6,4,8,6,10) z = Z - mean(Z) c = C - mean(C) y = Y - mean(Y) (a) beta1 = sum(c*y) / sum(y∧2); beta1 [1] 0.7222222 alpha1 = mean(C) - (beta1*mean(Y)); alpha1 [1] -0.1111111 (b) beta2 = sum(z*c) / sum(z*y); beta2 [1] 0.5 alpha2 = mean(C) - (beta2*mean(Y)); alpha2 [1] 1 (c) B = sum(z*c) / sum(z∧2); B [1] 1 A = mean(C) - B*mean(Z); A [1] 2 beta3 = B / (1+B); beta3 [1] 0.5 alpha3 = (1-beta3)*A; alpha3 [1] 1 8 (d) pi2 = sum(z*y) / sum(z∧2); pi2 [1] 2 pi1 = mean(Y) - pi2*mean(Z); pi1 [1] 2 # 1oestagio Yt = pi1 + pi2*Z; Yt [1] 2 2 4 4 6 6 8 8 yt = Yt - mean(Yt); yt [1] -3 -3 -1 -1 1 1 3 3 # 2oestagio beta4 = sum(c*yt) / sum(yt∧2); beta4 [1] 0.5 alpha4 = mean(C) - beta4*mean(Y); alpha4 [1] 1 9
Compartilhar