Baixe o app para aproveitar ainda mais
Prévia do material em texto
Universidade de Sa˜o Paulo - Departamento de Economia EAE 0324 - Econometria I Prof. Dr. Ricardo Avelino 1o Semestre de 2008 Lista de Exerc´ıcios 2 - Soluc¸a˜o Questa˜o 1 a. Lembre-se que uma das mais importantes caracter´ısticas de uma func¸a˜o densidade de probabilidade e´ que sua integral e´ igual a 1 e que tambe´m o valor de uma func¸a˜o de densidade f(x) e´ a probabilidade de que x acontec¸a, assim a soma de todas as probabilidades (que se torna uma integral se o conjunto sob o qual integramos e´ denso) deve ser igual a um. Fique atento, pois voceˆ deve saber o conjunto preciso no qual a varia´vel aleato´ria e´ definido. Na maioria dos casos em IR ou IR+. Enta˜o em nosso caso usamos a condic¸a˜o necessa´ria:R Ω f(x)dx = 1 Ω e´ o suporte da f.d.p., em outras palavras e´ o conjuto de todos os poss´ıveis valores da varia´vel aleato´ria associada com f . Em nosso caso e´ IR. Como pode- mos ver f e´ zero em qualquer lugar, menos no intervalo [1, 3]. Em consequ¨eˆncia dividimos a integral em duas partes [1,3] e o resto IR/[1, 3] (isto e´ apenas uma notac¸a˜o para o complemento de [1,3] em IR). E no´s obtemos:R Ω f(x)dx = R [1,3] f(x)dx+ R IR/[1,3] f(x)dx Por definic¸a˜o f(x) = 0 em IR/[1, 3],em consequ¨eˆncia R IR/[1,3] f(x)dx = 0 E f(x) = cx3 em [1, 3],o que significa que R Ω f(x)dx = R [1,3] f(x)dx =R [1,3] cx3dx = c[x 4 4 ] 3 1 = c 4(81− 1) = c20 Finalmente, como R Ω f(x)dx = 1 = c20 obtemos que c = 120 = 0.05 b. Como ja´ dito f(x) e´ a probabilidade de que a v.a. X assuma o exato valor x. Enta˜o, se queremos a probabilidade de que a v.a. X esteja no conjunto [1, 2] temos que apenas somar (integrar neste caso) a probabilidade de que cada valor em [1, 2] (neste caso representado por f(x)). Assim, P (1 ≤ X ≤ 2) = R [1,2] f(x)dx Agora apenas devemos calcular a integral usando nosso resultado na questa˜o a, R [1,2] f(x)dx = R [1,2] 1 20x 3dx = 180 [x 4]21 = 15 80 = 0.18 1 Questa˜o 2 No´s temos 30 motoristas selecionados aleato´riamente. No´s queremos a prob- abilidade de que no ma´ximo um motorista na˜o esteja devidamente segurado, em outras palavras, devemos ter 29 motoristas devidamente segurados. Seja a v.a. Xi para o motorista i. Xi = 1 para um agente devidamente segurado e 0, caso contra´rio. Pela definic¸a˜o a probabilidade de que Xi = 0 e´ 0.05. Ranqueie arbritariamente os motoristas de i=1 ate´ 30. Calculemos a prob- abilidade pedida: temos dois subcasos que sa˜o partic¸o˜es, ou todos os agentes sa˜o devidamente segurados ou somente um agente na˜o e´ devidamente segurado. Enta˜o, a probabilidade total e´ P (X1 = 1, ...,X30 = 1) + P (somente um agente na˜o e´ coberto pelo seguro) Como os motoristas sa˜o selecionados aleato´riamente as probabilidades asso- ciadas a eles sa˜o independentes e consequ¨entemente: P (X1 = 1, ...,X30 = 1) = P (X1 = 1) ∗ P (X3 = 1) ∗ ... ∗ P (X30 = 1) Como sabemos que P (Xi = 1) = 1− P (Xi = 0) = 0.95 Enta˜o, P (X1 = 1, ...,X30 = 1) = (0.95) 30 Para a segunda parte, para varrer todos os casos devemos ter que cada agente pode ser aquele que na˜o foi coberto. Como o problema e´ sime´trico temos a mesma probabilidade em cada caso. Por exemplo P (X1 = 0,X2 = 1...,X30 = 1) = 0.05∗ (0.95)29e temos exatamente 30 casos. Assim, a probabilidade total de que na˜o mais de que um motorista na˜o e´ devidamente segurado e´ (0.95)30 + 30 ∗ 0.05 ∗ (0.95)29 = 0.55 Questa˜o 3 a. Confirma-se a versa˜o generalizada da propriedade usada na questa˜o 1 R [0,1] R [0,1] f(x, y)dxdy = 1R [0,1] R [0,1] f(x, y)dxdy = R [0,1] R [0,1] 2/5(2x+ 3y)dxdy =R [0,1] 2/5[(x2 + 3yx)]10dy = R [0,1] 2/5(1 + 3y)dyR [0,1] R [0,1] f(x, y)dxdy = 2/5[y + 32y 2]10 = 2/5(1 + 3 2) = 2/5 ∗ 5/2 = 1 Enta˜o, f(x, y) definida em [0, 1] ∗ [0, 1] e´ uma f.d.p. apropriada. b. Como sabemos 2 P (x ≤ .5 and y ≤ .5) = R [0,.5] R [0,.5] f(x, y)dxdy =R [0,.5] R [0,.5] 2/5(2x+ 3y)dxdy = R [0,.5] 2/5[(x2 + 3yx)].50 dy P (x ≤ .5; y ≤ .5) = R [0,.5] 2/5( 14 + 3 2y)dy = 2/5[ 1 4y + 3 4y 2].50 = 2/5( 1 8 + 3 16 ) = 1 8 c. Quando temos a f.d.p. conjunta para um conjunto de varia´veis, para deduzir a distribuic¸a˜o marginal de uma delas devemos ter que integrar todas as outras. Temos, neste caso, somente duas varia´veis, enta˜o a distribuic¸a˜o marginal de X tem a seguinte f.d.p.: fX(x) = R [0,1] f(x, y)dy = R [0,1] 2/5(2x+3y)dy = 2/5[2xy+ 32y 2]10 = 2/5(2x+ 3 2) d. Podemos enta˜o calcular sua esperanc¸a E[X] = Z [0,1] xfX(x)dx = Z [0,1] 2/5x(2x+ 3 2 )dx = 2/5[ 2 3 x3 + 3 4 x2]10 = 2/5( 2 3 + 3 4 ) = 17 30 e. Sabemos que a relac¸a˜o fundamental de probabilidades condicional: P (A | B) = P (A∩B) P (B) Adaptamos a nossa questa˜o para ter A = {y ≤ .5} e B = {x ≤ .5}. Assim, P (y ≤ .5 | x ≤ .5) = P (x≤.5 e y≤.5) P (x≤.5) Como ja´ calculamos o numerador na questa˜o b, devemos apenas calcular o denominador. Da questa˜o (c.) temos a distribuic¸a˜o marginal de X e con- sequ¨entemente podemos deduzir P (x ≤ .5) = R [0,.5] fX(x)dx = R [0,.5] 2/5(2x + 3 2 )dx = 2/5[x 2 + 32x] .5 0 = 2/5( 1 4 + 3 4) P (x ≤ .5) = 2/5( 14 + 3 4) = 2 5 E encontramos que P (y ≤ .5 | x ≤ .5) = 182 5 = 516 3 e. Esta e´ uma questa˜o cla´ssica, dada a f.d.p. de uma distribuic¸a˜o conjunta voceˆ e´ inquirido a responder se eles sa˜o independentes. Ha´ dois me´todos para resolver a questa˜o. O mais geral e´ ver se f(x, y) = fX(x) ∗ fY (y) Onde f(, ) e´ a f.d.p. conjunta e fX (resp fY ) e´ a f.d.p. marginal de X que na˜o depende de y (respectivamente a f.d.p. marginal de Y na˜o depende de x). Podemos enta˜o calcular: f(x, y)/fX(x) = 2/5(2x+3y) 2/5(2x+ 32 ) = (2x+3y) (2x+ 32 ) E´ imposs´ıvel eliminar a varia´vel x da fo´rmula e em consequ¨eˆncia as varia´veis na˜o podem ser independentes O outro me´todo e´ menos geral, mas e´ mais pro´ximo do esp´ırito da questa˜o. Calculamos P (y ≤ .5 | x ≤ .5) = 516 , podemos calcular P (y ≤ .5) =R [0,.5] 2/5(1 + 3y)dy = 2/5[y + 32y 2].50 = 2/5( 1 2 + 3 4 ) = 1 2 Se X e Y fossem independentes ter´ıamos que P (y ≤ .5 | x ≤ .5) = P (y ≤ .5) o que na˜o e´ o caso e enta˜o, as duas varia´veis na˜o sa˜o independentes. Questa˜o 4 a. Esta questa˜o e´ u´til para os casos onde voceˆ tem que mudar as unidades de medida ou reescalar algumas varia´veis na regressa˜o, evitando refazer a regressa˜o novamente. Por definic¸a˜o, regredindo y em x produz uma inclinac¸a˜o βˆ1 e um intercepto βˆ0 tal que: βˆ1 = S (yi−y¯)(xi−x¯)S (xi−x¯)2 e βˆ0 = y¯− βˆ1x¯ Suponha que ao inve´s de regredir c1yi em c2xi, apenas os coloquemos nas fo´rmulas acima, enta˜o teremos os seguintes intercepto e inclinac¸a˜o: β˜1 = X i (c1yi − ( 1n P j c1yj))(c2xi − ( 1n P j c2xj))X i (c2xi − ( 1n P j c2xj)) 2 = P c1(yi − y¯)c2(xi − x¯)P (c2)2(xi − x¯)2 = P c1(yi − y¯)(xi − x¯)P c2(xi − x¯)2 = c1 c2 P (yi − y¯)(xi − x¯)P (xi − x¯)2 que e´ exatamente c1 c2 βˆ1 4 e β˜0 = c1y¯− β˜1c2x¯ = c1y¯− c1c2 βˆ1c2x¯ = c1y¯− c1βˆ1x¯ = c1(y¯− βˆ1x¯) que e´ igual a c1βˆ0 b. Aqui supomos que estamos fazendo uma translac¸a˜o das varia´veis, pode ocorrer no caso ao regredir y em x haja um erro sistema´tico em y, c1, e em x, c2. Na˜o ha´ necessidade de rodar novamente a regressa˜o se usamos o seguinte resultado. Seguindo os mesmos passos, temos que mudar as varia´veis na definic¸a˜o da inclinac¸a˜o e do intercepto, o que produz: β˜1 = X i {(yi + c1)− 1n P j(yj + c1)} ∗ {(xi + c2)− 1n P j(xj + c2)}X i {(xi + c2)− 1n P j(xj + c2)}2 = P ((yi + c1)− (y¯ + c1))((xi + c2)− (x¯+ c2))P ((xi + c2)− (x¯+ c2))2 = P (yi − y¯)(xi − x¯)P (xi − x¯)2 = βˆ1 E, β˜0 = (y¯+ c1)− β˜1(x¯+ c2) = (y¯+ c1)− βˆ1x¯− βˆ1c2 = (y¯− βˆ1x¯)+ c1− βˆ1c2 enta˜o usando o fato de que βˆ0 = (y¯ − βˆ1x¯) temos finalmente que β˜0 = βˆ0 + c1 − βˆ1c2 Nota: na questa˜o a. usamos o fato de que a me´dia de (c1y1, c1y2, ...c1yn) e´ c1y¯. Enquanto na questa˜o b. a me´dia de (c1 + y1, c1 + y2, ...c1 + yn) e´ c1 + y¯. Note tambe´m que todos P sa˜o de 1 ate´ n. Questa˜o 5 Nesta questa˜o e´ omitida as hipo´teses ba´sicas em uma regressa˜o. Sejam elas enta˜o: i. O modelo verdadeiro e´yi = β0 + β1xi + �i ii. (�i)i∈[1,n] e iid e E[�i] = 0 iii. Ou xi e´ fixo, ou E[�i | xj ] = 0, ∀(i, j) ∈ [1, n]2 Neste exerc´ıcio iremos comec¸ar com o caso mais simples: onde xi sa˜o fixos. Sabemos que βˆ1 = S (yi−y¯)(xi−x¯)S (xi−x¯)2 e βˆ0 = y¯− βˆ1x¯, e temos que provar que E[βˆ1] = β1 e E[βˆ0] = β0. Usemos primeiro usar i. na fo´rmula de βˆ1. Temos que: βˆ1 = S (β0+β1xi+�i−y¯)(xi−x¯)S (xi−x¯)2 e y¯ = β0 + β1x¯+ �¯. Consequ¨entemente, 5 βˆ1 = P (β0 + β1xi + �i − β0 − β1x¯− �¯)(xi − x¯)P (xi − x¯)2 = P (β1(xi − x¯) + �i − �¯)(xi − x¯)P (xi − x¯)2 = P β1(xi − x¯)2 + P �i(xi − x¯)− P �¯(xi − x¯)P (xi − x¯)2 Enta˜o, E[βˆ1] = E[ P β1(xi − x¯)2 + P �i(xi − x¯)− P �¯(xi − x¯)P (xi − x¯)2 ] = E[ P β1(xi − x¯)2P (xi − x¯)2 ] +E[ P �i(xi − x¯)P (xi − x¯)2 ] +E[ P �¯(xi − x¯)P (xi − x¯)2 ] como xi sa˜o fixos podemos retira´-los da esperanc¸a. E[βˆ1] = S β1(xi−x¯)2S (xi−x¯)2 + (xi−x¯)S (xi−x¯)2E[�i] + (xi−x¯)S (xi−x¯)2E [¯�] como por definic¸a˜o E[�i] = 0 e pela linearidade da esperanc¸a E [¯�] = 1 n P E[�i] = 0 conclu´ımos que E[βˆ1] = S β1(xi−x¯)2S (xi−x¯)2 = β1 e que βˆ1 e´ um estimador na˜o viciado de β. Para o estimador do intercepto o racioc´ınio e´ mais simples, E[βˆ0] = E[y¯]− E[βˆ1x¯] = E[β0 + β1x¯+ �¯]− x¯E[βˆ1] = β0 + x¯E[β1] + 0− x¯E[βˆ1] Como vimos E[βˆ1] = β1 e β1 e´ uma constante enta˜o E[β1] = β1 (usamos o mesmo para β0) Enta˜o, E[βˆ0] = β0 que significa que βˆ0 e´ tambe´m um estimador na˜o viciado. Nota: Para resolver este tipo de questa˜o veja se voceˆ sabe a diferenc¸a entre um estimador (p.ex.:βˆ1) que e´ uma v.a. em func¸a˜o de (xi,�i) e que o valor verdadeiro e´ β1 que e´ uma constante derivada do modelo verdadeiro. Questa˜o 6 a. Estamos dando a distribuic¸a˜o conjunta de (X,Y). Se queremos a me´dia de cada uma das varia´veis, enta˜o temos que achar a distribuic¸a˜o conjunta de cada uma. Para fazer isso temos que integra sobre a varia´vel na˜o requerida. Por exemplo, queremos a distribuic¸a˜o marginal de X sobre f(x,y) temos apenas que integrar f(x,y) sobre y...e o contra´rio se queremos a distribuic¸a˜o marginal de Y. Assim, fX(x) = R [0,1] f(x, y)dy = R [0,1] 2xdy = [2xy]10 = 2x fY (y) = R [0,1] f(x, y)dx = R [0,1] 2xdx = [x2]10 = 1 Note que Y tem uma distribuic¸a˜o uniforme sobre [0,1]. 6 Podemos inferir a me´dia: E[X] = R [0,1] xfX(x)dx = R [0,1] 2x2dx = 2/3[x3]10 = 2/3 E[Y ] = R [0,1] yfY (y)dy = R [0,1] ydy = 1/2 b. No´s temos que aplicar a definic¸a˜o: (Lembre-se E[h(X)] = R h(x)fX(x)dx para qualquer func¸a˜o cont´ınua h) V [X] = E[X2]−E[X]2 = R [0,1] x2fX(x)dx− (2/3)2 = 1/2− 4/9 = 1/18 V [Y ] = E[Y 2]−E[Y ]2 = R [0,1] y2fY (y)dy − (1/2)2 = 1/3− 1/4 = 1/12 c. Lembre-se da definic¸a˜o: cov(X,Y ) = E[XY ]−E[X]E[Y ] cov(X,Y ) = R [0,1] R [0,1] xyf(x, y)dxdy − (2/3 ∗ 1/2) = R [0,1] R [0,1] 2x2ydxdy − 1/3 = R [0,1] [x2y2]10dx− 1/3 = 1/3− 1/3 = 0 As varia´veis sa˜o na˜o correlacionados! d. Dada a definic¸a˜o, E[X | Y ] = R [−∞,+∞] xg(x | y)dx = R [−∞,+∞] x( f(x,y) fY (y) )dx = R [0,1] x(2x1 )dx =R [0,1] 2x2dx E[X | Y ] = 23 Note que nossa varia´vel x e´ definido em [0,1], o que significa que sua f.d.p. assume valor 0 fora de [0,1]. Questa˜o7 O estimador e´ na˜o viciado se sua esperanc¸a e´ igual ao valor verdadeiro. E ¡ X¯ ¢ = E · X1 +X2 2 ¸ = 1 2 (E [X1] + E [X2]) por linearidade do operador E (.). Como X1 e X2 seguem ambos a mesma distribuic¸a˜o N ¡ m, s2 ¢ , enta˜o E [X1] = E [X2] = m. Assim, E ¡ X¯ ¢ = m Para resolver este tipo de problema voceˆ precisa lembrar-se de como calcular a variaˆncia de uma combinac¸a˜o linear de v.a.. Suponha que X e Y sao v.a. com variaˆncias conhecidas V (X) and V (Y ) . Qual e´ a variaˆncia de V (aX + bY )? (Onde a e b sa˜o fixos). 7 V (aX + bY ) = a2V (X) + b2V (Y ) + 2ab ∗ cov (X,Y ) Aplicando esta regra a V ¡ X1 2 + X2 2 ¢ no´s obtemos: V ¡ X¯ ¢ = V µ X1 2 + X2 2 ¶ = 1 4 V (X1) + 1 4 V (X2) + 2 ∗ 1 2 ∗ 1 2 ∗ cov (X1,X2) Como X1 e X2 sa˜o independentes, cov (X1,X2) = 0 e como V (X1) = V (X2) = s 2 V ¡ X¯ ¢ = s2 2 = 25 Questa˜o 8 a) Os primeiros dois momentos de X sa˜o dados por µ = Z 1 −1 xf (x) dx = Z 1 −1 x µ x+ 1 2 ¶ dx = x3 6 + x2 4 º1 −1 = 1 6 + 1 4 − µ −1 6 ¶ −1 4 = 1 3 E ¡ X2 ¢ = Z 1 −1 x2f (x) dx = Z 1 −1 µ x3 + x2 2 ¶ dx = x4 8 + x3 6 º1 −1 = 1 8 + 1 6 − µ 1 8 ¶ + 1 6 = 1 3 Assim, σ2 = E ¡ X2 ¢ − µ2 = 1 3 − µ 1 3 ¶2 = 2 9 e σ3 = Ã√ 2 3 !3 = 2 √ 2 27 Calculando agora o terceiro momento central de X, temos que E (X − µ)3 = Z 1 −1 (x− µ)3 f (x) dx Mas (x− µ)3 f (x) = ¡ x3 − 3x2µ+ 3xµ2 − µ3 ¢µx+ 1 2 ¶ = µ x3 − x2 + x 3 − 1 27 ¶µ x+ 1 2 ¶ = µ x4 2 − x 3 2 + x2 6 − x 54 ¶ + x3 2 − x 2 2 + x 6 − 1 54 = x4 2 − 2x 2 3 + 4x 27 − 1 54 8 Em consequ¨eˆncia, E (X − µ)3 = Z 1 −1 µ x4 2 − 2x 2 3 + 4x 27 − 1 54 ¶ dx = x5 10 − 2x 3 9 + 2x2 27 − 1x 54 º1 −1 = µ 1 10 − 2 9 − 1 54 ¶ − µ − 1 10 + 2 9 + 1 54 ¶ = − 13 135 Finalmente, E (X − µ)3 σ3 = − 13 135 27 2 √ 2 = −0.9192 b) Neste caso, a func¸a˜o de densidade e´ sime´trica em torno de 0, enta˜o e´ direto mostrar que o coeficiente da assimetria e´ 0. A esperanc¸a e´ µ = Z 1 −1 xf (x) dx = Z 1 −1 x 1 2 dx = x2 4 º1 −1 = 1 4 − 1 4 = 0 e o terceiro momento central e´ tambe´m 0 E (X − µ)3 = Z 1 −1 x3 1 2 dx = x4 8 º1 −1 = 1 8 − 1 8 = 0 Questa˜o 9 a) Defina a func¸a˜o I{et(X−a)≥1} = ½ 1 se et(X−a) ≥ 1 0 caso contra´rio Por construc¸a˜o, I{et(X−a)≥1} ≤ et(X−a) Tirando a esperanc¸a de ambos os lados da inequac¸a˜o acima, segue-se que E h I{et(X−a)≥1} i = P h et(X−a) ≥ 1 i ≤ E h et(X−a) i Finalmente, como 0 < t < h, note que et(X−a) ≥ 1⇔ t (X − a) ≥ 0⇔ (X − a) ≥ 0 Assim, P [(X − a) ≥ 0] ≤ E h et(X−a) i 9 ou, de maneira alternativa, P [X ≥ a] ≤ E h et(X−a) i = e−atE £ etX ¤ = e−atMX (t) b) Da parte (a) P h et(X−a) ≥ 1 i ≤ E h et(X−a) i Para −h < t < 0, note que et(X−a) ≥ 1⇔ t (X − a) ≥ 0⇔ (X − a) ≤ 0 Assim, P [(X − a) ≤ 0] ≤ E h et(X−a) i ou, de maneira alternativa, P [X ≤ a] ≤ e−atMX (t) 10
Compartilhar