Baixe o app para aproveitar ainda mais
Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
1 Hipóteses envolvendo o erro 1. Hipóteses envolvendo o erro 2. Heterocedasticidade 3. Testando a normalidade 4. Autocorrelação dos resíduos 2 1. Hipóteses envolvendo o erro ui - No caso da estimação: (a) O valor médio do erro ui é zero: ( / ) 0i iE u X (b) Homocedasticidade ou variância igual de ui. Dado Xi, a variância de ui é a mesma para todas as observações: ( / ) ( / ) i i i i iVar u X E u E u X 2( / ) ( / )i i i iVar u X E u X 2( / ) i iVar u X (c) Não há autocorrelação entre os termos de erro. Dados quaisquer valores de X, Xi e Xj (i j), a correlação entre quaisquer ui e uj (i j) é zero: ( , / , ) 0i j i jCov u u X X - No caso do teste de hipóteses (d) O modelo normal de regressão linear pressupõe que cada ui seja distribuído normalmente com: ( ) 0iE u 2( ) iVar u ( , ) 0i jCov u u para i j ou 2(0, )iu N ou 2NID(0, )iu 3 onde NID significa distribuído de maneira normal e independente. 1.1 Propriedades dos estimadores de MQO sob a premissa da normalidade (a) São não tendenciosos (b) Têm variância mínima. Combinado com (a) significa que são estimadores não tendenciosos com variância mínima, ou estimadores eficientes. (c) São consistentes, isto é, à medida em que o tamanho da amostra aumenta indefinidamente os estimadores convergem para os verdadeiros valores da população. (d) 1ˆ , que é uma função linear de ui, tem distribuição normal com: Média: 1 1 ˆ( )E Var ( 1ˆ ); 1 2 2 2 ˆ 2 i i X n x ou de modo mais compacto: 1 2 ˆ1 1 ˆ ( , )N Então, pelas propriedades da distribuição normal, a variável z que é definida como: 1 1 1 2 ˆ ˆ z segue a distribuição normal padrão, ou: (0,1)z N (e) Como 2ˆ é uma função linear de ui, também tem distribuição normal com: Média: 2 2 ˆ( )E Var ( 2ˆ ): 2 2 2 ˆ( ) i Var x 4 ou de modo compacto: 2 2 ˆ2 2 ˆ ( , )N e também 2 2 2 2 ˆ ˆ z segue a distribuição normal padrão. (f) 2 2ˆ( 2)( /n segue a distribuição 2 com (n-2) graus de liberdade. Isso nos ajuda a fazer inferências a respeito do verdadeiro 2 a partir do 2ˆ . (g) A distribuição de 1 ˆ( e 2ˆ ) é independente de 2ˆ . (h) 1ˆ e 2ˆ têm variância mínima dentro de toda classe de estimadores não tendenciosos, sejam ou não lineares. RESUMO A premissa da normalidade permite deduzir as distribuições de probabilidade, ou amostral de 1ˆ e 2ˆ (ambas normais) e de 2 (relacionado ao 2 ). Isto significa simplificar a tarefa de construir intervalos de confiança e testar estatisticamente as hipóteses. Dada a premissa de que 2(0, )iu N , Yi sendo função linear de ui, também está distribuído normalmente com média e variância dadas por: 1 2( )iE Y X 2( )iVar Y ou, mais elegantemente: 2 1 2( ; )i iY N X 2. Heterocedasticidade O valor médio do erro ui é zero: ( / ) 0i iE u X Não há teste para esta hipótese 5 Segundo a hipótese de homocedasticidade a distribuição de u permanece a mesma para cada valor de X, e em particular, que a variância de cada ui permanece a mesma para cada valor de Xi. 2 2 2( ) [( ( )] ( )i i uVar u E u E u E u constante. Esta hipótese é conhecida como homocedasticidade. Se não for satisfeita dizemos que os u´s são heterocedásticos: 2( ) ii u Var u para i = 1,2,3, ..., N Na prática os erros são heterocedásticos, e vamos discutir como lidar com isto no âmbito da econometria. 2.1 Conseqüências da heterocedasticidade Se o método dos MQO for empregado para estimar o seguinte modelo 1 2 2 3 2 ...i i i k ik iY X X X u onde 2( )i iVar u para i= 1,2, 3, ...,n, os estimadores serão justos (não viesados) e consistentes, pois estas propriedades dependem de: ( ) 0iE u e ( , ) 0i iCov X u A hipótese de homocedasticidade é usada para minimizar a variância da combinação linear de X e Y. Portanto, os parâmetros não terão a menor variância, não serão eficientes. 2.2. Testes para detectar a heterocedasticidade (a) Teste de Breusch-Pagan Considerando o modelo: 1 2 2 3 2 ...i i i k ik iY X X X u testamos a homocedasticidade dos resíduos: 1 2: ( / , ,..., ) 0o kH Var u X X X Se H0 for falsa o valor esperado de u2 , dadas as variáveis explicativas, pode ser qualquer função de Xj. Um método simples é assumir a função linear: 6 2 1 2 2 3 3 ... k ku X X X v onde 2 3( / , ,..., ) 0kE v X X X . Assim, a hipótese de homocedasticidade é: 0 1 2 3: ... 0kH Sabemos que as estatísticas F e LM podem ser usadas para testes conjuntos desta natureza. Como não conhecemos o erro efetivo u, mas temos uma estimativa, os resíduos de MQO, 2ˆ iu , podemos estimar a equação: 2 1 2 2 3 3 ... k ku X X X v e obtemos as estatísticas F e LM da significância conjunta dos j . A versão LM deste teste é chamada de teste de Breusch-Pagan da heterocedasticidade (teste BP). Este teste pressupõe a normalidade dos resíduos. Teste BP no E-Views Usando o arquivo HOUSEPRICE (Asteriou) 1. Estimar o modelo 1 2 3price rooms sqfeet u price =-19315,00 + 15198,19 rooms + 128,4362 sqfeer 2. Estimar a regressão auxiliar: 1 2 3utsq rooms sqfeet e rotina: genr ut=resid genr utsq=ut^2 utsq = -8,22E+09 +1,19E+09 rooms +3881720 sqfeet A estatística LM é distribuída segundo um 2 com graus de liberdade iguais ao número de coeficientes de declividade da regressão auxiliar (k-1). O 2 pode ser gerado 7 pela rotina: genr chi=@qchisq(.95,2) chi=5,991465 LM = n R2 = 88 x 0,120185 = 10,57628 Lembrando que a hipótese nula é ausência de heterocedasticidade: 0 1 2 3: ... 0kH Como LM > 2 a hipótese nula é rejeitada e conclui-se pela existência de heterocedasticidade. (b) Teste de White A hipótese de homocedasticidade 1 2( / , ,..., ) 0kVar u X X X pode ser substituída pela hipótese mais fraca de que: - u2 não é correlacionado com as variáveis independentes Xj, com os quadrados das variáveis independentes 2 jX e com todos os produtos cruzados Xj . Xh para j h. Esta observação motivou White (1980) a propor um teste para a heterocedasticidade que adiciona quadrados e produtos cruzados de todas as variáveis independentes. Assim, para o modelo: 1 2 2 3 3i iY X X u rodamos a equação auxiliar: 2 2 2 1 2 2 3 3 4 2 5 3 6 2 3iu X X X X X X e A hipótese nula de homocedasticidade é: 0 1 2 3 4 5 6: 0H Computa-se a estatística LM = n R2 onde n é o número de observações usadas para computar a regressão auxiliar e R2 é o coeficiente de determinação desta equação. 8 LM tem uma distribuição 2 com (6-1) graus de liberdade. Rejeitar H0 significa alta evidência de heterocedasticidade. Teste de White no E-Views Usando o arquivo HOUSEPRICE rodar o modelo: 1 2 3price rooms sqfeet u na janela da saída: View/Residual tests/White (cross terms) Na saída: White Heterokedasticity Test F - Statistic 4,683121 Prob 0,001857 Obs*R-squared 16,20386 Prob 0,002727 Como o LM é 16,20386 e o 2 é: genr chi=@qchisq(.95,4) = 9,487729 pode-se concluir pela heterocedasticidade 2.3. Resolvendo a heterocedasticidade Há duas maneiras de enfrentar a presença da heterocedasticidade: (a) reestimar o modelo de forma que leve em conta a presença da heterocedasticidade. Isto pode ser feito pelo método dos mínimos quadrados ponderados (generalizados); (b) usar estatísticas robustas em relação à heterocedasticidade após a estimação pelos MQO. 2.3.1. Mínimos quadrados generalizados Para generalizar os mínimos quadrados vamos partir do modelo: 1 2 2 3 3 ...i k k iY X X X u 9 onde a variância do erro não é constante: 2( )i iVar u . Se dividirmos cada termo do modelo acima pelo desvio padrão do erro, i , temos o modelo modificado: 2 3 1 2 3 1 ...i k ik i i i i i i Y X X X u ou: * * * * * * 1 1 2 2 3 3 ...i k k iY X X X X u No modelo modificado temos: * ( )( ) 1i ii i i u Var u Var u Var Portanto os estimadores de MQO do modelo modificado são BLUE. Este é o método dos Mínimos Quadrados Generalizados (MQG). 2.3.2. Mínimos Quadrados Ponderados (MQP) O procedimento para obter-se os MQP é o mesmo usado para os MQG. Definindo: 1 i i w reescrevendo o modelo original como: 1 2 2 3 3( ) ( ) ... ( ) ( )i i i i i k k i i iwY w X w X w X w u w ou: A idéia geral, como pode ser observado, é transformar o modelo original de tal forma que o erro se torne homocedástico. A transformação do modelo significa transformar os dados originais pela estrutura da heterocedasticidade, ou seja, da forma da relação de 2 iu com os valores das variáveis explicativas: 2 ( ) i ju f X 10 Em geral a transformação consiste em dividir a relação original pela raiz quadrada do termo que é responsável pela heterocedasticidade. Supondo o modelo: 1 2i i iY X u sendo ui heterocedástico. (a) Suponha que a heterocedasticidade do erro é da forma: 2 2 2 2( ) ii u E u K X onde K é uma constante finita a ser estimada do modelo. Como: 2 2 2 iuK X isto sugere que a transformação do modelo consiste na divisão da relação original por 2X X que dá: 1 2 i iY u X X X onde o erro é homocedástico. (b) Supondo que a heterocedasticidade seja da forma: 2 2 2( ) ii u E u K X A transformação apropriada consiste na divisão da relação original por X : 1 2 2 i iY X u X X X X sendo que o novo erro é homocedástico. (c) De modo geral, se a heterocedasticidade é da forma: 2 2( ) ( )i iE u K f X 11 a solução é dividir a relação original por ( )if X Usando o E-Views A partir do arquivo HOUSEPRICE rodar o modelo: price = f(rooms, sqfeet) Supondo que a estrutura da heterocedasticidade seja: 2 2( )i iVar u sqfeet o termo de correção , ponderação, será: 1 w sqfeet Quick/ Estimate Equation Options □ Weighted LS/ TSLS escrever o fator de ponderação: sqfeet^(-.5) 2.3.3. Quando a estrutura da heterocedasticidade for desconhecida Este método consiste em ajustar erros padrão, estatísticas t, F e LM de forma a torná- los válidos na presença de heterocedasticidade de forma desconhecida. Este método é chamado de procedimentos robustos em relação à heterocedasticidade, ou inferência robusta em relação à heterocedasticidade. Considerando o modelo simples: 1 2i i iY X u e assumindo que: 2( / )i i iVar u X ou seja, os erros são heterocedásticos, e dependem do valor de Xi. O estimador de MQO é: 12 2 2 2 ( )ˆ ( ) i i i X X u X X , e 2 2 ( )ˆvar( ) i x X X SQT onde 2( )X iSQT X X é a soma total dos quadrados de X. Quando 2 2 i para todo i, a variância se reduz à: 2 2 ˆ( ) x Var SQT Como o erro padrão de 2ˆ é a raiz quadrada da variância, precisamos estimar a variância na presença de heterocedasticidade. White(1980), mostrou como isto pode ser feito. Sendo ûi os resíduos estimados no modelo inicial, um estimador válido da variância de 2ˆ é: 2 2 2 ˆ( )ˆ( ) i i X X X u Var SQT que é facilmente calculada após a regressão MQO. Generalizando para um modelo 1 2 2 3 3 ... k kY X X X u 2ˆ ˆ. ˆ( ) ij i j j r u Var SQR onde iˆjr é o i-ésimo resíduo da regressão de Xj sobre todas as outras variáveis independentes e SQRj é a soma dos quadrados dos resíduos desta regressão. 13 A raiz quadrada da expressão acima fornece os erros-padrão robustos de White. Também é possível obter estatísticas F e LM robustas. Usando o E-Views: inferência robusta Quick/ Estimate Equation: Specification: price c rooms sqfeet 14 15 3. Testando a normalidade Teste de normalidade de Jarque-Bera (JB) Este é um teste assintótico, ou seja, para grandes amostras. Este teste calcula a assimetria e a curtose (A e C) dos resíduos de MQO e emprega o seguinte teste: 2 2( 3) 6 24 A C JB n Curtose: grau de achatamento de uma distribuição. Numa distribuição normal a assimetria é zero (A=0) e o valor da curtose é três (C = 3). Sob a hipótese nula de que os resíduos se distribuem normalmente, Jarque e Bera mostraram que assintoticamente a estatística JB segue a distribuição 2 com 2 graus de liberdade. Se o valor p da estatística ( =nível de significância) 2 for suficientemente baixo, podemos rejeitar a hipótese de que os resíduos tem distribuição normal. Teste da normalidade no E-Views Usando dados do arquivo TABLE2.8, que trata de despesas com alimentos na Índia, rodamos o modelo (n=55) Quick/ Estimate Equation Especification: foodexp c totalexp 16 O 2ˆ é claramente diferente de zero, mas vamos testar a hipótese de que 2 0,5 0 2 1 2 : 0,5 : 0,5 H H 0,436808 0,5 0,8071 0,078323 t O valor crítico de t, tc com =0,05 e n-2 (53) graus de liberdade é, num teste bicaudal genr t = qtdist(.025,53) tc = 2,005746 Como t < tc, aceitamos a hipótese nula, ou seja, 2 =0,5 17 Se quisermos saber o nível de significância do valor do t calculado, -0,8071, para compará-lo com um nível de significância crítico, como por exemplo =0,05, digitaríamos no painel de comando: genr a=dtdist(-.8071,53) a = 0,28550 Como 0,05 < 0,2855, aceitamos a hipótese nula. Agora vamos testar a normalidade do erro. Na janela da equação View/ Residual Tests/ Histogram – Normality Test e aparece a seguinte janela: A hipótese nula é de normalidade, a estatística de Jarque-Bera = 0,257585 e sua probabilidade (nível de significância) é 0,879156. Logo, não podemos aceitar a hipótese nula, e concluímos que os erros são distribuídos normalmente. 18 4. Autocorrelação dos resíduos Uma das hipóteses do modelo dos mínimos quadrados indiretos é: ( , / , ) 0 para i j i jCov u u X X i j Este tipo de autocorrelação também é chamado de correlação serial. Em dados de corte transversal, em geral, os erros não são correlacionados. Se forem, chamamos de autocorrelação espacial. Em séries de tempo a situação tende a ser outra. As observações sucessivas, no tempo, tendem a apresentar intercorrelações, sobretudo, dependendo do tipo do dado, se o intervalo de tempo for curto. Para preços, um dia, uma semana, são intervalos curtos. Um ano é um intervalo longo. Para séries de produto um ano não é um intervalo longo. 4.1. Conseqüências da autocorrelação nos resíduos Se for empregado o método dos MQO o estimador 2ˆ não será assintoticamente eficiente. Como 2ˆ não é assintoticamente eficiente podemos aceitar uma hipótese nula quando ela não é verdadeira. Isto acontece porque o intervalo de confiança dado pelo MQO é maior do que o do método dos Mínimos Quadrados Generalizados (MQG), usado para estimar os parâmetros na presença de autocorrelação nos resíduos. Em resumo, os estimadores são justos mas não são eficientes. 4.2. Testes de detecção da autocorrelação 4.2.1. Teste de Durbin-Watson O teste mais conhecido para detectar a autocorrelação é o de Durbin-Watson (DW), que é válido nas seguintes condições: (a) o modelo de regressão inclui uma constante; (b) a correlação serial é de primeira ordem – AR(1); (c) o modelo não inclui variáveis dependentes defasadas como variáveis explicativas. Considerando o modelo: 1 2 2 3 3 ... t k k tY X X X u 19 onde 1 , 1t t tu u Para testar a hipótese: 0 : 0H o teste DW envolve as seguintes etapas: (1) Estimar o modelo usando MQO o obter os resíduos; (2) Calcular a estatística DW: 2 12 2 1 ˆ ˆ( ) ˆ t n t tt n t u u DW u (3) Construir a tabela seguinte com os cálculos dU, dL, 4-dU, 4-dL, que são obtidos da tabela com os valores críticos de DW. Observe que os valores críticos são fornecidos de acordo com k, que é o número de variáveis explicativas mais a constante. 4. As hipóteses são: 0 1 : 0 : 0 H H a. se d dL rejeita-se H0 e conclui-se que há autocorrelação positiva; b. se d dU não rejeitamos H0 e, portanto, não há autocorrelação positiva; 2dUdL0 4-dL 4-dU 4 Teste de Durbin-Watson Rejeita H0 Indecisão Indecisão Não rejeita H0, H1 ou ambas Rejeita H1 ρ>0 ρ<0 20 c. no caso especial em que dL < d < dU o teste é inconclusivo 0 1 : 0 : 0 H H d. se d 4 - dL rejeitamos H0 e concluímos que ρ>0 e. se d 4 – dU não rejeitamos H0 e concluímos que não ρ < 0; f. no caso especial em que 4 – dU < d < 4 – dL o teste é inconclusivo. Regra de bolso para o teste DW Demonstra-se que d 2(1- ˆ ). Como vai de -1 até +1, o intervalo de d vai de 0 até 4. Temos então 3 diferentes casos: 1. 0 ; d = 2: portanto, um valor de d próximo de 2 é evidência de que não há autocorrelação. 2. 1 ; d 0: uma autocorrelação fortemente positiva indica que d terá valores próximos de 0 3. 1 ; d 4: uma autocorrelação fortemente negativa indica que d terá valores próximos de 4. Teste DW no E-Views Arquivo serial_corr Rodar o modelo: 1 2 3lcons ldisp lprice gerar uma série com os resíduos: genr res01=resid plotar os resíduos plot res01 plotar os resíduos contra seus valores defasados scat res01(-1) res01 O DW é 0,370186, que dá forte indicação de autocorrelação 21 4.2.2 – Teste LM de Breusch-Godfrey para autocorrelação LM = multiplicador de Lagrange Como o teste DW tem muitas restrições, Breusch e Godfrey construíram um teste do tipo multiplicador de Lagrange que pode acomodar muitas destas restrições. Considerando o modelo: 1 2 2 3 3 ...t k k tY X X X u onde: 1 1 2 2 ...t t t p t p tu u u u O teste LM Breusch-Godfrey combina estas duas equações: 1 2 2 3 3 1 1 2 2... ...t k k t t p t p tY X X X u u u onde as hipótese nula e alternativa são: 0 1 2: ... 0pH H1: ao menos um dos s não é zero e portanto há autocorrelação. Teste Breusch-Godfrey no E-Views Com o mesmo arquivo serial_corr rodar o mesmo modelo: 1 2 3lcons ldisp lprice Rodado o modelo: View/Residual Tests/Serial Correlation LM Test especificar Lags to include: 4 22 Breusch-Godfrey Serial Correlation LM Test: F-statistic 17.25931 Probability 0.000000 Obs*R-squared 26.22439 Probability 0.000029 Test Equation: Dependent Variable: RESID Method: Least Squares Date: 05/10/10 Time: 15:23 Presample missing value lagged residuals set to zero. Variable Coefficient Std. Error t-Statistic Prob. C -0.483704 0.489336 -0.988491 0.3306 LDISP 0.178048 0.185788 0.958341 0.3453 LPRICE -0.071428 0.093945 -0.760322 0.4528 RESID(-1) 0.840743 0.176658 4.759155 0.0000 RESID(-2) -0.340727 0.233486 -1.459306 0.1545 RESID(-3) 0.256762 0.231219 1.110471 0.2753 RESID(-4) 0.196959 0.186608 1.055465 0.2994 R-squared 0.690115 Mean dependent var -7.48E-16 Adjusted R-squared 0.630138 S.D. dependent var 0.044987 S.E. of regression 0.027359 Akaike info criterion -4.194685 Sum squared resid 0.023205 Schwarz criterion -3.893024 Log likelihood 86.69901 F-statistic 11.50621 Durbin-Watson stat 1.554119 Prob(F-statistic) 0.000001 Como os valores de F e LM são altos e as probabilidades baixas, rejeita-se H0. Logo, há indícios de autocorrrelação. Como apenas o coeficiente de RESID(-1) é significativo, há indícios de que temos um erro AR(1) 23 4.3 – Resolvendo a autocorrelação - conhecido Considerando o modelo 1 2 2 3 3 ...t t t k kt tY X X X u (1) se soubermos que ut é autocorrelacionado segundo o esquema: 1t t tu u (2) Se (1) é verdadeiro para o período t, também será para o período t-1: 1 1 2 2 1 3 3 1 1 1...t t t k kt tY X X X u (3) Multiplicando ambos os lados de (3) por : 1 1 2 2 1 3 3 1 1 1...t t t k kt tY X X X u (4) Subtraindo (4) de (1): 1 1 2 2 2 1 3 3 3 1 1 1 (1 ) ( ) ( 0 ) ... ( ) ( ) t t t t t t k kt kt t t Y Y X X X X X X u u (5) ou+ * * * * * 1 2 2 3 3 ...t t t k kt tY X X X (6) onde * 1t t tY Y Y , * 1 1(1 ) e * * * 1( )it it itX X X Com este procedimento perdemos uma observação. Para evitar isto, se for o caso, sugere-se que Y1 e Xi1 sejam transformados para a primeira observação, como: * 2 1 1 1Y Y e * 2 1 1 1i iX X Esta transformação é conhecida como quase diferenciação ou diferenciação generalizada. Note que o erro em (6) satisfaz as hipótese dos MQO. Portanto, se for conhecido, estimando (6) pelo MQO obteremos estimativas BLUE. 24 4.4. Resolvendo a autocorrelação - desconhecido Embora o método das diferenças generalizadas seja fácil de aplicar, na prática o valor de não é conhecido. Muitos procedimentos foram desenvolvidos para resolver este problema, sendo que o mais usado é o Método Iterativo de Cochrane –Orcutt. Cochrane e Orcutt (1949) desenvolveram um procedimento iterativo que consiste em 4 etapas: 1. Estimar o modelo (1) e obter os resíduos ˆ tu 2. Estimar o coeficiente de correlação serial de primeira ordem pelo MQO: 1 ˆ ˆˆ t t tu u 3. Transformar as variáveis originais: * 1 ˆ t t tY Y Y * 1 1 ˆ(1 ) * 1 ˆ it it itx X X * 2 1 1 1Y Y para t = 1 * 2 1 1 1i iX X para t = 1 4. Rodar a regressão usando as variáveis transformadas e encontrar os resíduos desta regressão. Como não sabemos se o ˆ obtido na etapa 2 é o melhor estimador de , executamos da etapa 2 à 4 diversas vezes até a seguinte regra de encerramento: stopping rule (regra de encerramento) O processo iterativo pode parar quando duas estimativas sucessivas de diferirem por não mais do que um pequeníssimo valor pré-determinado (ex.: 0,001). O ˆ final é usado para estimar (6) * * * * * 1 2 2 3 3 ...t t t k kt tY X X X (6) Em geral o processo não requer mais do que entre 3 e 6 iterações. O E-Views usa um método iterativo não linear para estimar um modelo com diferenças generalizadas com erros AR(1) na presença de autocorrelação. 25 As estimativas deste método iterativo podem ser obtidas simplesmente incluído um AR(1) no fim da especificação da equação. Se tivermos o modelo ls y c x e sabemos que há autocorrelação de primeira ordem, obtemos o processo iterativo escrevendo: ls y c x ar(1) Método Cochrane-Orcutt no E-Views Usando o arquivo serial_corr rodar o seguinte modelo: ls lcons c ldisp lprice ar(1) Observamos, conforme resultados abaixo, que = 0,974 foi obtido depois de 13 iterações. Dependent Variable: LCONS Method: Least Squares Date: 05/10/10 Time: 16:14 Sample (adjusted): 1985Q2 1994Q2 Included observations: 37 after adjustments Convergence achieved after 13 iterations Variable Coefficient Std. Error t-Statistic Prob. C 9.762759 1.067582 9.144742 0.0000 LDISP -0.180461 0.222169 -0.812269 0.4225 LPRICE -0.850378 0.057714 -14.73431 0.0000 AR(1) 0.974505 0.013289 73.33297 0.0000 R-squared 0.962878 Mean dependent var 4.608665 Adjusted R-squared 0.959503 S.D. dependent var 0.051985 S.E. of regression 0.010461 Akaike info criterion -6.180445 Sum squared resid 0.003612 Schwarz criterion -6.006291 Log likelihood 118.3382 F-statistic 285.3174 Durbin-Watson stat 2.254662 Prob(F-statistic) 0.000000 Inverted AR Roots .97 26 Se usarmos um AR(4) junto com o AR(1): ls lcons c ldisp lprice ar(1) ar(4) notamos que o coeficiente de ar(4) não é significativo. Dependent Variable: LCONS Method: Least Squares Date: 05/10/10 Time: 16:15 Sample (adjusted): 1986Q1 1994Q2 Included observations: 34 after adjustments Convergence achieved after 12 iterations Variable Coefficient Std. Error t-Statistic Prob. C 10.21012 0.984907 10.36659 0.0000 LDISP -0.308138 0.200041 -1.540373 0.1343 LPRICE -0.820115 0.065877 -12.44915 0.0000 AR(1) 0.797677 0.123851 6.440605 0.0000 AR(4) 0.160974 0.115526 1.393404 0.1741 R-squared 0.967582 Mean dependent var 4.610894 Adjusted R-squared 0.963111 S.D. dependent var 0.053370 S.E. of regression 0.010251 Akaike info criterion -6.187920 Sum squared resid 0.003047 Schwarz criterion -5.963455 Log likelihood 110.1946 F-statistic 216.3924 Durbin-Watson stat 2.045798 Prob(F-statistic) 0.000000 Inverted AR Roots .97 .16+.55i .16-.55i -.50 27 ANEXO Formas da distri buição F. O formato da distribuição depende do número de graus de liberdade do numerador. Já vimos a distribuição F(1, 72). Vamos fazer o gráfico das funções F(5,72) e F(10,72). Basta digitar na janela de comando: Series F5=@dfdist(wf,5,72) Series F10=@dfdist(wf,10,72) seguidos de Enter. Quanto maior for o número de graus de liberdade do numerador, mais a distribuição fica simétrica. Os dois gráficos podem ser feitos ao mesmo tempo: no workfile clicar, nesta ordem, mantendo o Ctrl, f5 e f10. Clicar com o botão direito do mouse e: Open/ as a Group Na planilha que se abre: View/Multiple Graphs/Scatter/First series against all Aparecem os gráficos. Depois é só escolher as Options adequadas para se obter o efeito desejado, como abaixo: .0 .1 .2 .3 .4 .5 .6 .7 .8 0 1 2 3 4 5 6 0.0 0.2 0.4 0.6 0.8 1.0 0 1 2 3 4 5 6 Distribuição de F com 5 e 72 gl Distribuição de F com 10 e 72 gl
Compartilhar