Baixe o app para aproveitar ainda mais
Prévia do material em texto
Departamento de Economia ECO 1705 - Econometria II ECO 1800 - Técnicas de Pesquisa em Economia Profs.: Marco Antônio F.H. Cavalcanti e Fabrício Mello MODELOS ARIMA: TEORIA E APLICAÇÕES ECO1800 - PUC-Rio 1 Índice I. Introdução II. Modelos ARMA: definição III. Modelos ARMA: estacionariedade IV. Modelos ARMA: identificação V. Modelos ARMA: estimação, validação e seleção VI. Previsão com modelos ARMA VII. Multiplicadores dinâmicos VIII. Modelos não-estacionários: ARIMA IX. Modelos sazonais ECO1800 - PUC-Rio 2 Modelos ARIMA: Teoria e aplicações I – Introdução A análise de séries temporais econômicas parte da idéia de que qualquer série observada pode ser interpretada como a realização de um processo estocástico, ou “mecanismo gerador de dados (MGD)” desconhecido. Procura-se, então, construir um modelo que represente uma aproximação razoável ao verdadeiro MGD para o(s) objetivo(s) em questão. Uma abordagem clássica parte da idéia de que qualquer série observada Y pode ser decomposta de uma das seguintes formas: Y = T + S + C + I (1a) ou Y = T * S * C * I (1b) Onde: • T = Tendência (componente que explica o valor médio em torno do qual a variável tende a flutuar no longo prazo) • S = Sazonalidade (componente periódico de “alta frequência”, isto é, que se repete em ciclos de período menor ou igual a um ano) • C = Ciclo (componente correspondente a padrões cíclicos não sazonais) • I = Irregular (componente aleatório “residual”, supostamente i.i.d.) Desta forma, uma série econômica poderia ser encarada como o resultado da combinação (aditiva ou multiplicativa) de componentes associados a diferentes características. Tais características se manifestariam com maior ou menor força em cada série, sendo possível, portanto, identificar as características mais marcantes em cada caso. Por exemplo, veja os gráficos das séries mensais de produção física industrial no Brasil, por categoria de uso, no período 1991.1-2005.4. Quais são as características mais marcantes em cada caso? ECO1800 - PUC-Rio 3 40 60 80 100 120 140 160 1992 1994 1996 1998 2000 2002 2004 YBCD 60 70 80 90 100 110 120 1992 1994 1996 1998 2000 2002 2004 YBCND 60 70 80 90 100 110 120 1992 1994 1996 1998 2000 2002 2004 YBI 60 70 80 90 100 110 120 130 140 1992 1994 1996 1998 2000 2002 2004 YBK • Visualmente, todas as séries caracterizam-se por forte sazonalidade na freqüência anual – que é o tipo de sazonalidade mais freqüente em séries econômicas. • As séries YBCD (bens de consumo duráveis) e YBK (bens de capital) apresentam, adicionalmente, clara tendência de crescimento no longo prazo e, possivelmente, ciclos de média duração. • A série YBI (produção de bens intermediários) também apresenta marcada tendência de crescimento no longo prazo, mas não parece muito afetada por ciclos. • A série YBCND (bens de consumo não duráveis) não parece possuir tendência relevante (especialmente a partir de 1994), mas possivelmente é afetada por ciclos (ainda que relativamente suaves). Ao construir um modelo, o objetivo é explicar da melhor forma possível cada uma dessas características – ou, pelo menos, as características mais marcantes da série de interesse. Se essa tarefa for bem sucedida, o modelo deverá revelar-se útil para previsão – desde que, evidentemente, os padrões observados no passado se mantenham no futuro. Há vários possíveis modelos capazes de explicar um ou mais dos componentes descritos acima. Neste capítulo, apresentamos uma classe de ECO1800 - PUC-Rio 4 modelos conhecida como “modelos ARIMA”, que são apropriados para modelar os componentes sazonal e irregular/cíclico e, para alguns processos, também o componente de tendência. A sigla ARIMA denota: “AutoRegressive Integrated Moving Average”; veremos a seguir o significado preciso de cada termo. A classe de modelos ARIMA é extremamente flexível, sendo capaz de produzir, com pouquíssimos parâmetros, séries temporais com comportamentos os mais variados. Nosso objetivo será analisar e entender as propriedades de alguns desses modelos. Dessa forma, quando quisermos modelar uma série temporal econômica, poderemos comparar as características observadas na série real com as propriedades teóricas dos processos estudados. Se a série for “suficientemente parecida” com uma possível realização de certo processo teórico, poderemos trabalhar com o processo em questão como se a série efetivamente tivesse sido gerada por ele. Assim, por exemplo, poderemos realizar previsões de valores futuros da série com base no modelo por nós “identificado” como uma boa aproximação ao verdadeiro MGD. Inicialmente trabalharemos com um subconjunto dos modelos ARIMA, os modelos ARMA (“AutoRegressive Moving Average”), que se aplicam a dados estacionários. Em seguida, incorporaremos a possibilidade de dados não-estacionários, passando aos modelos ARIMA propriamente ditos. II – Modelos ARMA: definição Pode-se pensar em um modelo ARMA como uma função de regressão populacional para Yt em que há apenas 2 tipos de “variáveis explicativas”: (1) Valores passados de Yt → A parte “auto-regressiva”. (2) Valores presente e passados do distúrbio (ou “inovação”) ruído branco ut → A parte “médias móveis”. ECO1800 - PUC-Rio 5 Forma geral da equação de um processo ARMA(p,q): qtqttptptt uuuYYY −−−− −−−+++= θθφφ ...... 1111 • Hiperparâmetro p: a defasagem máxima de Yt presente na equação. • Hiperparâmetro q: a defasagem máxima de ut presente na equação. Exemplos de modelos da classe ARMA: • Modelo AR(1): ttt uYY += −11φ • Modelo AR(2): tttt uYYY ++= −− 2211 φφ • Modelo MA(1): 11 −−= ttt uuY θ • Modelo ARMA(1,1): 1111 −− −+= tttt uuYY θφ Note que, independente dos hiperparâmetros p e q, sempre estarão presentes no modelo: • A variável dependente Yt sendo modelada. • A inovação contemporânea ut. A análise dos modelos ARMA é facilitada sobremaneira pela adoção do operador de defasagem B (backward shift): 1−= tt YBY Ele nada mais é do que um símbolo para a operação de defasar uma unidade de tempo qualquer variável, assim como “√” é um símbolo para a operação de calcular a raiz quadrada de um número. Entretanto, o operador linear B pode ser tratado como se fosse uma variável (ao contrário do operador “√”, por exemplo). Ele pode ser aplicado iterativamente: ( ) pttptttt YYBYBYBYBYB −−− =⇒=== 212 Assim, os modelos exemplificados acima podem ser rescritos (confirme!): ECO1800 - PUC-Rio 6 • Modelo AR(1): ( ) tt uYB =− 11 φ • Modelo AR(2): ( ) tt uYBB =−− 2211 φφ • Modelo MA(1): ( ) tt uBY 11 θ−= • Modelo ARMA(1,1): ( ) ( ) tt uBYB 11 11 θφ −=− Assim, vemos que todo modelo ARMA(p,q) pode ser escrito como um processo AR puro ou como um processo MA puro. • Exemplo – AR(1): ( ) ( ) ... 1 11 2 2 111 0 1 1 1 +++=⇒ =⇒ − =⇒=− −− ∞ = ∑ tttt i t i ttttt uuuY uBYu B YuYB φφ φφφ Um processo AR(1) corresponde a um MA(∞). • Exemplo – MA(1): ( ) ( ) ... 1 11 2 2 111 0 1 1 1 −−−=⇒ =⇒= − ⇒−= −− ∞ = ∑ tttt t i t i tttt YYuY uYBuY B uBY θθ θ θ θ Um processo MA(1) corresponde a um AR(∞). ECO1800 - PUC-Rio 7 • Exemplo – ARMA(1,1),φ1 = ½, θ1 = ¼. ( ) ( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( ) ...0625,0125,025,0 ...25,05,025,05,025,0 ...5,05,025,01 5,025,01 5,01 125,01 5,01 25,01 25,015,01 321 32 2 211 2 2 1 0 ++++= +−+−+−= +++−= −= − −= − − = −=− −−− −−−−− −− ∞ = ∑ tttt tttttt ttt i t i t tt tt uuuu uuuuuu uuuB uBB u B B u B BY uBYB Um processo ARMA(1,1) corresponde a um MA(∞). ECO1800 - PUC-Rio 8 • Exemplo – ARMA(1,1), φ1 = ½, θ1 = ¼. ( ) ( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( ) tttt tttt tttttt ttt i t i t tt tt uYYY YYYY YYYYYY YYYB YBB Y B B Y B B u uBYB +++=⇒ −−−−= +−+−+−= +++−= −= − −= − − = −=− −− −−− −−−−− −− ∞ = ∑ ...25,025,0 ...015625,00625,025,0 ...5,025,05,025,05,0 ...25,025,05,01 25,05,01 25,01 15,01 25,01 5,01 25,015,01 2 2 1 321 32 2 211 2 2 1 0 Um ARMA(1,1) corresponde (também) a um AR(∞). ECO1800 - PUC-Rio 9 EM SUMA: Todo modelo linear estacionário ARMA(p,q) pode ser representado na forma: tt uBYB )()( θφ = onde q q p p BBBBB BBBBB θθθθθ φφφφφ −−−−−= −−−−−= ...1)( ...1)( 3 3 2 21 3 3 2 21 Alternativamente, o mesmo modelo pode ser representado como um AR(∞): ttttt uYYYY ++++= −−− ...332211 pipipi Ou ainda como um MA(∞): ...332211 ++++= −−− ttttt uuuuY ψψψ Note que, apesar de poderem ser representados de formas similares, um AR(1) continua tendo um comportamento muito diferente de um ARMA(1,1) ou de um MA(1)! III – Modelos ARMA: estacionariedade Sob que condições um processo ARMA(p,q) será fracamente estacionário? Lembre que essa noção de estacionariedade implica que a média, variância e autocovariâncias do processo não podem depender do tempo (isto é, não podem variar com o índice t). Logo, devemos ter, para todo t e s: [ ] [ ] sstt Yt t YYE YE YE γµµ σµ µ =−− =− = − ))(( )( )( 22 onde sY γσµ ,, 2 são constantes. ECO1800 - PUC-Rio 10 Como vimos, qualquer processo ARMA(p,q) pode ser representado como um somatório infinito de inovações: 1, ... 0 0 2211 == +++= ∑ ∞ = − −− ψψ ψψ i itit tttt uY uuuY (1) Média de Yt: ( ) ( ) 0 00 == = ∑∑ ∞ = ∞ = i ii i iit uEuEYE ψψ Obs.: Pode-se trivialmente criar um processo com uma média constante diferente de zero. Basta considerar o Yt acima como um desvio da média. (2) Variância de Yt: ( ) ( ) ∑∑∑ ∞ = ∞ = − ∞ = − == = 0 22 0 2 0 i iu i iti i itit uVaruVarYVar ψσψψ (3) Autocovariância de Yt: ( ) ∑∑∑ ∞ = + ∞ = −− ∞ = −− = = 0 2 00 , i siiu j jstj i itistt uuEYYCov ψψσψψ A partir daí, pode-se provar que a estacionariedade do processo é garantida pela condição: ∞<∑ ∞ =0i iψ ECO1800 - PUC-Rio 11 • Exemplo – Estacionariedade de um processo AR(1): ( ) ... 1 1 1 2 2 1 +++= − = =− −− tttt tt tt uuuY u B Y uYB φφ φ φ Logo, os pesos iψ são dados por: i i φψ = . A condição de estacionariedade do processo AR(1) é então: ⇒∞<= ∑∑ ∞ = ∞ = 00 i i i i φψ 11 +<<− φ • Exemplo – Estacionariedade de um processo MA(1): 1)1( −−=⇒−= tttty uuYuBY θθ Os pesos iψ são dados por: 1,0,,1 10 >=−== jjψθψψ . A condição de estacionariedade do processo MA(1): ∞<+=∑ ∞ = θψ 1 0i i Conclusão: todo processo MA(1) é trivialmente estacionário. Esse resultado vale para qualquer MA(q). Pode-se mostrar que a condição de convergência do somatório de pesos das inovações do processo na forma MA, que garante estacionariedade ∞<∑ ∞ =0i iψ ECO1800 - PUC-Rio 12 é equivalente à seguinte condição: Seja a equação característica de um processo ARMA(p,q) qualquer definida por 0...1)( 33221 =−−−−−= pp BBBBB φφφφφ A equação tem necessariamente p raízes, possivelmente complexas. Mostra-se que o processo é estacionário se todas as raízes têm módulo maior que um. • Se uma ou mais raízes apresentam módulo menor que um, o processo é explosivo. • Se uma ou mais raízes têm módulo igual a 1, e as demais raízes módulo maior que 1, o processo é não-estacionário, porém não explosivo. Esse é o caso mais comum de não-estacionariedade; por isso, no jargão de séries temporais, o fenômeno de não- estacionariedade em geral é denominado “presença de raiz unitária”. Observe que o polinômio θ(B), que determina a estrutura de defasagem das inovações ut não é relevante para a determinação da estacionariedade do processo. • Exemplo – Estacionariedade de um processo AR(1): Para o processo AR(1), a equação característica é: 11 101 φφ =⇒=− BB Assim, a raiz do processo terá módulo maior que 1 e o processo será estacionário se |φ1|<1, como já havíamos mostrado. • Exemplo – Estacionariedade de um processo AR(2): Para o processo AR(2), a equação característica é: 01)( 221 =−−= BBB φφφ ECO1800 - PUC-Rio 13 Pode-se mostrar que as 2 raízes dessa equação de 2o grau terão módulo > 1, e o processo será estacionário, se as seguintes condições forem atendidas: 11 1 1 2 12 12 <<− <− <+ φ φφ φφ • Exemplo: tttt uYYY +−= −− 21 5.0 é um processo estacionário? φ2 + φ1 = -0.5 + 1 < 1. φ2 - φ1 = -0.5 – 1 > 1. -1 < φ2 < 1. → Logo, é estacionário. Confirmando: Equação característica: 05.01 2 =+− BB Raízes: B1 = 1+i e B2 = 1-i. Essas duas raízes complexas têm módulo maior que 1, indicando um processo estacionário. ECO1800 - PUC-Rio 14 IV –Modelos ARMA: identificação A modelagem de uma série temporal através de processos estocásticos, como consolidada por Box & Jenkins nos anos 70, envolve os seguintes passos: As principais ferramentas utilizadas nas etapas 2 (identificação) e 4 (diagnóstico) de um modelo linear são as funções de autocorrelação e autocorrelação parcial. A função de autocorrelação (FAC) representa a correlação simples entre Yt e Yt-k em função da defasagem k. 1. Postulação de uma classe geral de modelos (ARIMA) 2. Identificação de um modelo a ser estimado 3. Estimação dos parâmetros do modelo 4. Diagnóstico de adequação do modelo Adequado 5. Use-o para previsão e controle Inadequado ECO1800 - PUC-Rio 15 ( ) ( ) ( ) 0 , γ γρ k ktt ktt k YVarYVar YYCov = × = − − A função de autocorrelação parcial (FACP) representa a correlação entre Yt e Yt-k como uma função da defasagem k, filtrado o efeito de todas as defasagens intermediárias entre Yt e Yt-k. Logo, a k-ésima autocorrelação parcial de Y é definida como o k-ésimo coeficiente na projeção linear de Y em seus k valores mais recentes. Dadas as projeções: ktkktkkttt ttttt ttt YYYYYE YYYYYE YYYE −−−− −−−− −− ++= += = δδ δδ δ ...),...,|( ),|( )|( 111 22212121 1111 os coeficientes de autocorrelação parcial são kkδδδ ,...,, 2211 . Como veremos adiante, cada processo da classe ARIMA tem uma“assinatura” em termos de suas FAC e FACP. O analista de séries temporais deve se familiarizar com vários desses padrões teóricos para tentar reconhecê-los nas FAC e FACP estimadas das séries temporais. Se uma série temporal apresenta um par FAC-FACP com um comportamento similar à de um processo estocástico teórico, então esse processo torna-se candidato natural para modelar a série. As mesmas duas funções são utilizadas sobre a série de resíduos do modelo estimado para verificar se “sobrou informação”. Se sobrou, o modelo não está bem especificado. • FAC e FACP do modelo AR(1) Utilizando forma MA(∞) do modelo AR(1): ∑ ∞ = −− =⇒+= 0 1 i it i tttt uYuYY φφ vemos que a variância de Yt é: ( ) 2 2 0 22 0 1 φ σφσγ − === ∑ ∞ = u i i utYVar ECO1800 - PUC-Rio 16 Note que a variância do processo aumenta com φ até o limite φ → 1, quando a variância se torna infinita e o processo, não estacionário. A covariância entre duas observações defasadas é: ( ) ( ) ( )[ ] ( ) ( ) ( ) 0 1 1 1 1 , γφγ φγ φ φ φ γ k k k ktt kttktt kttt kttkttk YYE YuEYYE YuYE YYEYYCov =∴ = = += += == − −− −−− −− −− Logo, a FAC do AR(1), é dada por: kk k φγ γρ == 0 Pela fórmula acima, fica claro que um processo AR(1) estacionário tem uma FAC que converge geometricamente para zero, podendo oscilar caso o sinal do coeficiente autoregressivo seja negativo. Os gráficos abaixo apresentam as FAC de alguns processos AR(1). FAC AR(1): φφφφ = 0,8 -1,0 -0,8 -0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 1,0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Defasagem A u to co rr el aç ão ECO1800 - PUC-Rio 17 FAC AR(1): φφφφ = - 0,8 -1,0 -0,8 -0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 1,0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Defasagem Au to co rr el aç ão FAC AR(1): φφφφ = 0,5 -1,0 -0,8 -0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 1,0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Defasagem Au to co rr el aç ão F A C A R (1): φφφφ = 0 ,98 -1,0 -0,8 -0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 1,0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Defasagem A u to co rr el aç ão ECO1800 - PUC-Rio 18 Note que no modelo AR(1), Yt apresentará uma correlação simples espúria com Yt-2, pois este último determina Yt-1, o qual por sua vez determina Yt. O mesmo vale para Yt-k para todo k>2. Por isso a FAC do modelo AR(1) tem valores diferentes de zero para todas as defasagens. A FACP do processo AR(1) é facilmente derivada como: 1 para 0 11 >= = kkkδ φδ • FAC e FACP do modelo AR(2) Pode-se mostrar que as autocovariâncias do processo AR(2) seguem a mesma equação em diferenças de segunda ordem do processo original: 2211 −− += kkk γφγφγ k=1,2,... Evidentemente, o mesmo vale para as autocorrelações do processo. Logo, para k=1 temos: 121 12011 ρφφ ρφρφρ += += − e, portanto: 2 1 1 1 φ φρ − = e as autocorrelações para k>1 podem ser calculadas recursivamente a partir de: 2211 −− += kkk ρφρφρ Assim como no caso do AR(1), as autocorrelações do AR(2) também convergem para zero, apresentando um padrão de decaimento exponencial ou oscilatório. Vale notar que, caso as raízes do polinômio característico do processo sejam complexas, a FAC é uma função cosenóide amortecida. ECO1800 - PUC-Rio 19 Os gráficos abaixo apresentam as FAC de dois processos AR(2). FAC AR(2): φ1φ1φ1φ1 = 0,6; φ2φ2φ2φ2 = 0,2 -1,0 -0,8 -0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 1,0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Defasagem Au to co rr el aç ão FAC AR(2): φ1φ1φ1φ1 = 1,1; φ2φ2φ2φ2 = - 0,6 -1,0 -0,8 -0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 1,0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Defasagem Au to co rr el aç ão Fica claro que, para certas combinações específicas de parâmetros φ1 e φ2, a FAC de um modelo AR(2) pode ser muito similar à FAC de um modelo AR(1). Nesse caso, a única forma de diferenciar os dois processos seria através da FACP. ECO1800 - PUC-Rio 20 Para um processo AR(2), a FACP é dada por: 2 para 0 1 21 2 12 22 111 >= − − = = kkkδ ρ ρρδ ρδ • FAC e FACP do modelo AR(p) O padrão acima se generaliza para processos AR(p): a FAC converge para zero, possivelmente com ciclos, e a FACP apresenta um corte na p-ésima defasagem. Assim, a FACP pode ser usada para identificar a ordem de um processo AR(p). Se ela apresentar, por exemplo, correlações parciais estatisticamente significativas (i.e., diferentes de zero) até 3 defasagens, isto significa que Yt-1, Yt-2 e Yt-3 são todos determinantes do comportamento de Yt. Trata-se de um AR(3). • FAC e FACP do modelo MA(1) Variância de Yt: ( ) ( ) ( ) ( ) ( ) 220 222 1 1 1 1 u uu tt ttt ttt uVaruVar uuVarYVar uuY σθγ σθσ θ θ θ +=∴ += −+= −=⇒ −= − − − ECO1800 - PUC-Rio 21 Autocovariância: ( ) ( )( )[ ] ( ) ( ) ( ) ( ) ( )11211 11 2 11 11 ,,,, , −−−−−−−− −−−−−−−− −−−− − +−−= +−−= −−= = kttkttkttktt kttkttkttktt ktkttt kttk uuCovuuCovuuCovuuCov uuuuuuuuE uuuuE YYCov θθθ θθθ θθ γ Mas pela hipótese de descorrelação serial das inovações ut, todas essas covariâncias desaparecem, exceto quando k = 1. Então: 1,0,21 >=−= kku γθσγ Conseqüentemente, a FAC do processo MA(1) é: > = + − = 1,0 1, 1 2 k k k θ θ ρ Ao contrário da FAC do processo AR(1), que decai exponencialmente, a FAC do processo MA(1) tem um corte na primeira defasagem. Por isso, o processo MA é às vezes chamado processo “sem memória”. O formato da FACP do processo MA(1) pode ser inferido pela sua representação AR(∞). Vimos anteriormente que: ...3 3 2 2 11 −−−−=⇒−= −−−− tttttttt YYYuYuuY θθθθ Logo, no processo MA(1) todas as defasagens de Yt têm uma correlação parcial não espúria com Yt. Mais do que isso, essas correlações parciais caem exponencialmente com a defasagem k, supondo que a condição de inversibilidade 1<θ seja satisfeita. Assim, constatamos que a FAC do processo MA(1) se comporta como a FACP do processo AR(1), com um corte na primeira defasagem. Em contrapartida, a FACP do processo MA(1) decai exponencialmente, exatamente como a FAC do processo AR(1). ECO1800 - PUC-Rio 22 A dualidade entre os processos AR(1) e MA(1) se reproduz nas “assinaturas” reveladas nas FAC e FACP: Processo AR(1) Processo MA(1) Função de autocorrelação (FAC) Decai exponencialmente: k k φρ = Corte na 1a defasagem: ( ) 1,0 1 121 >= +−= − kkρ θθρ Função de autocorrelação parcial (FACP) Corte na 1a defasagem: 1,0 11 >= = kkkδ φδ Decai exponencialmente: k kk θδ = • FAC e FACP do modelo MA(q) O padrão acima se generaliza para processos MA(q): a FACP converge para zero, possivelmente com ciclos, e a FAC apresenta um corte na q-ésima defasagem. Assim, ao contrário do que ocorre com processos AR, no caso de modelos MA usa-se a FAC, e não a FACP, para identificar a ordem do processo. • FAC e FACP do modelo ARMA(p,q) No casode modelos ARMA(p,q), a FAC e FACP resultam de uma combinação das características dos processos AR e MA puros. Como regra geral, observamos que, para modelos ARMA(p,q): (a) A FAC apresenta decaimento (exponencial ou oscilatório) a partir da defasagem q. Ou seja, a partir da defasagem q, a FAC se comporta de acordo com a parte autoregressiva do processo. (b) A FACP apresenta decaimento (exponencial ou oscilatório) a partir da defasagem p. Ou seja, a partir da defasagem p, a FACP se comporta de acordo com a parte “média móvel” do processo. ECO1800 - PUC-Rio 23 Veja abaixo a FAC de alguns processos ARMA(1,1). FAC ARM A(1,1): φφφφ = 0,5; θθθθ = - 0,8 -1,0 -0,8 -0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 1,0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Defasagem A u to co rr el aç ão FAC ARMA(1,1): φφφφ = - 0,8; θθθθ = 0,8 -1,0 -0,8 -0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 1,0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Defasagem Au to co rr el aç ão ECO1800 - PUC-Rio 24 • Estimação e significância estatística da FAC e da FACP O processo de identificação de um processo ARMA adequado à modelagem de determinada série temporal consiste nos seguintes passos: 1. Estimação da FAC e FACP da série temporal de interesse. As autocorrelações amostrais são obtidas a partir de: ∑ ∑ = += − − −− = T t t T kt ktt k YY YYYY r 1 2 1 )( ))(( k=1,2,... As autocorrelações parciais amostrais kkδˆ são obtidas a partir de: tktkktkt YYYYYY εδδ ˆ)(ˆ...)(ˆ 11 +−++−=− −− k=1,2,... 2. Identificação de um processo ARMA com par FAC-FACP similar ao par estimado para a série temporal. (i) Se a FAC (estimada) decai geometricamente e a FACP (estimada) apresenta um corte, há indícios de que um AR puro pode ser adequado. A defasagem do corte na FACP ajuda a determinar a ordem do processo. (ii) Se a FAC apresenta um corte abrupto depois de poucas defasagens e a FACP decai geometricamente, um processo MA pode ser indicado. A defasagem do corte na FAC ajuda a determinar a ordem do processo. (iii) Se ambas a FAC e FACP apresentam decaimento geométrico, é provável que um processo ARMA misto seja mais adequado. A determinação da ordem do processo, porém, não é trivial. (iv) Se a FAC ou FACP apresentam valores elevados em defasagens específicas, como a 12a. para dados mensais, é provável que um modelo sazonal seja adequado. Trataremos desse tópico mais adiante. Evidentemente, a FAC e FACP estimadas são variáveis aleatórias que podem diferir de seus valores verdadeiros por simples variabilidade amostral. Assim, é necessário efetuar testes de significância para verificar se os valores estimados da FAC e FACP são estatisticamente diferentes de zero. ECO1800 - PUC-Rio 25 Para grandes amostras, pode-se mostrar que, sob a hipótese de que as autocorrelações “verdadeiras” são nulas: ( ) )1,0(~ˆ: 1 )21(,0 1 )1,0( ~: 1 1 2 TNFACP kTrN kTN rFAC kk k j j k δ >+ = ∑ − = Assim, um intervalo de confiança de aproximadamente 95% para a autocorrelação de primeira ordem ou para a autocorrelação parcial é dado por T/2± . Se rk ou kkδˆ estiver fora do intervalo, é uma indicação de processo AR ou MA presente. Vamos ilustrar o processo de identificação através da modelagem de um processo ARMA para a série de pessoal ocupado no comércio de Recife. O gráfico da variável e de suas FAC e FACP estimadas encontram-se abaixo. 260000 270000 280000 290000 300000 310000 320000 330000 340000 350000 1999 2000 2001 2002 2003 2004 PESSRCOM ECO1800 - PUC-Rio 26 O processo natural para modelar a série parece ser um AR(1) estacionário, a julgar pelo formato declinante da FAC e corte na FACP na primeira defasagem. Além disso, o valor estimado da autocorrelação de primeira ordem sugere que o coeficiente do AR(1) deveria estar próximo de 0,7. ECO1800 - PUC-Rio 27 V –Modelos ARMA: estimação, validação e seleção • Estimação do modelo ARMA(p,q) identificado 1. Modelos AR(p): Para esses modelos, dispomos dos valores tanto da variável dependente (Yt) quanto das “variáveis independentes” (Yt-1, Yt-2, etc.). Modelos auto-regressivos puros são estimados através de mínimos quadrados ordinários. Mostra-se que os estimadores são consistentes. 2. Modelos ARMA(p,q) com q ≠0: A estimação de modelos que envolvem termos MA não pode ser feita por MQO. A situação neste caso é mais complicada porque não temos a priori os valores dos regressores MA: ut-1, ut-2, etc. Por isso, devemos usar em seu lugar os resíduos ût-1, ût-2, etc. Mas para calcular os resíduos, precisamos do modelo estimado! Essa circularidade é resolvida através de métodos iterativos (back-forecast) e otimização não-linear. A maioria dos softwares estatísticos hoje está equipada para estimar modelos ARMA(p,q), inclusive com desvios padrões para as estimativas. • Diagnóstico do modelo estimado Após identificado e estimado um modelo, o último passo é diagnosticar sua adequação. Isso em geral se faz examinando a série de resíduos gerada pelo modelo, buscando alguma estrutura de autocorrelação nela. Se for encontrado algum “padrão” na evolução dos resíduos, há evidência de que o modelo não capturou toda a informação contida na série original. A primeira coisa a se fazer é examinar a FAC e a FACP estimadas da série de resíduos, como se esta fosse uma série temporal qualquer. Se houver estrutura identificável, então o modelo é rejeitado. Ljung e Box desenvolveram a seguinte estatística para testar a significância conjunta das autocorrelações residuais até a K-ésima defasagem: ( )∑ = − += K k krkT TTQ 1 212 ECO1800 - PUC-Rio 28 Sob a hipótese nula de que o modelo ARMA(p,q) está corretamente especificado, Q é assintoticamente distribuída como uma qui-quadrado com K-p-q graus de liberdade. O teste LB tem 2 problemas: (1) Para valores elevados de K, o teste pode apresentar baixa potência; (2) O teste apenas indica se o modelo é inadequado, mas não sugere como o modelo deveria ser modificado. Uma alternativa é o teste do Multiplicador de Lagrange de Breusch-Godfrey que, segundo alguns estudos, parece ser mais potente do que o teste LB, além de fornecer indicações sobre como o modelo deveria ser corrigido, caso necessário. Esse teste é facilmente implementável. Suponha que um modelo AR(p) tenha sido estimado. Para testar essa especificação contra uma especificação AR(p+s) ou ARMA(p,s) deve-se estimar: tstsptpptptt vyy ++++++= −+−+−− εαεαααε ˆ...ˆ...ˆ 1111 onde tεˆ são os resíduos estimados do modelo AR(p). Sob a hipótese nula de que o modelo AR(p) é adequado, )(~ 22 snR χ onde n é o número de observações e R2 é o coeficiente de determinação da equação acima. Para ilustrar o processo de estimação e validação de modelos ARMA, vamos prosseguir com o exemplo referente à série de pessoal ocupado analisada anteriormente, para a qual sugerimos um processo AR(1). Estimando o modelo sugerido, obtemos o seguinte resultado: ECO1800 - PUC-Rio 29 Dependent Variable: PESSRCOM Method: Least Squares Date: 07/07/05 Time: 06:27 Sample (adjusted): 1999M02 2005M02 Included observations: 73 after adjustments Convergence achieved after 4 iterations Variable Coefficient Std. Error t-Statistic Prob. C 313664.8 4833.077 64.89961 0.0000 AR(1) 0.715494 0.0782149.147862 0.0000 R-squared 0.540998 Mean dependent var 312028.0 Adjusted R-squared 0.534533 S.D. dependent var 17073.62 S.E. of regression 11648.50 Akaike info criterion 21.59076 Sum squared resid 9.63E+09 Schwarz criterion 21.65351 Log likelihood -786.0627 F-statistic 83.68338 Durbin-Watson stat 2.308010 Prob(F-statistic) 0.000000 Inverted AR Roots .72 Ademais, o correlograma do resíduo da equação parece, “grosso modo”, compatível com um ruído branco, conforme vemos no gráfico a seguir: ECO1800 - PUC-Rio 30 Entretanto, talvez haja um motivo para preocupação: o p-valor relativamente baixo do teste Q de Llung-Box para a autocorrelação de segunda ordem, que pode ser visto na última coluna. A realização do teste LM de autocorrelação serial do resíduo da equação para duas defasagens não rejeita a hipótese nula de ausência de correlação serial – note que os p- valores das duas versões do teste (a versão-F e a versão Qui-quadrado) indicam que a hipótese nula não deve ser rejeitada – e, portanto, que não há autocorrelação serial. [Para que a hipótese nula fosse rejeitada, o p- valor deveria ser relativamente baixo – menor que 0,10 para um teste a 10% de significância, menor do que 0,05 para um nível de significância de 5% etc.] ECO1800 - PUC-Rio 31 Breusch-Godfrey Serial Correlation LM Test: F-statistic 1.733718 Prob. F(2,69) 0.184231 Obs*R-squared 3.492918 Prob. Chi-Square(2) 0.174390 Test Equation: Dependent Variable: RESID Method: Least Squares Date: 07/07/05 Time: 06:36 Sample: 1999M02 2005M02 Included observations: 73 Presample missing value lagged residuals set to zero. Variable Coefficient Std. Error t-Statistic Prob. C 684.6801 4858.626 0.140921 0.8883 AR(1) 0.091944 0.132971 0.691456 0.4916 RESID(-1) -0.244545 0.190129 -1.286207 0.2027 RESID(-2) 0.056763 0.154665 0.367005 0.7147 R-squared 0.047848 Mean dependent var 4.40E-05 Adjusted R-squared 0.006450 S.D. dependent var 11567.33 S.E. of regression 11529.96 Akaike info criterion 21.59652 Sum squared resid 9.17E+09 Schwarz criterion 21.72203 Log likelihood -784.2730 F-statistic 1.155812 Durbin-Watson stat 1.974197 Prob(F-statistic) 0.332973 Mas o teste LM de correlação serial rejeita a hipótese nula sob uma defasagem ao nível de 10%. Logo, talvez um modelo AR(2) ou ARMA(1,1) seja mais adequado. A estimação dessa segunda opção gera o seguinte resultado: ECO1800 - PUC-Rio 32 Dependent Variable: PESSRCOM Method: Least Squares Date: 07/07/05 Time: 07:14 Sample (adjusted): 1999M02 2005M02 Included observations: 73 after adjustments Convergence achieved after 8 iterations Backcast: 1999M01 Variable Coefficient Std. Error t-Statistic Prob. C 314993.8 5674.480 55.51060 0.0000 AR(1) 0.812605 0.081336 9.990716 0.0000 MA(1) -0.241959 0.149528 -1.618152 0.1101 R-squared 0.559039 Mean dependent var 312028.0 Adjusted R-squared 0.546440 S.D. dependent var 17073.62 S.E. of regression 11498.54 Akaike info criterion 21.57806 Sum squared resid 9.26E+09 Schwarz criterion 21.67218 Log likelihood -784.5991 F-statistic 44.37213 Durbin-Watson stat 2.010866 Prob(F-statistic) 0.000000 Inverted AR Roots .81 Inverted MA Roots .24 • Quebras estruturais Muitas vezes, conseguimos identificar quebras estruturais na série que estamos estudando ao olhar para o gráfico da série. Em particular, na série de pessoal ocupado no comércio em Recife, ao comparar os dados até 2002 com os dados dos anos seguintes, podemos ter a impressão de que, talvez, os dois grupos de dados tenham sido gerados por processos diferentes – p.ex., processos com médias ou padrões de autocorrelação distintos. Porém, em muitos outros casos, podemos ter mais dificuldades em enunciar potenciais quebras estruturais somente olhando para as séries estudadas. Voltando ao exemplo de pessoal ocupado no comércio em Recife, não há como afirmar se a quebra estrutural é significante. Nesse estágio de diagnóstico do modelo, muitas vezes, conseguimos elaborar testes para identificar tais quebras estruturais. Mais especificamente, suponha, por simplicidade, que estimamos e selecionamos pelos procedimentos anteriormente listados o seguinte AR(1): y t = γ 0 + γ1y t−1 + ut Adicionalmente, suponha que acreditamos ser razoável o seguinte modelo com quebra estrutural: ECO1800 - PUC-Rio 33 y t = α0 + α1y t−1 + ut se t ≤ T y t = β0 + β1y t−1 + ut se t > T (onde conhecemos T). Suponha também que ainda não estimamos esse modelo com quebra estrutural. Se o modelo com quebra estrutural for de fato o modelo que deveríamos ter estimado, a série dos resíduos do nosso modelo AR(1) sem quebra estrutural não será normal: tipicamente, a média dos resíduos para t ≤ T pode ser diferente da média dos resíduos para t>T. Alternativamente, a variância dos resíduos pode mudar com o tempo. Finalmente, os resíduos podem ter alguma tendência ao longo do tempo. De forma mais geral, se percebemos que a distribuição dos resíduos estimados pelo nosso modelo não é constante ao longo do tempo, temos bons motivos para acreditar que existem quebras estruturais nos nossos dados. Podemos enunciar também um teste formal (“Teste de Chow”)para a hipótese de quebra estrutural. Compute para o AR(1) sem quebra estrutural a sua soma dos quadrados dos resíduos, denotada aqui por SQR. Adicionalmente, rode um modelo AR(1) na amostra com t ≤ T, e outro AR(1) na amostra com t>T (isso nos dará uma estimativa do modelo com quebra estrutural). Seja SQR1 a soma dos quadrados dos resíduos do modelo rodado na amostra com t ≤ T. Chamaremos de SQR2 a soma dos quadrados dos resíduos do modelo na amostra com t>T. Para testar a hipótese nula de que o modelo sem quebra estrutural é tão bom quanto o modelo com quebra estrutural (em oposição à hipótese alternativa de que o modelo com quebra estrutural é melhor), compute a seguinte estatística: 1 2 1 2 2 SQR SQR SQR nF SQR SQR N n − − = + − (*) onde N é o tamanho da amostra e n é o número de parâmetros estimados no modelo sem quebra estrutural (dado que estamos supondo que só há uma quebra estrutural na amostra, o número de parâmetros estimados no modelo com quebra estrutural é 2n). A estatística acima tem distribuição assintótica F com (n,N-2n) graus de liberdade. Ou seja, se ela for “grande o suficiente” (isto é, se F > valor crítico ao nível de significância desejado), rejeitamos a hipótese nula de que a nossa série não tem quebras estruturais (ou, o modelo com quebras estruturais explica os dados melhor do que o modelo sem quebras estruturais). Por outro lado, se a estatística computada acima for “pequena o suficiente” (isto é, se F < valor crítico ao nível de significância desejado), não rejeitamos a hipótese nula de que a nossa série não tem quebras estruturais (ou seja, o modelo sem quebras estruturais é tão bom para explicar os dados quanto o modelo com quebras estruturais). O principal problema do teste acima é que sua implementação requer que se defina arbitrariamente a data T na qual suspeitamos que possa ter ocorrido uma quebra estrutural. Isso é válido quando temos alguma razão ECO1800 - PUC-Rio 34 teórica para acreditar que em certa data T ocorreu um evento importante que pode ter modificado o processo gerador da série em questão; por exemplo, é razoável imaginar que a implementação do regime de metas de inflação no Brasil em junho/1999 tenha modificadoo processo gerador da inflação no país, de modo que podemos testar: • H0: não houve quebra estrutural no processo gerador da inflação em junho 1999 contra: • H1: houve quebra estrutural no processo gerador da inflação em junho 1999 através do teste acima. Mas como devemos proceder se não temos idéia precisa da data em que pode ter ocorrido uma quebra estrutural? Ou seja, se queremos testar uma hipótese do tipo: • H0: não houve quebra estrutural no processo gerador da inflação (no período amostral considerado) contra: • H1: houve quebra estrutural no processo gerador da inflação (no período amostral considerado) como devemos proceder? Uma possibilidade é proceder da seguinte forma (às vezes chamado de “Teste da razão de verossimilhança de Quandt”- “QLR” em inglês): (i) Defina um intervalo da amostra (T1, T2) dentro do qual testaremos a ocorrência de uma quebra estrutural. Geralmente, esse intervalo é definido de modo a compreender 70% das observações amostrais – ou seja, 15% das observações ocorrem antes de T1 e 15% após T2. (ii) Calcule a estatística F em (*) para todos os períodos compreendidos entre T1 e T2. (iii) Escolha a maior estatística F calculada, e compare-a com o valor crítico apropriado da tabela abaixo. Se F > valor crítico, rejeita-se H0. Número de restrições (n) Valor crítico a 10% Valor crítico a 5% 1 7,12 8,68 2 5,00 5,86 3 4,09 4,71 4 3,59 4,09 5 3,26 3,66 10 2,48 2,71 20 1,99 2,13 ECO1800 - PUC-Rio 35 • Seleção de modelos Muitas vezes, o processo de identificação-estimação-diagnóstico conduz não a um, mas a uma lista de possíveis modelos. Para selecionar entre tais modelos, pode-se usar critérios de informação, que fornecem medidas de ajuste dos modelos que penalizam o aumento do número de regressores. Os mais populares, que já vimos anteriormente, são: - Akaike (AIC) kRSSnkAIC 2)ln()( += - Schwarz (SIC) )ln()ln()( nkRSSnkSIC += onde n = número de observações k = número de parâmetros estimados RSS = soma dos quadrados dos resíduos Deve-se escolher o modelo com os menores AIC e SIC. VI – Previsão com modelos ARMA Suponha que se identificou, estimou e aceitou um modelo sobre uma série de valores conhecidos y1, y2,..., yN. Veremos agora como prever valores futuros de Y para os casos particulares AR(1) e MA(1). Para o modelo genérico ARMA(p,q), os resultados são facilmente generalizáveis. • Modelo AR(1): ttt uYY ++= −1φδ (1) Previsão 1 passo à frente: NN yy φδ ˆˆˆ 1 +=+ Valor de y a ser efetivamente verificado no período N+1 (supondo que o modelo AR(1) estimado seja o modelo “verdadeiro”): 11 ++ ++= NNN uyy φδ Erro de previsão (ignorando a incerteza sobre os coeficientes estimados): 1111 ˆ ++++ =−= NNNN uyye ECO1800 - PUC-Rio 36 Variância do erro de previsão (ignorando a incerteza sobre os coeficientes estimados): ( ) ( ) 211 ˆuNN uVareVar σ== ++ Supondo normalidade do erro u, um intervalo de confiança a 95% para a previsão 1 passo à frente seria, portanto: uNuN yyIC σφδσ ˆ)96,1()ˆˆ(ˆ)96,1(ˆ:%95 1 ±+=±+ (2) Previsão 2 passos à frente: 12 ˆ ˆˆ ˆ ++ += NN yy φδ Erro de previsão e variância do erro de previsão: ( ) ( ) ( ) ( )22212 121222 ˆ1ˆˆ ˆ ˆˆˆˆ ˆ φσφ φδφδ +=⇒+= +−++=−= +++ ++++++ uNNN NNNNNN eVaruu yuyyye Intervalo de confiança a 95% para a previsão: 2/12 2 )ˆ1(ˆ)96,1(ˆ:%95 φσ +±+ uNyIC ECO1800 - PUC-Rio 37 (3) Previsão h passos à frente: 1ˆ ˆˆ ˆ −++ += hNhN yy φδ Variância do erro de previsão: ( ) ( )( )12422 ˆ...ˆˆ1ˆ −+ ++++= huhNeVar φφφσ Intervalo de confiança a 95% para a previsão: 2/1)1(22 )ˆ...ˆ1(ˆ)96,1(ˆ:%95 −+ +++± huhNyIC φφσ Obs.: A previsão converge assintoticamente para a média do processo, e a variância do erro de previsão para a variância do processo. • Modelo MA(1): 1−−+= ttt uuY θδ (1) Previsão 1 passo à frente: NN uy ˆˆˆˆ 1 θδ −=+ Valor de y a ser efetivamente verificado no período N+1 (supondo que o modelo MA(1) estimado seja o modelo “verdadeiro”): NNN uuy ˆˆˆ 11 θδ −+= ++ Erro de previsão e variância do erro de previsão: 1111 ˆ ++++ =−= NNNN uyye ( ) 21 ˆuNeVar σ=+ (2) Previsão 2 passos à frente: δˆˆ 2 =+Ny Erro de previsão e variância do erro de previsão: ( ) ( )222122 ˆ1ˆˆ θσθ +=⇒−= ++++ uNNNN eVaruue (3) Previsão h passos à frente: Para o modelo MA, mostra-se que a previsão e o erro de previsão são constantes para h > 1. Obs.: Os intervalos de confiança seriam calculados de modo análogo ao feito acima. ECO1800 - PUC-Rio 38 • Avaliação da capacidade preditiva A avaliação da capacidade preditiva de um modelo deve estar baseada em observações fora da amostra. Suponha que você disponha de N observações da variável de interesse. (1) Estima-se o modelo até determinado período T, deixando de lado as últimas N – T observações (2) Realizam-se previsões para as últimas N – T observações (3) Comparam-se os valores previstos com os observados As medidas de capacidade preditiva estão baseadas no erro de previsão ttt YYe ˆ−= . Algumas medidas usuais: • Erro percentual absoluto médio: ∑ − = += N Tt t t Y e TN MAPE 1 1 • Raiz do erro quadrático médio: ∑ − = += N Tt teTN RMSE 1 21 O erro quadrático médio (MSE) pode ser decomposto da seguinte forma: ( ) ( ) ( ) ( ) YYYYttt ssssYTN Y TN YY ˆ 2 ˆ 22 )1(2 ˆˆ ρ−+−+ − − = − − ∑∑ onde os termos do lado direito indicam as parcelas do MSE associadas a, respectivamente: (i) erros na previsão da média da variável; (ii) erros na previsão da variabilidade da variável; (iii) erros de previsão “não-sistemáticos”. Quanto maior a proporção do MSE associada a erros de previsão “não- sistemáticos”, melhores são as previsões. ECO1800 - PUC-Rio 39 VII – Multiplicadores dinâmicos Uma das informações relevantes que se pode extrair de modelos de séries temporais diz respeito aos chamados “multiplicadores dinâmicos” A expressão “multiplicador” é frequentemente usada para denotar o efeito de uma variável X sobre outra variável Y. Quando estamos analisando séries temporais, porém, esse conceito é relativamente impreciso. Afinal, de que “efeito” estamos falando? Trata-se do efeito contemporâneo de X sobre Y? Ou do efeito após 1 período? Ou do efeito após um número grande de períodos? Um “multiplicador dinâmico” denota justamente o efeito de uma variação em X, ceteris paribus, sobre Y ao longo do tempo; ou seja, o efeito de uma variação de X no período t sobre Y no período t+j, para qualquer j possível: t jt j X Y ∂ ∂ = +µ j = 0, 1, 2, ... Multiplicadores dinâmicos também são conhecidos como “funções de resposta a impulso”, pois expressam a resposta de uma certa variável (Y, no caso) a um “choque”, ou “impulso”, em outra variável (X, no caso). No caso de modelos univariados, quando falamos de multiplicadores dinâmicos nos referimos aos efeitos dos choques (u) do modelo sobre o nível de Y. Para encontrar tais multiplicadores dinâmicos, a forma mais fácil é escrevendo a equação do processo em função de todos os u’s defasados. Os coeficientes de cada u defasado nos informa, assim, o efeito de um choque naquele período sobre o valor corrente de Y. No caso de modelos MA(q), os próprios coeficientes do MA já nos informam tais multiplicadores. No caso de modelos AR ou ARMA(p,q), vimosacima como reescrever tais processos em função de todos os u’s passados. ECO1800 - PUC-Rio 40 VIII – Modelos não-estacionários: ARIMA Os modelos ARMA vistos acima são apropriados para modelar processos não-estacionários. Entretanto, sabe-se que a maioria das séries econômicas encontradas na prática apresenta alguma forma de não- estacionariedade. Isso significa que modelos ARMA são pouco úteis na prática? A resposta é, evidentemente, não – caso contrário, não teríamos perdido tanto tempo discutindo essa classe de modelos! A estratégia geral no tratamento de séries não-estacionárias é aplicar alguma transformação sobre a série que a torne estacionária, e depois estimar um modelo ARMA(p,q) sobre a série transformada. Evidentemente, para tanto é necessário conhecer (ou inferir corretamente) a natureza da não estacionariedade de um processo (tendência determinística ou estocástica), a fim de aplicar a transformação adequada. Caso a série se caracterize por uma tendência determinística, a técnica de “eliminação de tendência” adequada é a regressão da série em uma função determinística do tempo. Conforme visto anteriormente, na prática a função determinística mais comum é uma simples tendência linear: tt utY ++= δα O resíduo dessa regressão será uma série “sem tendência” e, portanto, adequada à modelagem através de processos ARMA segundo as técnicas vistas nas seções anteriores. Se a não-estacionariedade estiver associada à presença de uma tendência estocástica, a transformação adequada é a operação de diferença e o processo é um ARIMA propriamente dito. Vejamos porquê. Inicialmente, suponhamos que a equação característica do processo ARIMA em questão tenha p+d raízes r1, r2,..., rp+d. Note que ela pode ser fatorada em função de suas raízes: ))...()(()( 21 BrBrBrB dp −−−= +φ Dividindo sucessivamente por r1, r2,..., rp+d: − − −= + B r B r B r B dp 11...1111)( 21 φ ECO1800 - PUC-Rio 41 Se a equação característica possui d raízes unitárias e p raízes com módulo maior que 1, então ela pode ser expressa como: d p p BBGBG BBBGBGB )1)(1)...(1( )1)...(1()1)...(1()( 1 1raízes d 1 −−−= −−−−= = 44 344 21 φ onde Gi são as inversas das p raízes da equação característica com módulo maior que 1. Como exemplo, considere o processo AR(2) tttt uYYY +−= −− 21 5,05,1 que tem a equação característica 25,05,11)( BBB +−=φ , com raízes 1 e 2. Logo, ( )( )BBB −−= 15,01)(φ . O processo é não-estacionário (mas não explosivo), pois uma das duas raízes tem módulo igual a 1, e a outra módulo maior do que 1. Dessa forma, qualquer processo da classe ARIMA pode ser expresso como: ( )( ) ( )( ) ttdp uBYBBGBGBG )(11...11 21 θ=−−−− Observe que se definirmos uma nova variável Wt como: ( ) tdt YBW −= 1 O processo ARIMA acima, que é não-estacionário em Yt, é obviamente estacionário em Wt, pois as raízes têm todas módulo maior que 1 por hipótese: ( )( ) ( ) ttp uBWBGBGBG )(1...11 21 θ=−−− Isso sugere imediatamente a criação de um operador ∇: B−≡∇ 1 Quando aplicado a um processo qualquer, esse operador gera a sua primeira diferença. Exemplos: ( ) 11 −−=−=∇ tttt YYYBY ( ) ( ) 21222 2211 −− +−=+−=−=∇ tttttt YYYYBBYBY ECO1800 - PUC-Rio 42 Se Yt representa um processo não-estacionário com d raízes unitárias, ∇dYt é um processo estacionário. Assim, a representação geral dos modelos ARIMA(p,d,q), em que o hiperparâmetro d simboliza o número de raízes unitárias no processo, é: tt d uBYB )()( θφ =∇ onde (como antes) φ(B) e θ(B) representam polinômios em B de graus p e q respectivamente, cujas raízes têm todas módulo maior que 1. • Exemplo: O processo AR(2) do exemplo anterior, ( )( ) tt uYBB =−− 15,01 pode ser rescrito como: ( ) tt uYB =∇− 5,01 o qual é um processo estacionário – e portanto passível de ser estimado – na nova variável ∇Yt. Trata-se de um ARIMA(1,1,0). Note que, como séries com raiz unitária precisam ser “diferenciadas” (através do operador ∇) para tornarem-se estacionárias, dizemos que elas são séries (ou processos) integrados, já que “integração” é a operação inversa. O grau de integração d corresponde ao número de vezes que o operador de diferença deve ser aplicado a fim de tornar o processo estacionário. Em séries econômicas, em geral d = 1 ou 0; dificilmente se verá um grau de integração d maior do que 1. Se algum teste de raiz unitária (como os que veremos a seguir) indicar a presença de raíz(es) unitária(s), aplica-se a operação de diferença 1 ou 2 vezes sobre a série original, até chegar-se a uma série estacionária. Depois então, identifica-se e estima-se um modelo ARMA sobre a série transformada. • Testes de raiz unitária Muitas vezes o gráfico de uma série temporal nos deixa na dúvida sobre a presença de raízes unitárias no processo gerador. Coloca-se então a questão: dada uma série temporal qualquer, como saber se ela é realização de um processo não-estacionário de raiz unitária? ECO1800 - PUC-Rio 43 O primeiro exame que se deve fazer é a análise da FAC da série: séries com raiz unitária são caracterizadas por uma FAC que decai lenta e linearmente, ao contrário dos processos AR (decaimento rápido exponencial) e MA (corte em lag q) estacionários. • Exemplo: FAC estimada de um passeio aleatório (500 obs.) 0 0 ,1 0 ,2 0 ,3 0 ,4 0 ,5 0 ,6 0 ,7 0 ,8 0 ,9 1 1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2 0 2 1 2 2 2 3 2 4 2 5 2 6 2 7 2 8 2 9 3 0 3 1 3 2 3 3 3 4 3 5 3 6 Entretanto, FAC´s semelhantes a essa podem estar associadas a processos estacionários com uma raiz característica próxima de 1 ou a processos com tendência determinística. Além do exame do gráfico da série e de sua FAC estimada, é importante, portanto, testar formalmente a presença de raiz unitária no processo, a fim de certificar-se da adequação da operação de diferença. Um dos testes mais populares de raiz unitária é o teste de Dickey-Fuller (DF). Para testar se a variável Yt possui uma raiz unitária, estima-se a seguinte equação: ttt uYtY +++=∇ −121 γαα (*) Onde α1 é uma constante e t representa uma tendência determinística (possivelmente α1 = 0 e/ou α2 = 0). As hipóteses nula e alternativa do teste são: tica)determinís iaou tendênc riedade(estaciona 0: unitária) (raiz 0: 1 0 ≠ = γ γ H H ECO1800 - PUC-Rio 44 Note que o teste refere-se à presença (ou não) de raiz unitária na série Yt, mas na regressão do teste a variável dependente é a primeira diferença de Yt. Para entender por que γ = 0 implica a existência de uma raiz unitária, suponha, para simplificar, que α1 = 0 e α2 = 0 (ou seja, a equação não inclui constante nem tendência determinística). Se γ = 0, a equação pode ser reescrita como: ( ) ttt ttt uYY uYY += =− − − 1 1 que representa um processo AR(1) com coeficiente unitário – que, como vimos, tem uma raiz unitária. Se, por outro lado, tivéssemos (por exemplo) γ = -0,5, a equação poderia ser reescrita assim: ( ) ttt ttt tttt uYY uYY uYYY += +−= +−=− − − −− 1 1 11 5,0 )5,01( 5,0 que representa um processo AR(1) com coeficiente menor que 1 – que, como vimos, é estacionário. Note que a rejeição da hipótese nula não implica necessariamente que a série seja estacionária, pois podemos ter uma série não estacionária mascom tendência determinística – também denominada estacionária em torno de uma tendência. De fato, suponha que γ = -1 e α2 ≠ 0. Nesse caso, a equação poderia ser reescrita assim: tt tttt utY uYtYY += +−=− −− 2 121 α α que corresponde a um processo não estacionário com tendência determinística. Essa constatação é importante: dependendo da presença ou ausência da constante e/ou da tendência determinística na equação de teste (*), o comportamento suposto para a variável Yt sob a hipótese alternativa muda. Em particular: ECO1800 - PUC-Rio 45 � Se a equação de teste não inclui constante nem tendência, o teste consiste na escolha entre a hipótese nula de raiz unitária versus a hipótese alternativa de processo estacionário com média zero, como forma de descrever o processo que gera Yt. � Se a equação inclui uma tendência determinística, o teste procura discriminar entre um processo com raiz unitária (H0) e um processo que possivelmente apresente tendência determinística (H1). � Se a equação inclui a constante mas não inclui a tendência, o teste procura discriminar entre um processo com raiz unitária (H0) e um processo estacionário com média possivelmente diferente de zero (H1). Da mesma forma, as características do processo sob a hipótese nula também variam com a inclusão da constante e/ou tendência. A decisão de incluir ou não a constante é, portanto, crucial para o resultado do teste. Qual deve ser, então, a especificação da equação de teste? Devemos incluir os regressores determinísticos (constante e tendência) ou não? Uma possível resposta seria: “É melhor usar a especificação mais geral, incluindo os regressores determinísticos. Afinal, em geral é melhor incluir variáveis irrelevantes na regressão do que omitir variáveis relevantes.” Essa abordagem apresenta, porém, um problema: � Os parâmetros adicionais a serem estimados implicam perda de graus de liberdade. � O teste DF (assim como outros testes de raiz unitária) apresenta baixa potência. � Logo, a inclusão incorreta dos regressores determinísticos pode levar à aceitação incorreta da hipótese de raiz unitária. Infelizmente, não há procedimento capaz de determinar com precisão quais regressores determinísticos devam ser incluídos. É comum (e aconselhável) realizar o teste para diferentes especificações da regressão (*) e comparar os resultados. Mas há algumas regras que podem nos auxiliar: � É recomendável a inclusão da constante, a menos que argumentos teóricos indiquem que, sob a hipótese alternativa, a série deveria ter média igual a zero (por exemplo, quando a série é o resíduo de uma regressão) � Se o teste rejeita a presença de raiz unitária usando a especificação mais geral (com constante e tendência), então é provável que a série realmente não tenha uma raiz unitária (lembre que o teste tem baixa potência). Logo, é recomendável aceitar a hipótese alternativa. ECO1800 - PUC-Rio 46 W.Enders (Applied Econometric Time Series, Cap.4) apresenta um procedimento seqüencial que pode ser usado para testar simultaneamente a presença de raiz unitária e a inclusão dos regressores determinísticos: Observações: � A estatística de teste sobre γ não segue uma distribuição t de Student. Os valores críticos foram tabelados por Dickey, Fuller e MacKinnon em vários artigos, e estão disponíveis em softwares atuais. � Os valores críticos do teste variam de acordo com a especificação – isto é, se a regressão inclui constante e/ou tendência. • O teste como especificado acima é o teste clássico de Dickey-Fuller. Ele se baseia numa especificação AR(1) dos distúrbios de uma equação trend stationary. Para expandir essa especificação para AR(p), criou-se o teste ADF (Augmented DF), cuja equação inclui defasagens de ∇Yt: ttttt uYYYtY ++∇+∇+++=∇ −−− ...2211121 ββγαα ECO1800 - PUC-Rio 47 Incluem-se tantas defasagens quantas necessárias para se produzir resíduos (pelo menos aproximadamente) serialmente descorrelatados e procede-se ao teste da forma usual. IX – Modelos sazonais Os modelos ARIMA podem simular também padrões sazonais, que são freqüentes em séries econômicas. Nesse caso, é comum chamá-los de modelos SARIMA (“seasonal autoregressive...”). Os métodos de identificação de modelos sazonais são semelhantes aos vistos acima, estando baseados na análise da FAC e FACP estimadas e sua comparação com as funções teóricas de processos conhecidos. A principal diferença refere-se ao fato de que, na presença de sazonalidade com período s, as defasagens relevantes na FAC e FACP são: s, 2s, 3s etc., e não mais 1, 2, 3, etc. Por exemplo, dois processos puramente sazonais para dados mensais seriam: 1212 1212 − − −= += ttt ttt uuY uYY θ φ Para o primeiro processo, a FAC seria: ( ) = contrário caso0 no.inteiro é 12/ se12/12 k k k φρ e, para o segundo processo, a FAC apresentaria um único valor não-nulo na defasagem 12. Na prática, o processo de identificação é complicado pelo fato de que o padrão sazonal interage e se confunde com o padrão de autocorrelação não-sazonal. Por exemplo, poderíamos ter o modelo: tttt uYYY ++= −− 121211 φφ cujas FAC e FACP refletiriam os elementos sazonais e não-sazonais do processo. O modelo acima é um exemplo de sazonalidade “aditiva”: adiciona-se a um modelo AR “padrão” um coeficiente no período sazonal. Na prática, porém, os modelos mais usados caracterizam-se por sazonalidade multiplicativa, denotados pela sigla ARIMA(p,d,q)(P,D,Q), onde p,d,q referem-se à ordem de defasagens e grau de integração da parte não- sazonal do processo, e P,D,Q referem-se à parte sazonal. ECO1800 - PUC-Rio 48 Alguns exemplos: • Modelo ARIMA(1,0,0)x(1,0,0)12: ( )( ) ttttt tt uYYYY uYBB +−+=⇒ =−− −−− 13121121211 12 121 11 φφφφ φφ A sigla (1,0,0)x(1,0,0)12 reflete a presença de um termo autoregressivo não sazonal e um termo autoregressivo sazonal (multiplicativo). Note que o modelo sazonal multiplicativo inclui um termo cuja defasagem é 1+12=13. • Modelo ARIMA(1,0,1)x(0,0,1)12: Esse modelo demonstra uma das atratividades da especificação multiplicativa da sazonalidade: com apenas 3 parâmetros, captura-se o efeito de um termo autoregressivo e os efeitos de termos média móvel nas defasagens 1, 12 e 13. ( ) ( )( ) 1312112121111 12 1211 111 −−−− +−−=−⇒ −−=− tttttt tt uuuuYY uBBYB θθθθφ θθφ • Modelo ARIMA(0,1,1)x(0,1,0)12: Esse modelo é comum: a série é não estacionária tanto de mês a mês quanto na sazonalidade anual. Após uma transformação, “sobra” um processo MA(1) residual: ( )( ) ( ) 113121 12 111 −−−− −=+−−⇒ −=−− tttttt tt uuYYYY uBYBB θ θ
Compartilhar