Buscar

Material Séries Temporais

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 55 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 55 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 55 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Séries Temporais
MAURICIO ZEVALLOS
Universidade Estadual de Campinas
amadeus@ime.unicamp.br
Departmento de Estatı́stica, UNICAMP, Brasil
Copyright ©2013
Sumário
1 Introdução 1
1.1 Séries Temporais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Caracterı́sticas Empı́ricas . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 Modelos Simples de Tendência e Sazonalidade 3
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Modelos de Regressão . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Transformações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4 Suavização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.5 Notas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3 Processos Estacionários 11
3.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Inferência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3 Função de Autocorrelação Parcial . . . . . . . . . . . . . . . . . . . . 18
3.4 Processos Lineares e Teorema de Wold . . . . . . . . . . . . . . . . . 20
4 Modelos ARMA 25
4.1 Procesos de Médias Móveis . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2 Processos Autoregresivos . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3 Processos ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.4 Estrutura de Dependência nos processos ARMA . . . . . . . . . . . . 34
4.5 Notas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5 Modelagem ARMA 36
5.1 Análise Exploratória . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.2 Identificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.3 Estimação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.4 Diagnóstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.5 Seleção de Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.6 Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6 Modelos ARIMA e SARIMA 40
6.1 Modelos ARMA Integrados . . . . . . . . . . . . . . . . . . . . . . . . 40
6.2 Modelos SARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.3 Construção do Modelo SARIMA . . . . . . . . . . . . . . . . . . . . . . 47
ii
Séries Temporais Mauricio Zevallos ©2013
7 Previsão 50
7.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
7.2 Previsão em Processos Autoregressivos . . . . . . . . . . . . . . . . . 50
7.3 Previsão em Processos de Media Movel e ARMA . . . . . . . . . . . . 50
7.4 Previsão com amostra infinita em processos estacionários . . . . . . 50
7.5 Previsão em Processos ARIMA e SARIMA . . . . . . . . . . . . . . . . . 51
7.6 Comportamento a longo prazo . . . . . . . . . . . . . . . . . . . . . . 51
7.7 Criterios para comparar modelos em termos de previsões . . . . . . 52
iii
Capı́tulo 1
Introdução
1.1 Séries Temporais
Informalmente, uma série temporal é uma coleção de observações que possuem
uma sequência no tempo.
Notação: y1, . . . , yn
Exemplo 1.1 Alguns exemplos de séries temporais
• Temperatura média diária na cidade de Campinas
• Retornos mensais do Ibovespa
• SOI: Southern Oscillation Index
A caracterı́stica principal das séries temporais é a dependência entre as
observações. Portanto, na análise estatı́stica é necessário considerar a ordem na
qual os dados foram coletados. Como consequência da dependência podemos fazer
previsões dos valores futuros a partir dos valores passados.
A abordagem consiste em considerar a série temporal observada como uma
realização de um processo estocástico.
Nesta disciplina estudaremos séries coletadas em tempos igualmente espaçados,
em segundos, minutos, dias, anos, etc.
1.1.1 Objetivos
Os principais objetivos na Análise de Séries Temporais são,
• Análise e interpretação: encontrar um modelo para descrever a dependência
temporal nos dados. Algumas vezes podemos interpretar o modelo.
1
Séries Temporais Mauricio Zevallos ©2013
• Previsão: dada uma série, prever um ou vários valores futuros da série.
• Estimação ou extração do sinal.
1.2 Caracterı́sticas Empı́ricas
1.2.1 Tendência
• Evolução a longo praço do nı́vel médio
• Componente suave, não oscilatória (intrinsicamente)
• Pode ser linear, quadrática, não linear, etc.
1.2.2 Sazonalidade
• Flutuações cı́clicas relacionadas com o calendário.
• Padrão regular anual. Por exemplo se temos dados trimestrais, o comporta-
mento dos trimestres é similar em cada ano.
• Padrão regular diario. Por exemplo se temos dados horarios e o comporta-
mento é similar em cada dia.
• Não existe uma definição precisa de sazonalidade. Uma elas é: efeito (desvio)
com relação à tendência.
1.2.3 Ciclos
• Outro tipo de periodicidades.
• Exemplos: ciclos económicos (boom e recessões cada 7 anos), periodicidade
de El Niño (cada ? anos) .
1.2.4 Valores aberrantes ou outliers
• Observações atı́picas fora do padrão da série.
• É muito importante sua deteção, pois estes valores podem ter um efeito
importante na análise estatı́stica, inferência e previsão.
• Estas observações devem ser estudadas mas não retiradas.
1.2.5 Mudança Estrutural (de Regime)
• Acontece quando a estrutura ou comportamento da série muda de um periodo
a outro.
2
Capı́tulo 2
Modelos Simples de
Tendência e Sazonalidade
2.1 Introdução
Seja y1, . . . , yn uma série temporal. O Modelo de Decomposição Aditivo consiste em
escrever yt como a soma de tres componentes não observáveis,
yt = Tt + St +Ct + εt (2.1)
onde Tt é a tendência, St é a sazonalidade, Ct são os ciclos e εt são as perturbações
ou ruido. Assume-se que εt ém um processo com E(εt) = 0, V ar(εt) = σ2 constante.
Essas perturbações podem ser independentes, mas em geral nas aplicações com
séries temporais são consideradas como um processo estacionário.
Outro modelo é o Modelo de Decomposição Multiplicativo no qual,
yt = Tt × St ×Ct × εt (2.2)
Neste capitulo será estudada a modelagem de série temporais via modelos de
regressão. Para isto serão consideradas primeiro especificacoes deterministicas
simples como polinomios e funções periódicas como os harmónicos. Posteriormente
discutiremos métodos não paramétricos de suavização para estimar as componentes.
As componentes ( por exemplo tendencia e sazonalidade) são, em geral, bastante
relacionadas. Como anota Pierce (1979),
1. A especificação de St depende da especificação de Tt
2. Métodos de estimação de St podem ser bastante afetados se não levarmos em
conta a tendência.
Portanto a estimação de uma componente afeta a estimação das outras.
3
Séries Temporais Mauricio Zevallos ©2013
Um dos objetivos principais na análise de Séries Temporais é o Ajustamento Sazonal,
isto é retirar a sazonalidade da série. Assim, nos modelos aditivos queremos
calcular
Y ?t = Yt − Ŝt , (2.3)
onde Ŝt é uma estimativa de St, e nos modelos multiplicativos interessa
Y ?t = Yt/Ŝt , (2.4)
2.2 Modelos de Regressão
Inicialmente, no modelo (2.1) supomos que não há componente sazonal. Isto é,
Yt = Tt + εt (2.5)
Uma forma simples de modelar a tendência é a través de polinomios,
Tt = β0 + β1t + . . .+ βpt
p (2.6)
e um método de estimação é Quadrados Minimos. Como determinar p? (de forma
geral, como comparar modelos?)
1. Por tentativa e erro (uma forma exploratória é comprovando gráficamente
que a tendência foi retirada)
2. Testes de hipóteses
3. R2 ajustado, critérios AIC,BIC
Outras especificações alternativas são as funções não lineares em t, como por exemplo
a exponencial. Nestas situações a estimação é realizada usando métodos numéricos.
Exemplo 2.1 GNP USA
Agora, vamos supor que trabalhamos com omodelo que possui somente sazonali-
dade,
Yt = µ+ St + εt . (2.7)
Supondo que temos dados trimestrais, uma forma simples de especificar a sazonal-
idade é
St = δi t ∈ i-ésimo trimestre, i = 1,2,3,4 (2.8)
onde
δ1 + δ2 + δ3 + δ4 = 0. (2.9)
4
Séries Temporais Mauricio Zevallos ©2013
Desta forma a sazonalidade é o desvı́o com relação à média. Para estimar os
coeficientes δi , alguem poderia propor faze-lo via o modelo de regressão com
variáveis dummy,
yt = µ+ δ1D1t + δ2D2t + δ3D3t + δ4D4t + εt (2.10)
onde Dit = 1 se t ∈ trimestre i e zero em outro caso e εt é uma sequência de
perturbações. Este é um caso particular de Y = Xβ + ε, e nesse caso, o estimador de
quadrados minimos de β é
β̂ = (X ′X)−1X ′Y . (2.11)
Acontece que a matriz X ′X é não inversı́vel. Portanto é necessário introduzir
alguma restrição. Para efeitos de manter a interpretação de sazonalidade, consider-
amos a restrição (2.9).
Por exemplo considere δ4 = −(δ1 + δ2 + δ3). Neste caso, o modelo (2.10) pode ser
escrito como
yt = µ+ δ1(D1t −D4t) + δ2(D2t −D4t) + δ3(D3t −D4t) + εt (2.12)
Então via regressao obtemos as estimativas δ̂1, δ̂2, δ̂3 e δ4 é estimado como −(δ̂1 +
δ̂2 + δ̂3).
Quando a série apresenta tendência linear e sazonalidade, como por exemplo nas
vendas de cerveja, um modelo candidato é yt = Tt + St + εt com
Tt = β0 + β1t, (2.13)
St = δ1(D1t −D4t) + δ2(D2t −D4t) + δ3(D3t −D4t) (2.14)
Desta forma mantemos a interpretação de sazonalidade como desvı́o em relação à
tendencia.
Exemplo 2.2 Vendas de Cerveja
2.2.1 Regressao Harmónica
• Serve para a modelagem de sazonalidades ou outro tipo de comportamentos
cı́clicos (periodicidades)
• Seja St uma componente ciclica ou sazonal. A idéia básica da regressão
harmónica é definir
St = Asin(2πνt +φ) (2.15)
= asin(2πνt) + bcos(2πνt) (2.16)
onde A é a amplitude, φ é a fase, ν é a frequência: ciclos por unidade de tempo
e P = 1/ν é o ciclo
5
Séries Temporais Mauricio Zevallos ©2013
Exemplo 2.3 Vendas de cerveja. A série de vendas trimestrais de cerveja ap-
resenta um comportamento sazonal cada 4 trimestres. Portanto o ciclo é de 4
trimestres P = 4, e ν = 1/4 (un ciclo cada 4 trimestres). Segundo o discutido
anteriormente, um modelo plausı́vel é
yt = β0 + β1t + β2 sin(2πνt) + β3 cos(2πνt) + εt
• Quando há k periodicidades com frequências: ν1, . . . ,νk
St =
k∑
j=1
{
aj sin(2πνjt) + bj cos(2πνjt)
}
(2.17)
Exemplo 2.4 El Niño. A série de dados mensais de SOI (mudanças na pressão
do ar, relacionadas com temperatura na superficie do mar no oceano Pacifico)
apresenta comportamento cı́clico com duas periodicidades:
– Ciclo sazonal anual: ν1 = 1/12, P1 = 12
– El Niño: esquentamento cada 6 anos, ν2 = 1/72, P1 = 72
Então um modelo candidato é
yt = β0 + β1t + β2 sin(2πt/12) + β3 cos(2πt/12) (2.18)
+ β4 sin(2πt/72) + β5 cos(2πt/72) + εt .
• Modelagem
– Especificação: primeiro determinamos as frequências νj . Uma das ferra-
mentas para fazer isto é o periodograma.
– Estimação: os parámetros βj são estimados por quadrados mı́nimos.
Quando as frequências são variáveis aleatórias temos um problema de
otimização não-linear.
2.2.2 Acerca da significância dos coeficientes
Com dados de séries temporais, após a tendência e sazonalidade são estimadas via
minimos quadrados, os resı́duos apresentam dependência. Neste caso, embora os
estimadores sejam não-viciados e consistentes, os erros padrões dos coeficientes
não são corretos. Em consequência, a significância dos coeficientes poderia ficar
comprometida. Por exemplo, poderiamos obter significância quando ão há e
viceversa. No Capitulo dos Modelos ARMA estudaremos como contornar este
problema.
6
Séries Temporais Mauricio Zevallos ©2013
2.3 Transformações
• São úteis para: (i) estabilizar a variabilidade e ou (ii) simetrizar a distribuição.
1
• Uma transformação frequentemente utilizada, por exemplo em Economia
e Finanças (em indices), é a transformação logaritmica. Em particular, esta
permite tornar modelos multiplicativos em modelos aditivos. Com efeito,
Yt = Tt × St ×Ct × εt (2.19)
ln(Yt) = ln(Tt) + ln(St) + ln(Ct) + ln(εt) (2.20)
Note que transformação logaritmica somente pode ser aplicada a valores
positivos.
• Considere a serie temporal y1, . . . , yn e vamos supor que achamos razoavel
o modelo 2.19. Adicionalmente, vamos supor que as componentes são esti-
madas em 2.20, por exemplo via regressão. Seja x̂t = �ln(Yt) o valor ajustado
e et os resı́duos. Para obter a estimação da série na escala original um esti-
mador natural é exp(x̂t) mas este é viesado. Assim, é conveniente fazer uma
correção a esta estimativa, multiplicando-a por um fator c. Se supormos que
a distribuição de ln(εt) é N (0,σ2) então εt = exp(ln(εt)) possui distribuição
log-normal com valor esperado exp(σ2/2). Então o fator de correção é igual
a c = exp(σ̂2/2) onde σ̂ é o desvı́o padrão dos resı́duos et. No entanto, nas
aplicações empiricas tem-se encontrado que a distribuição dos resı́duos é as-
simétrica à esquerda. Nesses casos podemos usar c = 1n
∑n
i=1 exp(et). Quando
os valores ajustados são muito proximos dos valores reais, o efeito do termo
de correção pode ser minimo.
• Uma famı́lia de transformações usualmente utilizada é a de Box-Cox. Assim,
seja Zt a série transformada,
Zt =
{
yλt se λ , 0
ln(yt) se λ = 0
Exemplos incluem λ = 0 para modelos multiplicativos e λ = 0.5 para dados
de contagem.
Na prática, o coeficiente λ é encontrado seja de forma exploratória, ou mini-
mizando uma função objetivo.
Exemplo 2.5 Vendas de passagens.
1Também para tornar a série estacionária. O conceito de estacionariedade será visto no próximo
capitulo.
7
Séries Temporais Mauricio Zevallos ©2013
2.4 Suavização
Em séries temporais com tendência e ou sazonalidade que mudam no tempo os
modelos polinomias para a tendência poderiam não capturar os comportamentos
locais. Uma vantagen dos métodos de suavização é que são mais flexı́veis para
capturar esses comportamentos. No entanto, uma desvantagen dos métodos de
suavização descritos a seguir é que não permitem fazer previsões.
Sejam y1, . . . , yn observações de uma série temporal e assumimos que,
yt =mt + εt (2.21)
onde mt é o sinal e εt é o ruido. A idéia da suavização é que o sinal (a tendencia e ou
sazonalidade e ou ciclos) num instante t será estimado usando-se as observações Ys
com s ao redor de t. Isto é numa janela ao redor de t.
Existem vários métodos de suavização. Um dos mais utilizados é o método das
Médias Móveis. Neste método, o sinal no tempo t é estimado como a média ponder-
ada das observações na vizinhança. Assim,
m̂t =
k∑
j=−k
cjyt+j , t = k + 1, . . . ,n− k (2.22)
onde os pesos cj satisfazem
∑k
j=−k cj = 1. Observe que perdemos k observações
tanto no inı́cio quanto no final. Se supormos que cada observação tem igual peso
na suavizacão então
m̂t =
1
2k + 1
k∑
j=−k
yt+j , t = k + 1, . . . ,n− k (2.23)
Como determinar k? Na prática são feitas suavizações para vários valores de k e
depois escolhemos aquele valor que produça a suavização desejada (gráficamente).
As vezes a natureza dos dados ajuda. Por exemplo, com dados trimestrais e
sazonalidade anual seria razoável usar uma janela com 4 observações. Mas, nesse
caso qual seria o valor de k? Isto é, se por exemplo quisermos estimarm7, usariamos
y5, y6, y7, y8 ou y6, y7, y8, y9? Uma forma de contornar este problema é considerar
k = 2 onde
m̂t = (0.5yt−2 + yt−1 + yt + yt+1 + 0.5yt+2)/4 t = 3, . . . ,n− 2 (2.24)
2.4.1 Um Método Simples de Decomposição
Assuma o modelo de decomposição com tendência e sazonalidade
yt = Tt + St + εt (2.25)
8
Séries Temporais Mauricio Zevallos ©2013
Um método simples de decomposição consiste no seguinte: vamos supor que
temos dados trimestrais com sazonalidade anual. Então, a tendência é estimada
a través de médias móveis como em (2.24). Para estimara sazonalidade, definida
como (2.8), primeiro remova a tendência da série, at = yt − T̂t e depois calcule a
média correspondente a cada trimestre. Assim, para o trimestre I , bI é a media
de a1, a5, a9, . . ., enquanto que para o trimestre II bII é a media de a2, a6, a10, . . .,
etc. Para que a sazonalidade seja o desvio em torno da tendência, calculamos
b̄ = (bI + bII + bIII + bIV )/4 e consideramos δ̂i = bi − b̄ para i = 1,2,3,4. Desta forma
a sazonalidade estimada é igual a Ŝt = δ̂i se t pertence ao trimestre i. Finalmente, a
componente irregular estimada é ε̂t = yt − T̂t − Ŝt.
Quando o modelo é multiplicativo,
yt = Tt × St × εt (2.26)
o processo de estimação é similar ao realizado no modelo aditivo: a tendência é
estimada da mesma forma, mas para estimar a sazonalidade consideramos at =
yt/T̂t e a componente irregular estimada é ε̂t = yt/(T̂tŜt).
No R o comando decompose faz a decomposição descrita.
Exemplo 2.6 Vendas de cerveja. A série de vendas trimestrais de cerveja apresenta
um comportamento sazonal cada 4 trimestres.
2.5 Notas
2.5.1 Critérios de Escolha de Modelos
Seja um modelo de regressão com k coeficientes com σ̂2k = SQE/n o estimador de
máxima verossimilhança de V ar(εt) = σ2, sendo n o número de dados.
Na comparação de modelos com diferente número de coeficientes podemos usar os
seguintes Critérios de Informação,
• Akaike,
AIC = ln(σ̂2k ) +
2k +n
n
• Schwarz,
BIC = ln(σ̂2k ) +
k ln(n)
n
Escolhemos o modelo com menor AIC e ou BIC. É preferı́vel usar o BIC. Lembre
que o modelo escolhido poderia não ser adequado.
9
Séries Temporais Mauricio Zevallos ©2013
2.5.2 Outros métodos de suavização
Medianas Móveis
Em vez de tomar médias móveis podemos calcular medianas móveis. Assim,
m̂t =mediana{yt−k , yt−k+1, . . . , yt+k}, t = k + 1, . . . ,n− k (2.27)
Comparado com o método das médias móveis, o método das medianas móveis é
conveniente quando queremos estimar o sinal na presença de outliers.
Lowess
Este é o acrônimo de locally weighted regression scatter plot smoothing. O procedi-
mento para estimar o sinal no tempo ti , mti , é
1. Identifique os pontos vizinhos ou janela de pontos ao redor dos tempos i,
A(ti) = {ti−k , . . . , ti−1, ti , ti+1, . . . ti+k},
2. Calcule ∆(ti) = maxj∈A(ti ) |tj − ti | e defina aj = |ti − tj |/∆(ti) para todo tj ∈ A(ti)
3. Calcule os pesos pj = ω(aj ) onde ω(·) é uma função de pesos. Escolhas usuais
para esta função são,
ω(u) = (1− |u|3)3, |u| < 1, (2.28)
ω(u) = (1− |u|2)2, |u| < 1, (2.29)
e zero em caso contrario (para ambas especificações).
4. A estimativa do sinal mti é,
m̂ti = α̂i + β̂iti (2.30)
onde os coeficientes αi e βi são estimados via Quadrados Minimos Ponderados
(QMP), isto é, temos que minimizar∑
j∈A(ti )
pj(ytj −αi − βitj )
2, (2.31)
5. Repetimos este procedimento para i = 1, . . . ,n
Assim, a estimativa do sinal em cada ponto é o ajuste de uma regressão linear de
pontos vizinhos os quais possuem pesos determinados pela função ω(·). Note que
essa função é simétrica ao redor de zero e os valores diminuem na medida que se
afastam de zero. Em consequência, as observações mais afastadas do tempo ti tem
influencia menor na estimativa do sinal mti .
10
Capı́tulo 3
Processos Estacionários
3.1 Definições
Definição 3.1 Um processo estocástico é uma familia de variáveis aleatorias {Yt; t ∈C}.
Se C = [0,∞) o processo é de Tempo continuo,
Se C = {1,2, . . . , } o processo é de Tempo discreto.
Definição 3.2 Uma série temporal é uma realização de um processo estocástico, isto
é, corresponde à ocorrência de um dos possiveis resultados .
O processo estocástico mais simples é a sequencia de variaveis aleatórias inde-
pendentes identicamente distribuidas (IID) com valor esperado zero e variância
constante σ2. Havendo independência, este processo não seria de interesse na
análise de séries temporais, mas acontece que muitos dos processos utilisados na
prática podem ser construidos a partir do ruido branco.
Exemplo 3.1 Paseio ao Acaso. Sejam ε1, ε2, . . . v.a. IID con esperança cero e variância
σ2. O processo passeio ao acaso {Yt} é definido como
Yt =
t∑
i=1
εi (3.1)
= Yt−1 + εt (3.2)
Definição 3.3 A distribuição conjunta (finita) do processo estocástico está dada por:
Ft(y) = P (Yt1 ≤ y1, . . . ,Ytn ≤ yn), y = (y1, . . . , yn) (3.3)
onde t = (t1, . . . , tn). No caso que F seja Normal Multivariada dizemos que o processo é
Gaussiano.
11
Séries Temporais Mauricio Zevallos ©2013
Para analizar a dependência utilizamos as covariancias
Definição 3.4 Seja {Yt , t ∈ T } um processo estocástico tal que V ar(Yt) <∞. Então a
covariância entre Yr e Ys está definida como
Cov(Yr ,Ys) = E[(Yr −E(Yr ))(Ys −E(Ys))], r, s ∈ T (3.4)
Exemplo 3.2 Paseio ao Acaso (cont.)
Nas aplicações, como poderiamos estimar a estrutura de dependencia, vamos supor
de correlação, com base em uma realização do processo estocástico? Neste sentido,
é conveniente trabalhar com a seguinte classe de processos
Definição 3.5 O processo {Yt} denomina-se estacionário (covariante estacionário
ou estacionário de segunda ordem) se
a) E(Yt) é uma constante para todo t.
b) V ar(Yt) é uma constante para todo t.
c) Cov(Yt ,Yt+τ ) é uma função somente de τ .
Exemplo 3.3 . Sejam Y1,Y2,Y3,Y4 pertencentes a um processo estacionário. Então,
Cov(Y1,Y2) = Cov(Y2,Y3) = Cov(Y3,Y4) = γ(1)
Cov(Y1,Y3) = Cov(Y2,Y4) = γ(2)
Cov(Y1,Y4) = γ(3)
Exemplo 3.4 Processo Singular. Seja Yt o processo definido como
Yt = ε1 cos(θt) + ε2 sin(θt) (3.5)
onde θ ∈ [−π,π] é una constante e ε1, ε2 são variáveis aleatórias não-correlacionadas
com esperança zero e variância um.
Como E(Yt) = 0, V ar(Yt) = 1 e Cov(Yr ,Ys) = cos[θ(r − s)] então {Yt} é um processo
estacionário.
Quando não são satisfeitas as condições da Definição 3.5 dizemos que o processo
é não-estacionário. Um exemplo de processo não estacionário é o Passeio ao
Acaso. Os modelos com tendência discutidos no capitulo anterior sao exemplos
de processos não estacionarios. Grande parte das séries económicas e de outras
áreas são não estacionarias. Nos capitulos X,Y serão discutidas metodologias para
a modelagem deste tipo de processos.
A partir de agora nos concentraremos no estudo dos processos estacionários, os
quais estao caracterizados pela media e correlações (ou covariancias).
12
Séries Temporais Mauricio Zevallos ©2013
Definição 3.6 Seja {Yt} um processo estacionário. Então
a) γ(τ) é denominada função de autocovariância
b) ρ(τ) = γ(τ)/γ(0) é denominada função de autocorrelação, (FAC).
onde τ é a defasagem ou retardo.
Definição 3.7 Ruido Branco. O processo {εt} é dito Ruido Branco com esperança
zero e variancia σ2 se e somente se E(εt) = 0 e γ(0) = σ2 e γ(k) = 0 para k , 0. Notação
εt ∼ RB(0,σ2)
Definição 3.8 Ruido Branco Estrito. Se o processo {εt} é um ruido branco onde as
variáveis aleatórias são mutuamente independentes então é dito um Ruido Branco
Estrito. Adicionalmente, usualmente é considerado que as variáveis possuem a mesma
distribuição. Neste texto consideramos um Ruido Branco Estrito como uma sequencia de
v.a. IID com valor esperado zero e variância constante.
Exemplo 3.5 Cont. Exemplo 3.4. Neste caso, ρ(τ) = cos(θτ). Vamos supor que
θ = π/2, então ρ(k) = 0 para k impar, ρ(2k) = (−1)k para k par. A FAC é (desenho).
Exemplo 3.6 Processo MA(1). Seja o processo Yt = εt +θεt−1 onde {εt} ∼ RB(0,σ2).
Então E(Yt) = 0, γ(0) = σ2(1 +θ2), γ(1) = θ/(1 +θ2) e γ(k) = 0 para k ≥ 2.
Exemplo 3.7 Processo AR(1). Seja o processo Yt = φYt−1 + εt onde {εt} ∼ RB(0,σ2) e
|φ| < 1. Como será demonstrado no proximo capı́tulo, o processo {Yt} é estacionário com
E(Yt) = 0, γ(0) = σ2/(1−φ2) e ρ(k) = φk para k ≥ 1.
As funções de autocovariância e de autocorrelação satisfazem as seguintes pro-
priedades.
Proposição 3.1 Seja Yt um processo estacionário, então
a) γ(0) ≥ 0
b) | γ(h) |≤ γ(0), paratodo h. Então | ρ(h) |≤ 1.
c) γ(h) = γ(−h), para todo h. Então ρ(h) = ρ(−h).
d) γ(h) é uma função semidefinida positiva, isto é, para todo ã = (a1, . . . , an) e para
todo y = (y1, . . . , yn)
n∑
i=1
n∑
j=1
aiajγ(|i − j |) ≥ 0
Demonstração. Partes (a) e (c) são obvias. Parte (b) é uma consequência da desigual-
dade de Cauchy-Schwarz. Para a Parte (d) note que 0 ≤ V ar(a>y) = a>V ar(y)a,
onde V ar(y) é uma matriz com elementos γ(|i − j |).
13
Séries Temporais Mauricio Zevallos ©2013
3.2 Inferência
Consideremos que os dados y1, . . . , yn provêm de um processo estacionário. Na
prática, a média µ e as covariancias γ(τ) têm que ser estimadas. Para fazer isto
uma alternativa é utilizar os estimadores de momentos.
Definição 3.9 Seja {Yt} uma série temporal. Então
a) Ȳ =
∑n
i=1Yi/n é a média amostral.
b) ck =
∑n−k
i=1 (Yi − Ȳ )(Yi+k − Ȳ )/n é a autocovariancia amostral
c) rk = ck/c0 é a autocorrelação amostral
O gráfico de rk versus k se denomina correolograma ou gráfico da função de
autocorrelação amostral. Note que não podemos calcular a FAC amostral para
quaisquer defasagem. De fato, se temos n dados só dispomos de (n − 1) pares
(Yi ,Yi+1) e de um par (Yn,Yn−1). Além disso, com puocos pares as estimações não
são precissas. Portanto temos regras como: não avaliar rk para k > n/3, ou segundo
Box-Jenkins considerar k ≤ n/4 com pelo menos n = 50 observações, ou avaliar para
k ≤
√
n.
No R a função acf calcula a FAC de uma série. Por defeito considera X defasagens.
Na análise é necessário que você considere o numero de defasagens de acordo com
o tamanho da série segundo as recomendações anteriores.
Exemplo 3.8 Em uma série temporal com 84 observações são calculadas as seguintes
autocorrelações:
O gráfico da FAC é.
k 1 2 3 4 5 6 7 8 9 10
rk -0.67 0.43 -0.24 0.09 0.04 -0.12 0.14 -0.09 0.04 0.09
As autocovariâncias e autocorrelações amostrais podem ser calculadas para qual-
quer conjunto de dados y1, . . . , yn, não somente para observações provenientes de
procesos estacionários. Mesmos que a FAC não tenha interpretação para proces-
sos não estacionários, a FAC fornece informação muito valiosa para entender a
estrutura de dependência da série, por exemplo para identificar tendência e ou
sazonalidade.
Exemplo 3.9
14
Séries Temporais Mauricio Zevallos ©2013
3.2.1 Propriedades dos estimadores
A seguir apresentamos algumas propriedades destos estimadores. Começamos
pela média amostral
Proposição 3.2 A média amostral Ȳ satisfaz as seguientes propriedades:
a) É um estimador não viciado de µ
b) Sua variância é,
V ar(Ȳ ) =
γ(0)
n
+
n−1∑
k=1
2(n− k)
n2
γ(k) (3.6)
=
γ(0)
n
1 + n−1∑
k=1
2(n− k)
n
ρ(k)
 (3.7)
onde FIV = 1 +
∑n−1
k=1
2(n−k)
n ρ(k) é o Fator de Inflação da Variância.
c) Se γ(n)→ 0 então V ar(Ȳ )→ 0
d) Se
∑k=∞
k=−∞ |γ(k)| <∞ então nV ar(Ȳ )→
∑k=∞
k=−∞γ(k)
De (b) temos que se não consideramos a dependência a variância da média não é
estimada acuradamente.
Exemplo 3.10 Cont. Exemplo 3.6 Neste caso
FIV = 1 + 2
n− 1
n
θ
1 +θ2
Por exemplo se n = 100 e θ = 0.8 então FIV = 1.966. Isto é, a variância é quase 2 vezes
a variância supondo independência!
Se quisermos encontrar intervalos de confiança para µ podemos trabalhar com
a distribuição assintótica de Ȳ . Sob determinadas condições esta distribuição é
normal, veja por exemplo Brockwell and Davis (1991).
Com respeito às propriedades de ck , sob determinadas condições,
E(ck) ≈
(
1− k
n
)
γ(k)−
(
1− k
n
)
V ar(Ȳ ). (3.8)
Portanto ck apresenta viés. Mas, se V ar(Ȳ )→ 0 quando n→∞ (o qual acontece
para várias classes de processos) e se k/n é pequeno então o viés é pequeno. Pelo
contrário, fixo n, se k for muito próximo de n então o viés pode ser grande. Este é
15
Séries Temporais Mauricio Zevallos ©2013
um dos motivos pelos quais é aconselhável calcular ck para valores de k ≤ n/4 (Wei
pp 19).
Um estimador alternativo para γ(k) ’e
c̃k =
1
n− k
n−k∑
i=1
(Yi − Ȳ )(Yi+k − Ȳ ).
Em geral, este estimador apresenta menor viés do que ck . No entanto, nem sempre é
semidefinido positivo, enquanto que ck sim. Por este motivo e sendo ck consistente,
preferimos ck .
Sob determinadas condições, os estimadores rk são consistentes. Em geral obter
a distribuição de rk é muito dificil mesmo para modelos simples. Então temos
que recurrir a resultados assintóticos. Sob determinadas condições a distribuição
assintótica do vetor (r1, . . . , rs) é normal multivariada, onde a matriz de covariância
em geral não é diagonal. Portanto, haveria correlação entre ri e rj e esta poderia ser
grande. Veja por exemplo Brockwell and Davis (1991) e Harvey (1990). No entanto,
há um caso especial no qual as correlações são assintóticamente independentes.
Veja a seguinte proposição.
Proposição 3.3 Seja {yt} um ruido branco. Então sob determinadas condições,
(a) Para cada k especifico, rk ∼ AN (0,1/n).
(b) O vetor (r1, . . . , rs) tem distribuição assintótica normal.
(c) As autocorrelações (r1, . . . , rs) são assintóticamente independentes.
3.2.2 Testes de Ruido Branco
Um problema importante na análise estatı́stica de dados é determinar si estes
apresentam dependência. Se os dados fossem independentes, não teria sentido
aplicar modelos de séries temporais. A seguir apresentaremos algumas estrategias
para avaliar se os dados correspondem a um ruido branco. Estas servem para avaliar
ausência de correlação mas não necessariamente independência. O resultado chave
é a Proposição 3.3.
Gráfico da FAC com limites + - 2/
√
n: limites de Bartlett
Na análise exploratória, um dos principais gráficos é a FAC amostral. Da Proposição
3.3, se os dados são independentes, para uma defasagem fixa k, a distribuição
assintótica de rk é normal, ρ̂k ∼ AN (0,1/n). Assim, os limites de confiança 95%
são +,−,1.96
√
n. Desta forma, no gráfico da FAC esperariamos que a maioria das
autocorrelações esteja dentro desses limites. Na prática, no entanto, se os dados
são ruido branco, espera-se que 1 em 20 autocorrelaciones esteja fora dos limites
16
Séries Temporais Mauricio Zevallos ©2013
No entanto, é importante enfatizar que, a rigor estamos considerando H0 : ρ(k) = 0
para un k especifico. Portanto, na significância, não debemos esperar que 5%
das autocorrelações estejam fora dos limites. Se analizarmos 10 autocorrelações,
como estas são independentes com distribuição normal multivariada, então a
região de confiança para as 10 autocorrelações é o cubo com limites 2/
√
n. Assim,
considerando a hipótese nula H0 : ρ1 = . . . = ρ10 = 0, a significância seria igual ao
produto das 10 significâncias obtidas.
Testes de Portmanteau
Pode acontecer que as autocorrelaciones estimadas sejam individualmente peque-
nas mas a soma destas não ser pequena. Isto não deveria ocorrer se os dados fossem
gerados por um ruido branco. Para docimar H0 : ρ1 = . . . = ρm = 0 conjuntamente,
Box e Pierce (197?) propuseram o seguinte teste:
Q(m) = n
m∑
k=1
r2k . (3.9)
Sob H0 a distribuição assintótica de Q é χ2(m).
Este resultado está baseado novamente na Proposição 3.3. Já que sob H0,
√
nrk ∼
AN (0,1) para cada k e alem disso as m autocorrelações são assintóticamente in-
dependentes, então
∑m
k=1
√
nrk tem distribuição chi-cuadrado com m graus de
liberdade.
Em pequenas amostras, tem sido encontrado que a distribuição χ2m não constitui
uma boa aproximação da distribuição da estatı́stica de Box-Pierce Q(m). Por este
motivo Ljung e Box (1978) modificaram o teste (3.9) como,
Q(m) = n(n+ 2)
m∑
k=1
r2k /(n− k). (3.10)
que tem distribuição assintótica χ2(m) sob H0.
Cómo especificar m?. Por um lado, m não pode ser pequeno pois interessa avaliar
varias correlações. Por outro lado, a medida quem aumenta em relação ao tamanho
da amostra n, a qualidade da distribuição aproximada deteriora-se.Então temos
que tomar um valor de compromisso entre significância (m grande) e poder (m
pequeno). Um valor razoável seria m =
√
n, mas nas aplicações é conveniente
calcular a estatı́stica para varios valores de m.
Exemplo 3.11 A partir de uma série temporal com 100 observações são calculadas as
seguintes autocorrelações.
No gráfico da FAC vemos que as autocorrelações 6 (quase) e 10 estão fora dos limites
2/
√
100 = 0.2. Assim, não teriamos evidência contra a hipótese de não-correlação.
17
Séries Temporais Mauricio Zevallos ©2013
k 1 2 3 4 5 6 7 8 9 10
rk 0.06 -0.12 0.01 -0.10 -0.12 -0.19 0.09 -0.07 0.07 0.27
k 11 12 13 14 15 16 17 18 19 20
rk 0.10 0.05 0.01 -0.02 -0.10 -0.08 0.09 -0.02 0.00 -0.01
Por outro lado, na seguinte tabela temos os resultados do teste de Portmanteau para
diversos valores de m.
m Q(m) Valor-P
4 2.94 0.43
8 9.84 0.72
12 20.08 0.93
16 22.12 0.86
20 23.18 0.72
Portanto, não há evidência suficiente para rejeitar a hipótese de ruido branco.
Um gráfico bastante útil (utilisado no R) é aquele no qual os valores-P da estatı́stica
de teste pormanteau são graficados para cada valor de m. O comportamento ideal
seria que não haja nenhum ponto abaixo da linha de 5%, mas, situações aceitáveis
(que suportam H0) são aquelas onde a partir de determinado valor de m os pontos
estão alocados acima da reta de 5%.
3.3 Função de Autocorrelação Parcial
A FACP é muito importante na simulação de processos estacionários, na Teoria de
Previsão e na identificação de modelos.
• Seja {Yt} um processo estacionário com valor esperado zero e covariancias
γ(·)
• A Autocorrelação Parcial de ordem k, denotada por φkk , está definida como a
correlação entre Yt+k e Yt que não é explicada por A = {Yt+1, . . . ,Yt+k−1}. Isto é,
a correlação entre Yt+k e Yt após retirar a dependência linear em A.
• Em particular, para k = 1 temos que φkk = ρ(1)
• φkk como função de k é a Funcão de Autocorrelação Parcial (FACP)
3.3.1 Como calcular a FACP?
• A dependencia linear é retirada via previsão
18
Séries Temporais Mauricio Zevallos ©2013
• Seja Ŷt o melhor preditor linear no sentido de media quadrática baseado na
informação {Yt+1, . . . ,Yt+k−1},
Ŷt = β1Yt+1 + . . .+ βk−1Yt+k−1 (3.11)
Então podemos mostrar que,
Ŷt+k = β1Yt+k−1 + . . .+ βk−1Yt+1 (3.12)
• De acordo com a definição,
φkk =Corr(Yt − Ŷt ,Yt+k − Ŷt+k). (3.13)
• Relação entre FACP e FAC (Demonstração em B& D)
ρ(0) ρ(1) . . . ρ(k − 1)
ρ(0) . . . ρ(k − 2)
...
ρ(0)


φk1
φk2
...
φkk
 =

ρ(1)
ρ(2)
...
ρ(k)
 (3.14)
• φkk é obtido ao resolver o sistema anterior. Para isto existem vários métodos.
Um deles é a Regra de Cramer,
φkk =
∣∣∣∣∣∣∣∣∣∣∣∣
ρ(0) ρ(1) . . . ρ(k − 2) ρ(1)
ρ(0) . . . ρ(k − 3) ρ(2)
...
ρ(1) ρ(k)
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
ρ(0) ρ(1) . . . ρ(k − 2) ρ(k − 1)
ρ(0) . . . ρ(k − 3) ρ(k − 2)
...
ρ(1) ρ(0)
∣∣∣∣∣∣∣∣∣∣∣∣
(3.15)
Note que a matriz no numerador é igual à matriz do demoninador a menos
da última coluna que é o vetor de correlações (do lado direito) de (3.15). Por
exemplo,
φ22 =
∣∣∣∣∣ 1 ρ(1)ρ(1) ρ(2)
∣∣∣∣∣∣∣∣∣∣ 1 ρ(1)ρ(1) 1
∣∣∣∣∣ (3.16)
• Exemplo: no Ruido Branco, φkk = 1 quando k = 0 e zero em outro caso. Isto
pode ser comprovado a partir de (3.13) onde Ŷt = Ŷt+k = 0 ou a partir de
(3.15).
19
Séries Temporais Mauricio Zevallos ©2013
• A menos de processos simples, como o Ruido Branco, resolver o sistema (3.14)
mediante a regra de Cramer não é computacionalmente conveniente. Para
contornar esse problema, Durbin(1960) propus o seguinte algoritmo iterativo
(chamado de Durbin-Levinson).
φk+1,k+1 =
ρ(k + 1)−
∑k
j=1φkjρ(k + 1− j)
1−
∑k
j=1φkjρ(j)
, k = 1, . . . , (3.17)
φk+1,j = φk,j −φk+1,k+1φk,k+1−j , j = 1, . . . , k (3.18)
Assim, as tres primeiras autocorrelações parciais são calculadas como
φ11 = ρ(1), (3.19)
φ22 =
ρ(2)− ρ2(1)
1− ρ2(1)
, (3.20)
φ21 = φ11 −φ22φ11 (3.21)
φ33 =
ρ(3)−φ21ρ(2)−φ22ρ(1)
1−φ21ρ(1)−φ22ρ(2)
, (3.22)
• Exemplo: No AR(1) φ11 = φ e φkk = 0 para k > 1. Ver notas de aula.
• Exemplo: MA(1). Aqui ρ(k) = θ/(1 +θ2) para |k| = 1 e zero em caso contrario.
Por indução.
φkk =
−θk(1−θ2)
1−θ2(k+1)
(3.23)
3.3.2 Estimação
• Para estimar a FACP, estimamos primeiro as autocorrelações e depois calcu-
lamos as correlações parciais, seja resolvendo o sistema (3.15) ou mediante o
algoritmo de Durbin-Levinson.
• Para testar a hipótese de Ruido Branco um resultado útil é o seguinte,
√
nφ̂kk→N (0,1). (3.24)
Então, os Limites de Confiança 95% assintóticos para as autocorrelações
parciais são −,+2/
√
n
3.4 Processos Lineares e Teorema de Wold
Os processos lineares têm um rol muito importante na análise de séries temporais.
Como veremos, pode ser mostrado que um processo estacionário é linear ou pode
ser transformado em linear retirando a componente deterministica. Este resultado
é o Teorema de Wold.
20
Séries Temporais Mauricio Zevallos ©2013
Definição 3.10 Una processo {Yt} é dito Processo Linear se para todo t temos a
seguinte representação:
Yt =
∞∑
j=−∞
ψjεt−j (3.25)
onde {εt} é um ruido branco estricto, RB(0,σ2), e {ψj} é uma sequencia de constantes
tais que
∞∑
j=−∞
ψ2j <∞. (3.26)
Definição 3.11 Um processo linear {Yt} é denominado MA(∞) se ψj = 0 para j < 0,
isto é:
Yt =
∞∑
j=0
ψjεt−j . (3.27)
Observação 3.1 A condição (3.26) permite garantir que a soma infinita (3.25) convirja
em média quadrática (Teorema de Riesz-Fisher). No lugar de (3.26) outra condição
geralmente utilizada é
∑∞
j=−∞ |ψj | < ∞. Sob esta condição o processo converge quase
seguramente.
Duas classes importantes de processos lineares são os,
• ARMA, os quais satisfazem
∑∞
j=−∞ |ψj | <∞
• ARFIMA, os quais satisfazem
∑∞
j=−∞ψ
2
j <∞mas
∑∞
j=−∞ |ψj | =∞
Uma forma conveniente de escrever processos lineares é utilisando o operador de
desagem B. Podemos realizar operações algébricas com este operador.
Definição 3.12 O operador de defasagem B produz a seguinte transformação na
variável aleatória Yt,
BkYt = Yt−k . (3.28)
E se c é uma constante então Bc = c.
De (3.27)
Yt = ψ0εt +ψ1εt−1 +ψ2εt−2 +ψ3εt−3 + . . . (3.29)
= ψ0B
0εt +ψ1B
1εt +ψ2B
2εt +ψ3B
3εt + . . . (3.30)
= (ψ0B
0 +ψ1B
1 +ψ2B
2 +ψ3B
3 + . . .)εt . (3.31)
21
Séries Temporais Mauricio Zevallos ©2013
Portanto,
Yt = Ψ (B)εt , onde Ψ (B) =
∞∑
j=0
ψjB
j (3.32)
Assim, o polinomio Ψ (B) pode ser enxergado como um Filtro Linear, o qual, apli-
cado no processo de entrada {εt} produz a saida {Yt}
Exemplo 3.12 Coeficientes ψj no AR(1) estacionário. Como (1 − φB)Yt = εt então
Yt = εt/(1−φB). Logo, já que Yt = (ψ0B0 +ψ1B1 +ψ2B2 +ψ3B3 + . . .)εt então,
1
1−φB
= ψ0B
0 +ψ1B
1 +ψ2B
2 +ψ3B
3 + . . . ,
1 = (1−φB)(ψ0B0 +ψ1B1 +ψ2B2 +ψ3B3 + . . .).
Dois polinomios são iguais se os respectivos coeficientes de Bk são iguais para k = 0,1, . . ..
Portanto
1 = ψ0 (3.33)
0 = ψ1 −ψ0φ, ψ1 = φ (3.34)
0 = ψ2 −ψ1φ, ψ2 = φ2, (3.35)
e por indução podemos demonstrar que ψk = φk .
Observação 3.2 O exemplo anterior ilustra um procedimento para obter a
representação MA(∞) de um processo. Assim, seja Yt = A(B)εt com A(B) = a0 + a1B+
a2B
2 + . . .. De (3.32) obtemos A(B) = Ψ (B) então os coeficientes ψj são encontrados
resolvendo essa igualdade de polinomios.
O seguinte resultado estabelece que se aplicamos um filtro linear a um processo
estacionário então o resultado é outro processo estacionário.
Teorema 3.1 Seja {Yt} um processo estacionário com esperança zero e FACV γy . Se∑∞
j=−∞ψ
2
j <∞ então o processo
Xt =
∞∑
j=−∞
ψjYt−j (3.36)
é estacionário com esperança zero e FACV
γX(τ) =
∞∑
j=−∞
∞∑
k=−∞
ψjψkγY (τ + k − j) (3.37)
22
Séries Temporais Mauricio Zevallos ©2013
Portanto, se {Yt} é ruido branco,
γX(τ) = σ
2
∞∑
j=−∞
ψjψj+τ (3.38)
Demonstração. E(Xt) = 0. e
Cov(Xt ,Xt+τ ) = Cov(
∞∑
i=−∞
ψiYt−i ,
∞∑
j=−∞
ψjYt+τ−j ) (3.39)
=
∞∑
i=−∞
∞∑
j=−∞
ψiψjCov(Yt−i,Yt+τ−j ). (3.40)
Já que {Yt} é estacionário então Cov(Yt−i ,Yt+τ−j ) = γY (τ + i − j), então substituindo
esta expressão em (3.40) obtemos (3.37). Como γX(·) não depende de t então {Xt} é
estacionário. Adicionalmente, note que γY (τ + i − j) = σ2 para j = i + τ e é zero em
outro caso. Portanto, considerando isto em (3.37) obtemos (3.38).
A expressão (3.38) permite calcular as autocovariancias em processos lineares. Veja
o seguinte exemplo.
Exemplo 3.13 FAC do AR(1) estacionário. Seja yt = φyt−1 + εt com |φ| < 1 e
εt ∼ RB(0,σ2). Como ψj = φj para j = 0,1, . . . então γ(τ) = σ2
∑∞
j=0φ
jφj+τ =
σ2φτ
∑∞
j=0φ
2j . Já que
∑∞
j=0φ
2j = 1/(1−φ2) para |φ| < 1 obtemos γ(τ) = σ2φτ /(1−φ2).
De aqui, γ(0) = σ2/(1−φ2) e portanto ρ(τ) = φτ para j = 0,1, . . ..
O Teorema anterior nos diz que os processos lineares são estacionários sempre que
a condição (3.26) seja satisfeita. O seguinte resultado nos diz como evolui a função
de autocovariancia.
Teorema 3.2 Seja {Yt} um processo linear onde (3.26) é satisfeita. Então,
|γY (τ)| → 0 quando τ→∞. (3.41)
Existe outra classe de processos estacionários conhecidos como Harmonicos ou
Singulares que não cumprem o Teorema anterior. Com efeito, o processo singular
discutido no Exemplo 3.4, Yt = ε1 cos(θt) + ε2 sin(θt), tem FAC ρ(k) = 0 para k
impar, ρ(2k) = (−1)k para k par, ver Exemplo 3.5. Isto é, as autocorrelações não
convergem para zero na medida que as defasagens aumentam. Adicionalmente,
note que {Yt} não é linear pois os termos cos(θt) e sin(θt) dependem de t.
Definição 3.13 Os processos Singulares estão definidos como
Yt =
∞∑
j=−∞
ϕj exp
iλj t εj , t ∈ Z (3.42)
23
Séries Temporais Mauricio Zevallos ©2013
onde {ϕj} é uma sequencia de constantes tais que
∑∞
j=−∞ϕ
2
j <∞ e {λj} é uma sequencia
de numeros reais no intervalo (−π,π].
É possivel demonstrar que os processos (3.42) são estacionários com FACV
γY (τ) = σ
2
∞∑
j=−∞
ψ2j exp
iλjτ εj , τ ∈ Z (3.43)
Portanto, |γY (τ)|9 0 quando τ→∞.
O seguinte resultado conhecido como Teorema de Wold ou Descomposição de
Wold desempenha um rol muito importante na teoria de séries temporais.
Teorema 3.3 Todo proceso estacionário {Yt} pode ser escrito como:
Yt = Ut +Vt ,
Ut =
∞∑
j=0
ψjεt−j
Vt =
∞∑
j=−∞
ϕj exp
iλj t �j
onde {εt}, {�t} são ruidos brancos com esperança zero e variância finita; as sequencias
de constantes {ψj}, {ϕj}, {λj} satisfazem
∑∞
j=0ψ
2
j <∞,
∑∞
j=0ϕ
2
j <∞, λj ∈ (−π,π], e as
componentes linear (Ut) e singular (Vt)são ortogonais, isto é Cov(Ut ,Vt) = 0.
24
Capı́tulo 4
Modelos ARMA
Uma clase importante de procesos estocásticos sãoos Procesos Autoregresivos de
Medias Móviles ARMA, propostos por Box & Jenkins. Estes modelos são bastante
utilizados na análise de séries temporais de diversas áreas do conhecimento.
Denotaremos a um ruido branco estrito com esperança 0 e variância σ2 como
RB(0,σ2). Adicionalmente, B é o operador de defasagem.
4.1 Procesos de Médias Móveis
Definição 4.1 Um processo de médias móveis de primer ordem com esperança µ, deno-
tado como MA(1), é definido como,
yt = µ+ εt +θεt−1, εt ∼ RB(0,σ2). (4.1)
Num exemplo anterior encontramos que as autocovariancias e autocorrelações são,
γ(k) =

σ2(1 +θ2) si k = 0
θσ2 si k = 1
0 elsewhere,
(4.2)
ρ(k) =

1 si k = 0
θ/(1 +θ2) si k = 1
0 elsewhere,
(4.3)
O resultado (4.3) permite fazer a seguinte interpretação: no processo MA(1) a
memoria é de somente um perı́odo.
Exemplo 4.1 Uma maneira de simular observações do processo MA(1) é a seguinte:
simulamos n+ 1 observações de um ruido branco {εt} e depois obtemos os valores yt para
t = 1, . . . ,n de (4.1). Na Figura 4.1 são mostrados dois processos MA(1) simulados a
partir da mesma sequência de perturbações. O codigo R é,
25
Séries Temporais Mauricio Zevallos ©2013
> eps = rnorm(201)
> y = eps[2:201] + 0.8*eps[1:200]
> z = eps[2:201] - 0.8*eps[1:200]
> par(mfrow=c(2,1))
> ts.plot(y,main="theta = 0.8")
> ts.plot(z,main="theta = -0.8")
Quando θ = 0.8 temos correlação de ordem um positiva, de forma que valores grandes
(pequenos) conduzem a valores grandes (pequenos). Mas, se θ = −0.8 temos correlação
de ordem um negativa e, de forma que valores grandes (pequenos) conduzem a valores
pequenos (grandes). Isto é observado na Figura 4.1, na qual quando θ = −0.8 a série é
mais aleatória quando comparada com a série com θ = 0.8.
theta = 0.8
Time
y
0 50 100 150 200
-2
-1
0
1
2
3
theta = -0.8
Time
z
0 50 100 150 200
-2
0
2
4
Figura 4.1: Simulação de um processo MA(1) com esperança zero, σ2 = 1 e valores de
θ iguais a 0.8 e -0.8.
Exemplo 4.2 No processo MA(1) mostrar que θ determina de maneira única ρ(1) mas
não o contrario.
Definição 4.2 O processo de médias móveis de ordem q com esperança µ, denotado
como MA(q), é definido como,
yt = µ+ εt +θ1εt−1 + . . .+θqεt−q, εt ∼ RB(0,σ2). (4.4)
26
Séries Temporais Mauricio Zevallos ©2013
Proposição 4.1 O processo MA(q) é estacionário com autocovariancias
γ(k) =

σ2(1 +θ21 + . . .+θ
2
q ) si k = 0,
σ2
∑q−k
j=0 θjθj+k si k ≤ q
0 outro caso
(4.5)
Neste caso podemos interpretar que a memória é de q passos.
Exemplo 4.3 Seja um processo MA(2) com σ2 = 2, θ1 = 0.7, θ2 = −0.2. Então a FAC é
ρ(k) =

0.37 si k = 1
−0.13 si k = 2
0 si k = 3,4, . . .
(4.6)
Na Figura 2 é mostrada uma simulação deste processo.
Figura 4.2: Simulação de um processo MA(2) com esperança zero, σ2 = 1, θ1 = 0.7,
θ2 = −0.2
Com ajuda do operador de defasagem podemos escrever o processo MA(q) como
yt =
q∑
k=0
θkB
kεt , θ0 = 1, (4.7)
= (
q∑
k=0
θkB
k)εt . (4.8)
= θ(B)εt , (4.9)
onde θ(B) = 1 +θ1B+ . . .+θqBq recebe o nome de Polinomio de Média Móvel.1
1Em alguns livros define-se o polinomio com coeficientes com sinal negativo
27
Séries Temporais Mauricio Zevallos ©2013
4.2 Processos Autoregresivos
Os modelos autoregresivos, denotados por AR, são bastante utilizados na análise de
séries temporais. Um dos motivos é sua semelhança com os modelos de regressão.
Com efeito, se num modelo de regressão com variável resposta yt consideramos
variáveis explanatórias sendo defasagens desta, isto é, yt−1, yt−2, . . . então temos um
modelo autoregressivo. Formalmente temos a seguinte definição.
Definição 4.3 O processo {yt} é denominado autoregresivo de ordem p, denotado
como AR(p), se
a) {yt} é estacionário.
b) {yt} satisfaz
yt = φ1yt−1 +φ2yt−2 + . . .+φpyt−p + εt , (4.10)
φ(B)yt = εt (4.11)
onde φ(B) = 1−φ1B− . . .−φpBp é o Polinômio Autoregressivo e εt ∼ RB(0,σ2).
Assim, o processo AR(p) supõe que seja estacionário, formalmente que exista uma
solução estacionária em (4.10). Podemos demonstrar que isto acontece (e a solução
é única) se e somente se as raı́zes do polinomio autoregressivo
φ(z) = 1−φz −φ2z2 − . . .−φpzp
não estão no circulo unitário. Isto é se as raı́zes da equação φ(z) = 0 satisfazem
|z| , 1.
Adicionalmente, estamos interessados em processos que sejam Causais, isto é,
processos que possam ser escritos como
Yt =
∞∑
j=0
ψjεt−j ,
∞∑
j=0
|ψj | <∞ (4.12)
De forma que a observação atual yt depende exclusivamente dos choques presente e
passados εt , εt−1, εt−2, . . . mas não dos choques futuros e portanto para K > 0
Cov(Yt , εt+k) = Cov
 ∞∑
j=0
ψjεt−j , εt+k
 (4.13)
=
∞∑
j=0
ψjCov(εt−j , εt+k) (4.14)
=
∞∑
j=0
ψjγε(k + j) (4.15)
28
Séries Temporais Mauricio Zevallos ©2013
= 0, (4.16)
pois {εt} é ruido branco.
Pode-se demonstrar que um processo AR(p) é causal se e somente se as raı́zes da
equação φ(z) = 0 satisfazem |z| > 1.
A seguir discutiremos em detalhe os processos AR(1) e AR(2).
4.2.1 AR(1)
O processo AR(1)
yt = φyt−1 + εt (4.17)
tem solução estacionária se e somente se
1−φz = 0 ⇐⇒ |z| = 1/ |φ| , 1 ⇐⇒ |φ| , 1,
e o processo é causal se |φ| < 1. Neste caso, como demonstrado no capitulo anterior
Yt =
∑∞
j=0φ
jεt−j . Intuitivamente vemos isto assim
Yt= φt−1 + εt = φ(φyt−2 + εt−1) + εt = φ
2yt−2 +φεt−1 + εt (4.18)
= φk+1Yt−k−1 +
k∑
i=0
φiεt−i (4.19)
como |φ| < 1 então o primeiro termo vai para zero2 quando k→∞ e então obtemos
Yt =
∑∞
j=0φ
jεt−j .
Exemplo 4.4 Seja o processo AR(1) com φ = 0.7. Então,
Yt = εt + 0.7εt−1 + 0.49εt−2 + 0.343εt−3 + 0.2401εt−4 + . . . (4.20)
e assim, o impacto dos choques εt−k no valor de Yt decresce a taxa exponencial na medida
que k aumenta.
Como demonstrado no capitulo anterior, o processo AR(1) causal tem esperança
zero, variância γ(0) = σ2/(1−φ2) e função de autocovariância γ(k) = φkγ(0). Uma
forma alternativa de encontrar a função de autocovariância é utilisando repetida-
mente a estrategia de multiplicar adequadamente em (4.17) e aplicar esperança.
Assim, seja |φ| < 1
• Se o processo é estacionário com esperança µ então em (4.17) obtemos E(Yt) =
φE(Yt−1) + E(εt) e então µ = φµ. De forma que µ = 0 e em consequência
γ(k) = E(YtYt−k).
2Se tratando de variáveis aleatórias, há como definir isto formalmente
29
Séries Temporais Mauricio Zevallos ©2013
• Yt× (4.17). Então E(Y 2t ) = φE(YtYt−1) +E(Ytεt), isto é γ(0) = φγ(1) +E(Ytεt).
Mas, de εt× (4.17) e tomando esperança, E(εtYt) = φE(εtYt−1)+E(ε2). Sendo o
processo causal então E(εtYt−1) = 0 e assim E(Ytεt) = σ2. Consequentemente,
γ(0) = φγ(1) + σ2 (4.21)
• Yt−1× (4.17) e tomando esperança,
γ(1) = φγ(0) (4.22)
• De (4.21) e (4.23), {φ,σ2} são determinados unicamente a partir de {γ(0),γ(1)}
e viceversa. Em particular,
γ(0) =
σ2
1−φ2
(4.23)
• Para k ≥ 2, de Yt−1× (4.17) e tomando esperança,
γ(k) = φγ(k − 1). (4.24)
Esta é uma equação em diferenças de ordem um cuja solução é obtida por
substituição repetida considerando a condição inicial γ(0). Com efeito, γ(2) =
φγ(1) = φ2γ(0), γ(3) = φγ(2) = φ3γ(0), etc. De forma que,
γ(k) = φkγ(0), k ≥ 1, (4.25)
e portanto ρ(k) = φk .
Exemplo 4.5 Na Figura 4.3 são mostradas duas séries simuladas de processos AR(1).
Em (a) consideramos φ = 0.7 e em (c) consideramos φ = −0.7. Comentar acerca do
comportamento das séries e das FAC amostrais.
Definição 4.4 Dizemos que {Yt} é um processo AR(1) com esperança µ se o processo
{Yt −µ} é um processo AR(1).
Definição 4.5 Dizemos que {Yt} é um processo AR(1) com drift se,
Yt = δ+φYt−1 + εt (4.26)
onde δ é uma constante e |φ| < 1.
O modelo (4.26) é estacionário e causal com esperança
µ =
δ
1−φ
(4.27)
30
Séries Temporais Mauricio Zevallos ©2013
(a) phi = 0.7
Time
x
0 50 100 150 200
-3
-2
-1
0
1
2
3
0 5 10 15 20
-0
.2
0.
0
0.
2
0.
4
0.
6
0.
8
1.
0
Lag
A
C
F
(b) FAC de (a)
(c) phi = -0.7
Time
y
0 50 100 150 200
-3
-2
-1
0
1
2
3
0 5 10 15 20
-0
.5
0.
0
0.
5
1.
0
Lag
A
C
F
(d) FAC de (c)
Figura 4.3: Simulação de processos AR(1) com σ2 = 1 e φ = 0.7 em (a) e φ = −0.7
em (c). Adicionalmente em (b) e (d) são mostradas as respectivas FAC
amostrais.
e a mesma estrutura de autocovariância que o modelo AR(1). Note que,
Yt = δ
k−1∑
i=0
φi +
k∑
i=0
φiεt−i (4.28)
então quando k→∞,
Yt =
δ
1−φ
+
∞∑
i=0
φiεt−i , (4.29)
de forma que E(Yt) = µ = δ/(1 −φ) e portanto {Yt} é AR(1) com esperança (4.27).
Outra forma de encontrar a esperança é tomando valor esperado em (4.26). Se o
processo é estacionário então de E(Yt) = δ+φE(Yt−1) +E(εt) obtemos µ = δ+φµ e
de aqui µ igual a (4.27).
4.2.2 AR(2)
Seja o processo AR(2)
Yt = φ1Yt1 +φ2Yt−2 + εt (4.30)
31
Séries Temporais Mauricio Zevallos ©2013
Exemplo 4.6 Considere o processo
Yt = 0.75Yt1 − 0.125Yt−2 + εt (4.31)
Então φ(z) = 1 − 0.75z + 0.125z2. Logo φ(z) = 0 ⇐⇒ z2 − 6z + 8 = 0 de forma que
as raı́zes são z1 = 4 e z2 = 2. Como estas raı́zes satisfazem |z| > 1 então o processo é
estacionário e causal.
4.3 Processos ARMA
Box and Jenkins propuseram uma forma parcimoniosa de expressar um processo
estacionário causal Yt = ψ(B)εt definindo ψ(B) como o quociente de dois poli-
nomios.
Definição 4.6 {Yt} é um processo ARMA(p,q) se {Yt} é estacionario e se para cada t
φ(B)Yt = θ(B)εt (4.32)
onde os polinomios autoregressivo e de média movel, φ(B) e θ(B), não possuem fatores
comuns.
O processo {Yt} é um processo ARMA(p,q) com média µ se {Yt−µ} é um processo ARMA.
Observação 4.1 Fatores comuns nos polinomios significa raizes comuns. Por exemplo
se φ(B) = θ(B) = 1− 0.7B
Vemos que para que um processo seja ARMA, este precissa ter uma solução esta-
cionária. O seguinte resultado fornece as condições para isso.
Proposição 4.2 Existência e Unicidade
A equação (4.32) possui uma solução estacionária (que é unica) se e somente se as raizes
de φ(z) = 0, digamos α, satisfazem |α| , 1
Exemplo 4.7 O processo Yt = 0.6Yt−1−0.08Yt−2 +εt−0.2εt−1 é na verdade um processo
AR(1) Yt = 0.4Yt−1 + εt que é estacionário.
Estamos interessados em processos ARMA(p,q) causais, de forma que tenham
expansão MA(∞). As condições são as seguintes:
Proposição 4.3 Causalidade
O processo ARMA(p,q) é ćausal se as raizes de φ(z) = 0, digamos α, estão fora do circulo
unitário, i.e |α| > 1
32
Séries Temporais Mauricio Zevallos ©2013
Por outro lado, é importante, por exemplo em termos de previsão, que o processo
ARMA possa ser escrito na forma AR(∞),
εt = π0Yt +π1Yt−1 +π2Yt−2 +π3Yt−3 + . . . , (4.33)
= π(B)Yt , (4.34)
onde
π(B) = π0 +π1B+π2B
2 +π3B
3 + . . . ,
∑
|πj | <∞ (4.35)
Neste caso o processo é chamado inversı́vel.
Proposição 4.4 Inversibilidade
O processo ARMA(p,q) é inversivel se as raizes de θ(z) = 0, digamos α, estaõ fora do
circulo unitário, i.e |α| > 1
Seja o processo ARMA φ(B)Yt = θ(B)εt. Se o processo é causal podemos encontrar
os coeficientes ψj da representação MA(∞) através da igualdade de polinomios
θ(B)
φ(B)
= ψ(B) ⇐⇒ θ(B) = φ(B)ψ(B). (4.36)
Se o processo é inversı́vel, para encontrar os coeficientes πj da representação AR(∞)
trabalhamos com
φ(B)
θ(B)
= π(B) ⇐⇒ φ(B) = θ(B)π(B). (4.37)
Note que os processos MA(q) sempre são causais e os processo AR(p) sempre são
inversı́veis.
Exemplo 4.8 Seja o processo ARMA(1,1)
Yt = 10 + 0.8Yt−1 + εt − 0.5εt−1 (4.38)
Exemplo 4.9 O processo yt = εt − 0.5εt−1 pode ser escrito como
εt =
∞∑
k=0
0.5kyt−k (4.39)
isto é podemos aproximar este MA(1) pelo processo
Yt ' 0.5Yt−1 + 0.25Yt−2 + 0.125Yt−3 + 0.0625Yt−4 + εt (4.40)
Portanto, confrontados MA(1) com AR(4), pelo principio da parsimonia escolhemos
MA(1), mas em termos de explicação para o usuario preferimos AR(4).
33
Séries Temporais Mauricio Zevallos ©2013
4.4 Estrutura de Dependência nos processos ARMA
Para calcular as autocovariancias e a FAC nos processos ARMA podemos utilisar os
seguintes procedimentos
(a) Escrever o processo na forma MA(∞) Yt =
∑∞
j=0ψjεt−j e usar o Teorema 3.1,
ou
(b) Utilisar o método descrito anteriormente de (i) multiplicar convenientemente
e (ii) calcular a esperança.
No seguinte exemplo é ilustrada a opcção (b).
Exemplo 4.10 Exemplo 4.8 (cont). FAC
Teorema 4.1 FAC do ARMA. No processo ARMA(p,q) temos o seguinte comporta-
mento em termos da FAC e FACP.
AR(p) MA(q) ARMA(p,q)
FAC decaimento zero depois da decaimento
exponencial defasagem q exponencial
FACP zero depois da decaimento decaimento
defasagem p exponencial exponencial
4.5 Notas
Proposição 4.5 Equação em Diferenças de 2do grau
Sejam a e b constantes. As soluções da equação em diferenças de 2do grau,
τ(k) = aτ(k − 1) + bτ(k − 2), k ≥ l
dependem da natureza das raizes de bz2 + az−1 = 0. Sejam m1 e m2 estas raizes. Então,
• Se as raizes são reais e diferentes
τ(k) = c1
(
1
m1
)k
+ c2
(
1
m2
)k
• Se as raizes são reais e iguais, m1 =m2 =m
τ(k) = (c1 + c2k)
( 1
m
)k
34
Séries Temporais Mauricio Zevallos ©2013
• Se as raizes são complexas, α − iβ, α + iβ
τ(k) = c1
(1
r
)k
cos(θk + c2)
r =
√
α2 + β2
θ = arcCos
(α
r
)
= arcSen
(β
r
)
onde as constantes são determinadas a partir das condições inicias τ(l − 1), τ(l − 2)
35
Capı́tulo 5
Modelagem ARMA
Na Construção do Modelo ARMA os passos são os seguintes: Análise Exploratória,Especificação, Estimação, Diagnóstico e Seleção de Modelo.
5.1 Análise Exploratória
Fazer o gráfico da série, utilizar uma transformação para estabilizar a variância e
avaliar se os dados apresentam dependência.
5.2 Identificação
A través da FAC e FACP, determinar os valores de p e q. Usualmente são preferidos
valores de p,q = 0,1,2,3,4.
5.3 Estimação
Método de máxima verossimilhança. Avaliar se as estimativas são estatı́sticamente
significativas. Checar causalidade e invertibilidade. Cuidado com as raizes comuns.
Avaliar se há overfitting
5.4 Diagnóstico
A ferramenta básica é a Análise de Resı́duos. Seja et o t-ésimo resı́duo e seja e∗t
o t-ésimo resı́duo padronizado. A ideia é que os residuos {et} devem imitar às
perturbações {εt}. O principal aspecto a ser avaliado é a ausencia de correlação nos
resı́duos. Para isto podemos utilizar a FAC e o teste de Box-Ljung,
Q(m) = n(n+ 2)
m∑
i=1
ρ̂2e (i)
n− i
. (5.1)
36
Séries Temporais Mauricio Zevallos ©2013
Sob a hipótese nula de ausência de correlação,Q(m) ∼ χ2m−k onde k = p+q =numero
de parametros φi e θj . Caso houver estrutura de correlação, postular outro modelo.
Outros aspectos que precissam ser avaliados são: homocedasticidade dos residuos,
normalidade (quando for assumido distribuição Gaussiana) e examinar se há
valores atı́picos (outliers1).
5.5 Seleção de Modelo
Se tivermos varios modelos satisfatórios, podemos escolher um deles utilizando os
criterios de informação:
Akaike : AIC = ln(σ̂2) + (n+ 2k)/n (5.2)
: AICc = ln(σ̂2) + (n+ k)/(n+ k − 2) (5.3)
Schwarz : BIC = ln(σ̂2) + ln(n)k/n (5.4)
onde σ̂2 é o estimador deverossimilhança de σ2 e k é o número de parametros.2
Preferimos aquele modelo com menor valor dos criterios. No entanto, tem se
mostrado que o criterio de Akaike tende a escolher o modelo de maior ordem.
5.6 Aplicações
Exemplo 5.1 Série W7 de Wei: yearly number of lynx pelts sold by the Hudson’s Bay
Company in Canada between 1857 and 1911.
É estimado um modelo ARMA(2,1) com media no logaritmo da série. O resultado é
(1− 1,53B+ 0,91B2)(ln(yt)− 9,81) = (1− 0,60B)εt
A saida do programa Gretl é a seguinte3.
Modelo 1: ARMA, usando as observacoes 1857–1911 (T = 55)
Variável dependente: l v1
Erros padrão baseados na Hessiana
Coeficiente Erro Padrão z p-valor
const 9,81495 0,0484385 202,6271 0,0000
φ1 1,52577 0,0553305 27,5756 0,0000
φ2 −0,913413 0,0482659 −18,9246 0,0000
θ1 −0,605412 0,107868 −5,6125 0,0000
1Isto pode ser feito utilizando testes de outliers ou de maneira informal identificando os residuos
padronizados com valores maiores (em modulo) a 3 ou 4
2No R, usando o commando sarima, k = p+ q+ 1 quando a média é estimada.
3Escolher opcao por defeito, isto é ML incluindo constante
37
Séries Temporais Mauricio Zevallos ©2013
Média var. dependente 9,803051 D.P. var. dependente 0,881952
Média de inovacoes 0,005865 D.P. das inovacoes 0,336084
Log da verossimilhança −19,71207 Criterio de Akaike 49,42414
Critério de Schwarz 59,46081 Hannan–Quinn 53,30540
Na Figura 5.1 é mostrado o ajuste.
 8
 8,5
 9
 9,5
 10
 10,5
 11
 11,5
 1860 1870 1880 1890 1900 1910
l_
v
1
Ajuste serie ln(W7)
ajustado
efetivo
Figura 5.1: Ajuste W7
Exemplo 5.2 Foi ajustado um modelo ARMA(2,1) na serie temporal serie1-rc. O
resultado do ajuste é o seguinte,
Coeficiente Erro Padrão z p-valor
const 0,0242693 0,0664434 0,3653 0,7149
φ1 0,987388 0,172959 5,7088 0,0000
φ2 −0,109131 0,0612202 −1,7826 0,0747
θ1 −0,834819 0,164471 −5,0758 0,0000
Média var. dependente 0,023617 D.P. var. dependente 0,992319
Média de inovações −0,000805 D.P. das inovações 0,977897
Log da verossimilhança −558,6512 Critério de Akaike 1127,302
Critério de Schwarz 1147,260 Hannan–Quinn 1135,206
38
Séries Temporais Mauricio Zevallos ©2013
Real Imaginária Módulo Frequência
AR
Raiz 1 1,1620 0,0000 1,1620 0,0000
Raiz 2 7,8858 0,0000 7,8858 0,0000
MA
Raiz 1 1,1979 0,0000 1,1979 0,0000
Temos raizes muito proximas: 1,1620 e 1,1979; portanto, o modelo poderia ser simplifi-
cado. Fazer o ajuste do modelo AR(1) e compare os dois ajustes. Qual modelo escolheria?
Fazer a análise completa incluindo diagnóstico e comparando os criterios de informacao.
39
Capı́tulo 6
Modelos ARIMA e SARIMA
Os modelos ARMA estudados no capitulo anterior não são capazes de reproduzir
caracteristicas como tendência e sazonalidade. Para fazer isto é necessário extender
os modelos anteriores. Especı́ficamente estudaremos os modelos Sazonais Integra-
dos ARMA, SARIMA. Estos consideram tanto a tendência como a sazonalidade
como estocásticas.
Começamos tratando as séries com tendência.
6.1 Modelos ARMA Integrados
6.1.1 Tendencia Estocástica
Lembrando o passeio ao acaso. Este processo está definido como Yt = Yt−1 + εt para
t = 1,2, . . . e consideremos que Y0 = c. Assim,
Yt = c+ εt−1 + εt−2 + . . .+ ε1
e portanto E[Yt] = c e V ar[Yt] = (t − 1)σ2. Isto é, trata-se de um processo não
estacionário na variância. Na Figura X mostramos uma série simulada deste
processo com σ2 = 1. Observamos que a trajetória é difı́cil de antecipar.
Considere agora o processo
Yt = Yt−1 + (1 +θB)εt (6.1)
= Yt−1 +ωt , ωt ∼MA(1) (6.2)
Daqui, E(Yt) = E(Yt−1) e assumindo que Y0 = c, então o processo é estacionário
em média. Isto é, não há tendência genuina. No entanto, a perturbação ωt não
é ruido branco e se tiver bastante correlação então Yt tende a apresentar longos
periodos acima e longos periodos abaixo da média. Este fenómeno é conhecido
como tendência estocástica.
40
Séries Temporais Mauricio Zevallos ©2013
Note que podemos escrever os processos anteriores como, (1−B)Yt = εt e (1−B)Yt =
(1 + θB)εt. Definindo Xt = (1 − B)Yt temos que em ambos os casos os processos
{Xt} são estacionários. Em outras palavras, o operador (1−B) permite transformar
um processo não estacionário em um estacionário. No jargão de séries temporais
aplicar o operador (1−B) significa diferenciar a série. A seguir apresentamos uma
famı́lia de processos que incorpora estas idéias.
6.1.2 ARIMA
Definição 6.1 Seja d um inteiro não negativo, então {Yt} é um processo ARIMA(p,d,q)
se Xt = (1−B)dYt é um processo ARMA causal.
Da definição, {Yt} é ARIMA(p,d,q) se satisfaz a equação em diferenças,
φ(B)(1−B)dYt = θ(B)εt , εt ∼ RB(0,σ2) (6.3)
onde φ(B) e θ(B) são os polinomios autoregressivos (de grau p) e de média móvel
(de grau q), respectivamente. Para satisfazer a condição de causalidade, as raı́zes
de φ(z) = 0 estão fora do circulo unitário.
1. {Yt} é estacionário se e somente se d = 0
2. Seja c uma constante, já que (1 − B)(Yt − c) = Yt − Yt−1 = (1 − B)Yt então se
d ≥ 1 podemos introduzir uma constante em (6.4) e o processo Yt continua
satisfazendo a equação em diferenças. Exeto quando d = 0 a média do
processo {Yt} não é determinada pela equação (6.4).
3. d é conhecido como o grau de diferenciação e Xt = (1 − B)dYt = ∇dYt é o
processo diferenciado (na modelagem, se y1, . . . , yn são as observações então
xt = (1−B)dyt é a série diferenciada.
Exemplo 6.1 Considere os processos
• ARIMA(1,1,0): (1− 0.8B)(1−B)Yt = εt
• ARIMA(0,1,1): (1−B)Yt = (1− 0.75B)εt
• ARIMA(1,1,1): (1− 0.9B)(1−B)Yt = (1− 0.5B)εt
Foram simuladas tres trajetórias destes processos. Comentários
• As series apresentam tendência estocástica e as séries diferenciadas (com d = 1)
parecem estacionárias.
• As autocorrelações amostrais são grandes e decaem muito divagar.
41
Séries Temporais Mauricio Zevallos ©2013
• Na FACP amostral, a primeira autocorrelação parcial é muito grande e o resto
próximo de zero.
Note que a rigor a FAC e a FACP não estão definidas pois os processos são não-
estacionários. No entanto, na modelagem, as FAC e FACP amostrais são ferramen-
tas importantes para a identificação. Neste sentido se observarmos as caracterı́sticas
mencionadas, então modelos candidatos são os modelos ARIMA.
6.1.3 ModelagemARIMA
Seja y1, . . . , yn a série de interesse, a qual supomos foi gerada pelo processo
ARIMA(p,d,q),
φ(B)(1−B)dYt = δ+θ(B)εt , εt ∼ RB(0,σ2), (6.4)
onde δ é uma constante. Na modelagem podemos seguir o seguinte roteiro.
1. Examinar se a série é estacionária em termos de variância. Se não for, pode-
mos utilisar as transformações de Box-Cox.
2. Se a série não for estacionária em termos de média, diferenciar a série até
torna-la estacionária. Isto é, escolher o valor de d tal que xt = ∇dyt pareça
estacionária. Nas aplicações valores tı́picos são d = 1 ou d = 2. Devemos ter
cuidado com a sobre-diferenciação, isto é, escolher um valor de d maior do que
o necessário. Consequencias de fazer isto são aumentar a variabilidade da
série e ou mascarar a dependência na série diferenciada.
3. Com base nas observações x1, . . . ,xn−d (pois perdemos d observações por causa
da diferenciação) identificar um modelo ARMA. Isto é, determinar os valores
de p e q.
4. Uma vez determinada a ordem do modelo, estimar o modelo ARIMA(p,d,q) 1
e fazer o diagnóstico.
Modelo estacionário ou não estacionário? Na modelagem poderiamos ter como
candidatos um modelo ARMA e um modelo ARIMA. Qual escolher? Como sempre,
devemos considerar a natureza da série analisada. Por exemplo, se as observações
correspondem a medidas de um processo controlado teria mais sentido ajustar um
modelo estacionário. Outro elemento a considerar é quais as consequências em
termos de previsão. O comportamento a médio ou longo praço das previsões dos
modelos ARMA e ARIMA é muito diferente.
Exemplo 6.2 Série W5 de Wei: yearly cancer death rate (all forms, per 100000 popula-
tion) of Pennsylvania between 1930 and 2000.
1No Gretl, usar o método de estimação por defeito
42
Séries Temporais Mauricio Zevallos ©2013
Estimando ARIMA(0,1,0) com constante obtemos: δ̂ = 2,05429, ep(δ̂) = 0,333571 e
σ̂ = 2,790859
Exemplo 6.3 Série W6 de Wei: yearly US tobacco production from 1871 to 1984
Seja yt a série, estimamos ARIMA(0,1,1) com constante no ln(yt) e obtemos: δ̂ =
0,0142574, ep(δ̂) = 0,00482235, θ̂ = −0,688905, ep(θ̂) = 0,0686734 e σ̂ = 0,161523.
 5
 5,5
 6
 6,5
 7
 7,5
 8
 1880 1900 1920 1940 1960 1980
ln
(y
_t
)
Série W6: observado vs ajustado
ajustado
efetivo
Figura 6.1: Ajuste W6
6.2 Modelos SARIMA
Já sabemos como modelar séries com tendência estocástica. No entanto, muitas
séries exibem comportamentos sazonais. A seguir discutiremos como modificar o
processo ARIMA para que capture sazonalidade.
6.2.1 Modelos Sazonais Puros
Começamos discutindo o seguinte exemplo: interesa modelar a série de dados com-
posta pelas vendas trimestrais de sorvete. Usualmente observa-se que as maiores
vendas acontecem nos verões e as menores vendas nos invernos. Adicionalmente,
observa-se que as vendas nos verões estão correlacionadas e o mesmo acontece com
os invernos e nas outras estações. Isto é, observa-se um comportamento periódico
em tempos múltiplos de s = 4. Então seria conveniente ter um modelo que explique
a série nos tempos múltiplos de s.
43
Séries Temporais Mauricio Zevallos ©2013
Definição 6.2 Os modelos Sazonais Autoregressivos de Média movel puros,
SARMA(P ,Q)s estão definidos como
Φ(Bs)(yt −µ) =Θ(Bs)εt , (6.5)
Φ(Bs) = 1−Φ1Bs −Φ2B2s − . . .−ΦPBP s, (6.6)
Θ(Bs) = 1 +Θ1B
s +Θ2B
2s + . . .+ΘQB
Qs. (6.7)
Note que este processo é como um processo ARMA más com operadores definidos
em múltiplos de s. Asim, o processo SARMA é causal somente quando as raizes
do polinômio Φ(zs) estão fora do cı́rculo unitário e é inversı́vel somente quando as
raizes do polinômio Θ(zs) estão fora do cı́rculo unitário.
Exemplo 6.4 O modelo SARMA(1,0)12 está definido como
(1−Φ1B12)yt = εt , (6.8)
yt = Φ1yt−12 + εt . (6.9)
Supondo que as observações correspondem a vendas mensais, podemos interpretar que
as vendas deste mes dependem das vendas do mesmo mes no ano anterior. Note que este
modelo é causal se |Φ1| < 1 e é inversı́vel. Fazendo uma analogia com os procesos ARMA,
a FACov é
γ(k) =

σ2/(1−Φ21 ) si k = 0
σ2Φk1 /(1−Φ
2
1 ) se k = . . . ,−24,−12,12,24, . . .
0 o.c,
(6.10)
Observe que nas defasagens que não são múltiplos de 12 as autocovarianças são zero.
Por outro lado, o processo SARMA(0,1)4,
yt = (1 +Θ1B
4)εt = εt +Θ1εt−4, (6.11)
é inversı́vel se |Θ1| < 1 e é causal. A FACov é
γ(k) =

σ2(1 +Θ21) si k = 0
Θ1σ
2 se |k| = 4
0 o.c,
(6.12)
A FAC dos processos SARMA(P ,Q)s apresenta o mesmo comportamento qualitativo
que os procesos ARMA nos tempos múltiplos de s.
Exemplo 6.5 Encontrar as condições de causalidade e inversivilidade do processo
SARMA(1,1)12 definido como
(1−Φ1B12)yt = (1 +Θ1B12)εt , (6.13)
yt = Φ1yt−12 + εt +Θ1εt−12 (6.14)
44
Séries Temporais Mauricio Zevallos ©2013
e calcule a FAC.
Suponhamos agora que a empresa que vende sorvetes tem conseguido sucesso
nas vendas e cada ano vende mais. Isto é, não só as vendas de cada trimestre
estão correlacionadas; também as vendas nos verões apresentam tendência. Isto
significa que temos não-estacionaridade sazonal. Para incorporar esta caracteristica
no modelo SARMA anterior, trabalhamos de maneira análoga ao realizado com os
modelos ARIMA.
Definição 6.3 O operador de diferença sazonal, D está definido como
∇Ds yt = (1−Bs)Dyt , (6.15)
onde D asume valores inteiros: 1,2, . . .
Definição 6.4 O modelo SARIMA(P ,D,Q)s está definido como
Φ(Bs)(1−Bs)D(yt −µ) =Θ(Bs)εt (6.16)
Note que este processo é como ARIMA em periodos s.
Exemplo 6.6 O modelo SARIMA(0,1,1)4 está definido como
(1−B4)yt = (1 +Θ1B4)εt , (6.17)
yt − yt−4 = εt +Θ1εt−4, (6.18)
yt = yt−4 + εt +Θ1εt−4. (6.19)
Note que yt − yt−4 é SARMA causal.
6.2.2 Modelos Sazonais Mistos
Estudemos agora vendas mensais de sorvetes. É lógico pensar que as vendas
de Janeiro não só dependem das vendas nos Janeiros passados más também das
vendas de Dezembro, Novembro, etc. Portanto temos que incorporar no modelo
as correlações mes a mes (periodo 1) e ano a ano (periodo s = 12). Una maneira
de fazer isto é combinar os modelos ARIMA con los modelos SARIMA puros
de forma multiplicativa. Definimos asim os Modelos Multiplicativos Sazonais
Autoregressivos Integrados de Médias Movel, SARIMA(p,d,q)(P ,D,Q)s.
Definição 6.5 Os modelos SARIMA(p,d,q)(P ,D,Q)s estão definidos como
Φ(Bs)φ(B)(1−Bs)D(1−B)d(yt −µ) =Θ(Bs)θ(B)εt , (6.20)
onde
Φ(Bs) = 1−Φ1Bs −Φ2B2s − . . .−ΦPBP s, (6.21)
45
Séries Temporais Mauricio Zevallos ©2013
Θ(Bs) = 1 +Θ1B
s +Θ2B
2s + . . .+ΘQB
Qs, (6.22)
φ(B) = 1−φ1B−φ2B2 − . . .−φpBp, (6.23)
θ(B) = 1 +θ1B+θ2B
2 + . . .+θqB
q. (6.24)
A análise da dependência nestes modelos realiza-se combinando a informação
da parte sazonal pura e a parte regular (de ARIMA). Vejamos isto nos seguintes
exemplos.
Exemplo 6.7 Seja o processo SARIMA(0,0,1)(0,0,1)4,
yt = (1− 0.5B)(1− 0.8B4)εt (6.25)
= εt − 0.5εt−1 − 0.8εt−4 + 0.4εt−5 (6.26)
Asim, o presente está relacionado com um tempo atrás e quatro tempos atrás. Más, da
combinação destas tem que estar relacionada com tres e cinco tempos atrás. Com efeito,
a parte regular MA(1) tem autocorrelação diferente de zero só na primeira defasagem. A
parte sazonal pura só tem correlação diferente de zero na defasagem 4. Então o processo
misto tem autocorrelações diferentes de zero nas defasagens (obviando negativos) 1,3,4 e
5.
[Gráficos]
Exemplo 6.8 Seja o proceso SARIMA(0,0,1)(1,0,0)12,
(1− 0.6B12)yt = (1− 0.7B)εt (6.27)
yt = 0.6yt−12 + εt − 0.7εt−1 (6.28)
Aqui temos uma parte sazonal pura e uma parte regular decrescentes como no AR(1). As
autocorrelaçõs do AR(1) existem para todos os múltiplos de 12, más aquelas da parte reg-
ular só existem para a primeira defasagem, então o processo misto terı́a autocorrelações
diferentes de zero nas defasagens 1,11,12,13,23,24,25,35,36,37, . . ..
[Gráficos]
Estes resultados podem ser comprovados calculando a FAC teórica utilizando as
ferramentas expostaspara os modelos ARMA.
46
Séries Temporais Mauricio Zevallos ©2013
Existe uma equivalênçia entre os processos SARIMA não integrados, SARMA
e os processos ARMA. Com efeito, podemos demonstrar que o processo
SARMA(p,q)(P ,Q)s é un processo ARMA(p+ sP ,q+ sQ)s com restrições. Vejamos o
seguinte exemplo.
Exemplo 6.9 Seja o processo SARMA(1,0)(1,0)4,
(1−φB)(1−ΦB4)yt = εt . (6.29)
Este processo pode ser escrito como
(1−φB−ΦB4 +φΦB5)yt = εt , (6.30)
isto é, como um processo ARMA(5,0) com as seguintes restrições: φ1 = φ, φ2 = φ3 = 0,
φ4 = Φ , φ5 = φΦ .
Então surge a pergunta, porque não utilisar modelos ARMA no lugar dos
SARMA? A respuesta é: por parsimonia e interpretabilidade. Os modelos SARMA
oferecem melhor interpretação e os modelos ARMA equivalentes poderiam ter de-
masiadas restrições. Isto último é um inconveniente do ponto de vista de estimação,
devido a que teriamos que fazer maximização com restrições para encontrar os
estimadores de máxima verossimilhança.
Exemplo 6.10 Modelo AIRLINE. Nas aplicaçõs, um modelo SARIMA bastante util-
isado é o SARIMA(0,1,1)(0,1,1)12, chamado de AIRLINE devido a sua aplicação inicial
em dados de passageiros de avião. O modelo é
(1−B12)(1−B)yt = (1 +ΘB)(1 +θB)εt , (6.31)
então,
yt = yt−1 + yt−12 − yt−13 + εt +θεt−1 +Θεt−12 +θΘεt−13. (6.32)
6.3 Construção do Modelo SARIMA
As etapas na construção do modelo SARIMA são as seguintes: Fazer o gráfico da
série, transformar os dados (por exemplo quando a série não é estacionária na variância),
Identificação, Estimação, Diagnóstico, Previsão, Comparação de modelos.
No estágio de identificação primeiro observamos se a série apresenta tendência e
ou sazonalidade. Isto pode ser feito com base no gráfico da série e dos gráficos da
FAC e FACP. Assim determinamos o valor do periodo sazonal (s). Depois, utilisando
a FAC e FACP, na análise de la parte estacional, se observarmos que o decaimento
das autocorrelações nas defasagens múltiplos de s é muito divagar, então pode
ser conveniente diferenciar sazonalmente. Na parte regular, se observarmos que
as autocorrelações decaem muito divagar então pode ser conveniente diferenciar.
47
Séries Temporais Mauricio Zevallos ©2013
Outra evidência de que é necessário diferenciar é se existe tendência na série. Na
prática são escolhidos valores de d,D iguais a 0,1 ou 2. A série obtida logo de
diferenciar as partes sazonal e regular,
xt = (1−B)d(1−Bs)D , (6.33)
tem que lucir estacionária. Lembre que tem que ter cuidado com a
sobrediferenciação. Com base na série xt, auxiliados pela FAC e FACP, determi-
namos os valores de p,P ,q,Q. A determinação destes valores pode ser complicada,
de forma que na prática temos que agir por ensaio e erro.
Uma vez determinada a ordem do modelo, a estimação é feita usualmente por
máxima verosimilhança. A etapa de diagnóstico é realizada de acordo com o
discutido para modelos ARMA. Nesta etapa, lembre que o mais importante é
conseguir resı́duos que não apresentem dependência. Caso contrário, temos que
formular outro modelo.
Com respeito à comparação de modelos, são utilisados os critérios AIC, BIC, assim
como os indicadores relativos a previsão como MAPE, MAE, etc.
Exemplo 6.11 Série mensal ”Federal Reserve Board Production Index”no peri-
odo 1948-1978, analisada em Shumway and Stoffer. Ajustamos um modelo
SARIMA(2,1,0)(0,1,3)12.
Modelo 1: ARIMA, usando as observações 1949:02-1978:12 (T = 359)
Variável dependente: (1−L)(1−Ls)v1
Erros padrão baseados na Hessiana
Coeficiente Erro Padrao z p-valor
const 0,0173252 0,0410887 0,4217 0,6733
φ1 0,303382 0,0526578 5,7614 0,0000
φ2 0,107197 0,0537410 1,9947 0,0461
Θ1 −0,739737 0,0538819 −13,7289 0,0000
Θ2 −0,143955 0,0653029 −2,2044 0,0275
Θ3 0,281323 0,0526522 5,3430 0,0000
Media var. dependente 0,029805 D.P. var. dependente 1,589325
Media de inovacoes 0,009010 D.P. das inovacoes 1,145208
Log da verossimilhanca −563,8958 Criterio de Akaike 1141,792
Criterio de Schwarz 1168,975 Hannan–Quinn 1152,601
48
Séries Temporais Mauricio Zevallos ©2013
Real Imaginaria Modulo Frequencia
AR
Raiz 1 1,9511 0,0000 1,9511 0,0000
Raiz 2 −4,7812 0,0000 4,7812 0,5000
MA (sazonal)
Raiz 1 1,1981 0,6714 1,3734 0,0813
Raiz 2 1,1981 −0,6714 1,3734 −0,0813
Raiz 3 −1,8845 0,0000 1,8845 0,5000
 20
 40
 60
 80
 100
 120
 140
 160
 1950 1955 1960 1965 1970 1975
v
1
v1 efetivo e ajustado
ajustado
efetivo
Figura 6.2: Ajuste ”Federal Reserve Board Production Index”
49
Capı́tulo 7
Previsão
7.1 Introdução
• Seja {Yt} um processo estocástico. O problema de previsao é determinar um
valor para YT+k dada a informação FT , a qual pode ser definida como
(a) Passado Finito: FT = {Y1, . . . ,YT }
(b) Passado Infinito: FT = {YT ,YT−1, . . .}
Esta previsão é denotada por YT (k) onde k é o horizonte de previsão.
• Na prática temos que lidar com a situacao (a), no entanto podemos aproveitar
a teoria desenvolvida sob (b) para resolver o problema (a). Em ocasiões os
resultados obtidos sob (b) constituem boas aproximacões para (a).
• Para obter a previsão YT (k) é desejável que o erro de previsão
eT (k) = YT+k −YT (k), (7.1)
seja o menor possı́vel em algum sentido. Se tratando de variáveis aleatórias,
o criterio mais utilizado neste problema é procurar a previsão que forneça o
menor Erro Quadrático Médio.
7.2 Previsão em Processos Autoregressivos
7.3 Previsão em Processos de Media Movel e ARMA
7.4 Previsão com amostra infinita em processos esta-
cionários
• Seja {Yt} um processo estacionário com E(Yt) = 0 e função de autocovariancia
conhecida γ(·).
50
Séries Temporais Mauricio Zevallos ©2013
• Para calcular o Erro Quadratico Medio de Previsão (EQMP) supomos que o
processo Tt é causal
YT+k =
∞∑
j=0
ψjεT+k−j , ψ0 = 1 (7.2)
• Aplicando o operador E(·|YT ,YT−1, . . .) o qual minimiza o EQMP encontramos
YT (k) =
∞∑
j=k
ψjεT+k−j . (7.3)
• Logo o erro de previsão é
eT (k) = YT+k −YT (k) =
k−1∑
j=0
ψjεT+k−j (7.4)
• O EQMP
v(k) = V ar[eT (k)] = σ
2
k−1∑
j=0
ψ2j (7.5)
• Supondo que o processo é Gaussiano, Intervalos de Confiança para Previsão
YT+k são da forma,
ỸT (k) +−zα/2
√
v(k). (7.6)
Quando o processo não é normal podemos usar desigualdades tipo Tchebi-
shev ou Bonferroni.
7.5 Previsão em Processos ARIMA e SARIMA
7.6 Comportamento a longo prazo
Seja {Yt} um processo estacionário com E(Yt) = µ. Então a previsão está dada por
YT (k) = µ+
∑∞
j=kψjεT+k−j . Quando k→∞ os coeficientes ψj decaem exponencial-
mente a zero e é possivel demonstrar que YT (k)→ µ, onde esta convergencia é no
sentido de erro quadrático médio. De forma que, nos processos estacionários, a
previsão converge para a média do processo.
Adicionalmente, quando k→∞
v(k) = V ar[eT (k)] = σ
2
k−1∑
j=0
ψ2j → σ
2
∞∑
j=0
ψ2j = γY (0) = V ar(Y ). (7.7)
51
Séries Temporais Mauricio Zevallos ©2013
Como v(k) ≤ V ar(Y ) então a incerteza da previsão aumenta na medida que aumenta
o horizonte de previsão mas converge a um valor igual à variabilidade da série.
Já quando o processo é não-estacionário, a incerteza das previsoes não converge, e
de fato aumenta na medida que aumenta o horizonte de previsão.
7.7 Criterios para comparar modelos em termos de pre-
visões
Sejam YT (1), . . . ,YT (m) as previsoes calculadas. Uma forma de avaliar a qualidade
do modelo ajustado em termos de previsão é comparar essas previsões com os
valores observados YT+1, . . . ,YT+m. Para isto, quatro criterios são
(a) Mean Percentage Error,
MPE = 100
1
m
m∑
k=1
eT (k)
YT+k
(7.8)
(b) Mean Square Error,
MPE =
1
m
m∑
k=1
e2T (k) (7.9)
(c) Mean Absolute Error,
MPE =
1
m
m∑
k=1
|eT (k)| (7.10)
(d) Mean Absolute Percentage Error,
MPE = 100
1
m
m∑
k=1
∣∣∣∣∣eT (k)YT+k
∣∣∣∣∣ (7.11)
52
	1 Introdução
	1.1 Séries Temporais
	1.2 Características Empíricas
	2 Modelos Simples de Tendência e Sazonalidade
	2.1 Introdução
	2.2 Modelos de Regressão
	2.3 Transformações

Continue navegando