Buscar

Aula_10__autocorrelacao__ho

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 5 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

APST 1 – 2012 - Prof.: Henrique Hippert 
 
Bacharelado em Estatística – 2012.1 
Disciplina: Análise e Previsão de Séries Temporais I 
Professor: Henrique S. Hippert 
 
Aula 10 – Introdução aos modelos ARIMA: autocorrelação 
 
 
1. Introdução 
 
Nos capítulos anteriores, vimos métodos de previsão que usavam alguma forma de 
média móvel, ou de média amortecida. Estes métodos se baseavam em modelos simples que 
consideravam o valor observado a cada instante como a soma de uma média determinística 
(ou nível) com um erro aleatório. 
tttZ εµ += (1) 
 
A média podia ser dada por uma simples constante (µt = a) ou por uma função do tempo, 
linear (µt= µ0 +δt), ou quadrática, etc. 
O erro aleatório εt, por simplicidade, era representado por uma sequência de variáveis 
aleatórias independentes e identicamente distribuídas. Em consequência da independência dos 
erros, é fácil ver que os valores observados Zt também serão variáveis aleatórias 
independentes e identicamente distribuídas. 
A suposição de que os valores de uma série observada sejam independentes, contudo, 
não é muito útil na prática. Na maioria das séries reais, os valores consecutivos tendem a ser 
dependentes entre si; isto é, o valor de Zt tende a ser dependente do valor de Zt -1. Tomemos 
por exemplo uma série de temperaturas horárias em uma cidade: se numa dada hora a 
temperatura é alta, é bastante provável que ela continue alta na hora seguinte; se ela é baixa, é 
muito provável que continue baixa. Além disso, as temperaturas também são bastante 
dependentes das temperaturas do dia anterior, isto é, de 24 horas atrás – a temperatura às 10 
horas de um dia, deve estar relacionada com a temperatura às 9 h daquele dia, mas também 
com a temperatura às 10 horas do dia anterior. Esta dependência entre os valores da série em 
instantes sucessivos será chamada de dependência serial e, é claro, deverá ser levada em 
conta quando fizermos previsões. 
Esta dependência será medida por uma forma do coeficiente de correlação linear de 
Pearson. Quando adaptado para medir a dependência entre valores consecutivos de uma 
mesma série, ele é chamada de coeficiente de autocorrelação, e será a ferramenta mais 
importante para a modelagem de séries neste capítulo. Se conhecemos a estrutura de 
autocorrelação de uma série – i.e., como o valor presente se correlaciona com os valores 
passados – poderemos criar um modelo que reproduza esta estrutura, e usá-lo para fazer 
previsões. Os modelos ARIMA fazem exatamente isto – reproduzem a correlação existente 
numa série dada, e procuram imitar a forma como numa série os dados mais recentes se 
relacionam com os mais antigos. 
 
 
2. Correlação e autocorrelação 
 
2.1. Coeficiente de correlação linear de Pearson (revisão) 
 
Um dos problemas mais importantes em Estatística é o de investigar se duas variáveis 
estão relacionadas, e como esta relação pode ser quantificada ou modelada. Uma ferramenta 
útil é o “diagrama de dispersão” (scatterplot), um gráfico onde cada variável é representada 
APST 1 – 2012 - Prof.: Henrique Hippert 
 
em um eixo do plano cartesiano. Por exemplo, se tomarmos uma amostra de homens adultos, 
medirmos suas alturas e pesos, e representarmos estes pares de valores num gráfico (onde 
cada ponto representa os dados de um homem), veremos que os pontos se espalharão numa 
área do gráfico, formando o que chamamos uma nuvem de pontos. 
 A forma da nuvem irá mostrar se há relação estatística entre as variáveis. As figuras 
abaixo mostram os tipos de nuvens que podem ser vistas nestes gráficos. A Fig. 1 mostra duas 
variáveis que não têm praticamente nenhuma relação estatística entre si. A Fig. 2 mostra 
variáveis que estão perfeitamente relacionadas, de forma não-linear; a relação é tão perfeita 
que é possível escrever um modelo determinístico para esta relação (na verdade, este gráfico 
ilustra a lei de Boyle, na Física, que relaciona o volume ocupado por um gás e sua pressão). A 
Fig. 3 mostra variáveis que estão relacionadas de modo não-linear, mas a relação não é tão 
forte quanto a da Fig. 2. Por fim, a Fig. 4 mostra duas variáveis com forte relação 
probabilística linear. 
 
12 14 16 18 20 22 24 26 28
-600
-400
-200
0
200
400
600
temperatura (C)
de
sv
io
s 
de
 
ca
rg
a 
(M
W
)
dias de semana
fins de semana
 
Figura 1 
0 10 20 30 40 50 60 70 80 90
10
15
20
25
30
35
40
45
50
altura A
al
tu
ra
 
B
 
 
Figura 2 
 
 
 
Figura 3 
 
Figura 4 
 
Se duas variáveis X e Y têm uma relação probabilística linear (como na Fig.4), a 
intensidade desta relação pode ser medida pela covariância (representada por cov ou por γ) 
definida como o valor esperado do produto dos desvios de cada variável em relação à suas 
médias: 
)])([(),cov( YX YXEYX µµγ −−== (2) 
 
Dada uma amostra, podemos obter uma estimativa do valor desta medida por meio da média 
dos produtos dos desvios observados nas duas variáveis: 
APST 1 – 2012 - Prof.: Henrique Hippert 
 
[ ]∑
=
−−
−
=
n
i
ii YyXx
n 1
))((
1
1γˆ (3) 
 
Pode ser interessante padronizar este valor, substituindo os desvios observados por desvios 
padronizados (isto é, divididos pelos desvios padrões das variáveis); isto leva ao coeficiente 
de correlação de Pearson, representado por ρ: 





 −
×
−
=
Y
Y
X
X YXE
σ
µ
σ
µρ )()( (4) 
 
O valor de ρ estará dentro do intervalo: 
-1 < ρ < 1 
 
Comparando (2) e (4), vemos que o coeficiente de correlação ρ estará relacionado ao de 
covariância γ por meio da expressão: 
YXσσ
γρ = (5) 
 
A estimativa amostral da correlação, normalmente representada por r, é calculada por 
∑
=





 −−
−
==
n
i Y
i
X
i
s
Yy
s
Xx
n
r
1
)()(
1
1ρˆ (6) 
 
A correlação é positiva quando valores grandes de X (grandes desvios positivos em relação à 
média) estão normalmente associados a valores grandes de Y; é negativa quando valores 
grandes de X estão associados a valores pequenos de Y. 
 A Fig. 5 mostra diversos diagramas de dispersão, com distribuições cujos valores 
–0,9 < r < a 0,9. Note que valores entre – 0,5 < r < 0,5 indicam correlação muito pequena, ou 
quase nula; correlações realmente importantes acontecem quando |r| > 0,7. 
 
 
Figura 5. Exemplo de pares de variáveis com diferentes valores de ρ 
APST 1 – 2012 - Prof.: Henrique Hippert 
 
É importante lembrar que o coeficiente de Pearson mede apenas a correlação linear. 
Para as variáveis do gráfico da Fig. 3, por exemplo, o coeficiente provavelmente será quase 
nulo; as variáveis são obviamente dependentes, mas a dependência é não-linear. Para as 
variáveis no gráfico da Fig. 4, por outro lado, a correlação é forte (r = 0,77). 
 
Note que o conceito de covariância é uma extensão do conceito de variância utilizado 
na Estatística univariada.A variância é definida como o valor esperado do quadrado dos 
desvios dos valores de uma variável em relação à sua média: 
)])([(])[()var( 22 µµµσ −−=−== XXEXEX 
 
Na covariância, o quadrado dos desvios são substituídos pelos produtos cruzados dos desvios 
das duas variáveis: 
)])([(),cov( YX YXEYX µµ −−= 
 
 
2.2. Autocovariância e autocorrelação 
 
Para avaliar a dependência linear entre valores de uma mesma série temporal, criamos 
os conceitos de autocovariância e de autocorrelação. Ao invés de termos duas variáveis, X e 
Y, teremos os valores de uma mesma variável Z, observados em instantes distintos no tempo, 
Zt e Zt-k. Substituindo na expressão da covariância acima, vemos que a autocovariância para 
um defasamento de k instantes, representada por γk, será dada por: 
)])([(
ktt ZktZtk ZZE −−−= − µµγ(7) 
 
Se a série é estacionária, Zt e Zt-k terão a mesma média µ, e a expressão se simplifica: 
)])([( µµγ −−=
−kttk ZZE (8) 
 
O estimador amostral da covariância será: 
∑
+=
−
−−=
n
ki
kttk ZzZz
n 1
))((1γˆ (9) 
 
Este estimador de γ(k) é tendencioso, porque existem apenas n-k pares (Zt, Zt-k); o estimador 
não-tendencioso seria obtido pela divisão do somatório por n-k. Iremos contudo usar a forma 
(9), por simplicidade. Se a série for grande (n>>k), isto não fará muita diferença. É claro que, 
fazendo k=0, obtermos a variância do processo: 
2
0 ),cov( Ztt ZZ σγ == 
 
Padronizando o coeficiente de autocovariância, obtemos o coeficiente de 
autocorrelação ρ: 












−
×





−
=
−
Z
kt
Z
t
k
ZZE
σ
µ
σ
µρ k=0,1,... (10) 
 
Portanto, 
2
Z
k
k σ
γρ = (11) 
 
 
APST 1 – 2012 - Prof.: Henrique Hippert 
 
e, em particular, 
12
0
0 ==
Zσ
γρ 
 
O estimador amostral da autocorrelação para um defasamento k é dado por: 
∑
∑
=
+=
−
−
−−−
= N
t
t
N
kt
ktt
k
nZz
knZzZz
1
2
1
/)(
)/())((
ρˆ (12) 
 
O fator n/(n-k) será próximo de 1 para séries suficientemente longas (n→∞). Se usamos a 
forma simplificada da autocovariância (9), eliminamos o fator e obtemos então a forma 
simplificada: 
∑
∑
=
+=
−
−
−−
= N
t
t
N
kt
ktt
k
Zz
ZzZz
1
2
1
)(
))((
ρˆ (13) 
 
Este coeficiente ρk será uma função do defasamento k entre as duas variáveis Zt e Zt-k, 
chamada de função de autocorrelação (FAC). Esta função, e outra relacionada que veremos a 
seguir, a função de autocorrelação parcial (FACP), serão as duas ferramentas mais 
importantes para a modelagem com modelos probabilísticos segundo a metodologia 
desenvolvida por Box e Jenkins em seu livro clássico publicado em 1970. 
O objetivo é encontrar um modelo que seja capaz de reproduzir a estrutura de 
autocorrelação observada na série de interesse (i.e., o comportamento das funções FAC e 
FACP). Na metodologia de Box e Jenkins, que será detalhada nos capítulos seguintes, iremos 
primeiro derivar as FACs e FACPs dos modelos mais usados na prática, montando um 
repertório de modelos possíveis. O problema de escolha do modelo a ser adotado será então 
transformado num problema de reconhecimento visual de padrões: dada uma série real, o 
pesquisador irá estimar suas FAC e FACP empíricas e, a seguir, compará-las com as funções 
teóricas disponíveis no seu repertório de modelos; irá então adotar, pelo menos para os 
estudos iniciais, aquele modelo cujas funções teóricas mais se aproximem das funções 
empíricas encontradas na série.

Outros materiais