Baixe o app para aproveitar ainda mais
Prévia do material em texto
APST 1 – 2012 - Prof.: Henrique Hippert Bacharelado em Estatística – 2012.1 Disciplina: Análise e Previsão de Séries Temporais I Professor: Henrique S. Hippert Aula 10 – Introdução aos modelos ARIMA: autocorrelação 1. Introdução Nos capítulos anteriores, vimos métodos de previsão que usavam alguma forma de média móvel, ou de média amortecida. Estes métodos se baseavam em modelos simples que consideravam o valor observado a cada instante como a soma de uma média determinística (ou nível) com um erro aleatório. tttZ εµ += (1) A média podia ser dada por uma simples constante (µt = a) ou por uma função do tempo, linear (µt= µ0 +δt), ou quadrática, etc. O erro aleatório εt, por simplicidade, era representado por uma sequência de variáveis aleatórias independentes e identicamente distribuídas. Em consequência da independência dos erros, é fácil ver que os valores observados Zt também serão variáveis aleatórias independentes e identicamente distribuídas. A suposição de que os valores de uma série observada sejam independentes, contudo, não é muito útil na prática. Na maioria das séries reais, os valores consecutivos tendem a ser dependentes entre si; isto é, o valor de Zt tende a ser dependente do valor de Zt -1. Tomemos por exemplo uma série de temperaturas horárias em uma cidade: se numa dada hora a temperatura é alta, é bastante provável que ela continue alta na hora seguinte; se ela é baixa, é muito provável que continue baixa. Além disso, as temperaturas também são bastante dependentes das temperaturas do dia anterior, isto é, de 24 horas atrás – a temperatura às 10 horas de um dia, deve estar relacionada com a temperatura às 9 h daquele dia, mas também com a temperatura às 10 horas do dia anterior. Esta dependência entre os valores da série em instantes sucessivos será chamada de dependência serial e, é claro, deverá ser levada em conta quando fizermos previsões. Esta dependência será medida por uma forma do coeficiente de correlação linear de Pearson. Quando adaptado para medir a dependência entre valores consecutivos de uma mesma série, ele é chamada de coeficiente de autocorrelação, e será a ferramenta mais importante para a modelagem de séries neste capítulo. Se conhecemos a estrutura de autocorrelação de uma série – i.e., como o valor presente se correlaciona com os valores passados – poderemos criar um modelo que reproduza esta estrutura, e usá-lo para fazer previsões. Os modelos ARIMA fazem exatamente isto – reproduzem a correlação existente numa série dada, e procuram imitar a forma como numa série os dados mais recentes se relacionam com os mais antigos. 2. Correlação e autocorrelação 2.1. Coeficiente de correlação linear de Pearson (revisão) Um dos problemas mais importantes em Estatística é o de investigar se duas variáveis estão relacionadas, e como esta relação pode ser quantificada ou modelada. Uma ferramenta útil é o “diagrama de dispersão” (scatterplot), um gráfico onde cada variável é representada APST 1 – 2012 - Prof.: Henrique Hippert em um eixo do plano cartesiano. Por exemplo, se tomarmos uma amostra de homens adultos, medirmos suas alturas e pesos, e representarmos estes pares de valores num gráfico (onde cada ponto representa os dados de um homem), veremos que os pontos se espalharão numa área do gráfico, formando o que chamamos uma nuvem de pontos. A forma da nuvem irá mostrar se há relação estatística entre as variáveis. As figuras abaixo mostram os tipos de nuvens que podem ser vistas nestes gráficos. A Fig. 1 mostra duas variáveis que não têm praticamente nenhuma relação estatística entre si. A Fig. 2 mostra variáveis que estão perfeitamente relacionadas, de forma não-linear; a relação é tão perfeita que é possível escrever um modelo determinístico para esta relação (na verdade, este gráfico ilustra a lei de Boyle, na Física, que relaciona o volume ocupado por um gás e sua pressão). A Fig. 3 mostra variáveis que estão relacionadas de modo não-linear, mas a relação não é tão forte quanto a da Fig. 2. Por fim, a Fig. 4 mostra duas variáveis com forte relação probabilística linear. 12 14 16 18 20 22 24 26 28 -600 -400 -200 0 200 400 600 temperatura (C) de sv io s de ca rg a (M W ) dias de semana fins de semana Figura 1 0 10 20 30 40 50 60 70 80 90 10 15 20 25 30 35 40 45 50 altura A al tu ra B Figura 2 Figura 3 Figura 4 Se duas variáveis X e Y têm uma relação probabilística linear (como na Fig.4), a intensidade desta relação pode ser medida pela covariância (representada por cov ou por γ) definida como o valor esperado do produto dos desvios de cada variável em relação à suas médias: )])([(),cov( YX YXEYX µµγ −−== (2) Dada uma amostra, podemos obter uma estimativa do valor desta medida por meio da média dos produtos dos desvios observados nas duas variáveis: APST 1 – 2012 - Prof.: Henrique Hippert [ ]∑ = −− − = n i ii YyXx n 1 ))(( 1 1γˆ (3) Pode ser interessante padronizar este valor, substituindo os desvios observados por desvios padronizados (isto é, divididos pelos desvios padrões das variáveis); isto leva ao coeficiente de correlação de Pearson, representado por ρ: − × − = Y Y X X YXE σ µ σ µρ )()( (4) O valor de ρ estará dentro do intervalo: -1 < ρ < 1 Comparando (2) e (4), vemos que o coeficiente de correlação ρ estará relacionado ao de covariância γ por meio da expressão: YXσσ γρ = (5) A estimativa amostral da correlação, normalmente representada por r, é calculada por ∑ = −− − == n i Y i X i s Yy s Xx n r 1 )()( 1 1ρˆ (6) A correlação é positiva quando valores grandes de X (grandes desvios positivos em relação à média) estão normalmente associados a valores grandes de Y; é negativa quando valores grandes de X estão associados a valores pequenos de Y. A Fig. 5 mostra diversos diagramas de dispersão, com distribuições cujos valores –0,9 < r < a 0,9. Note que valores entre – 0,5 < r < 0,5 indicam correlação muito pequena, ou quase nula; correlações realmente importantes acontecem quando |r| > 0,7. Figura 5. Exemplo de pares de variáveis com diferentes valores de ρ APST 1 – 2012 - Prof.: Henrique Hippert É importante lembrar que o coeficiente de Pearson mede apenas a correlação linear. Para as variáveis do gráfico da Fig. 3, por exemplo, o coeficiente provavelmente será quase nulo; as variáveis são obviamente dependentes, mas a dependência é não-linear. Para as variáveis no gráfico da Fig. 4, por outro lado, a correlação é forte (r = 0,77). Note que o conceito de covariância é uma extensão do conceito de variância utilizado na Estatística univariada.A variância é definida como o valor esperado do quadrado dos desvios dos valores de uma variável em relação à sua média: )])([(])[()var( 22 µµµσ −−=−== XXEXEX Na covariância, o quadrado dos desvios são substituídos pelos produtos cruzados dos desvios das duas variáveis: )])([(),cov( YX YXEYX µµ −−= 2.2. Autocovariância e autocorrelação Para avaliar a dependência linear entre valores de uma mesma série temporal, criamos os conceitos de autocovariância e de autocorrelação. Ao invés de termos duas variáveis, X e Y, teremos os valores de uma mesma variável Z, observados em instantes distintos no tempo, Zt e Zt-k. Substituindo na expressão da covariância acima, vemos que a autocovariância para um defasamento de k instantes, representada por γk, será dada por: )])([( ktt ZktZtk ZZE −−−= − µµγ(7) Se a série é estacionária, Zt e Zt-k terão a mesma média µ, e a expressão se simplifica: )])([( µµγ −−= −kttk ZZE (8) O estimador amostral da covariância será: ∑ += − −−= n ki kttk ZzZz n 1 ))((1γˆ (9) Este estimador de γ(k) é tendencioso, porque existem apenas n-k pares (Zt, Zt-k); o estimador não-tendencioso seria obtido pela divisão do somatório por n-k. Iremos contudo usar a forma (9), por simplicidade. Se a série for grande (n>>k), isto não fará muita diferença. É claro que, fazendo k=0, obtermos a variância do processo: 2 0 ),cov( Ztt ZZ σγ == Padronizando o coeficiente de autocovariância, obtemos o coeficiente de autocorrelação ρ: − × − = − Z kt Z t k ZZE σ µ σ µρ k=0,1,... (10) Portanto, 2 Z k k σ γρ = (11) APST 1 – 2012 - Prof.: Henrique Hippert e, em particular, 12 0 0 == Zσ γρ O estimador amostral da autocorrelação para um defasamento k é dado por: ∑ ∑ = += − − −−− = N t t N kt ktt k nZz knZzZz 1 2 1 /)( )/())(( ρˆ (12) O fator n/(n-k) será próximo de 1 para séries suficientemente longas (n→∞). Se usamos a forma simplificada da autocovariância (9), eliminamos o fator e obtemos então a forma simplificada: ∑ ∑ = += − − −− = N t t N kt ktt k Zz ZzZz 1 2 1 )( ))(( ρˆ (13) Este coeficiente ρk será uma função do defasamento k entre as duas variáveis Zt e Zt-k, chamada de função de autocorrelação (FAC). Esta função, e outra relacionada que veremos a seguir, a função de autocorrelação parcial (FACP), serão as duas ferramentas mais importantes para a modelagem com modelos probabilísticos segundo a metodologia desenvolvida por Box e Jenkins em seu livro clássico publicado em 1970. O objetivo é encontrar um modelo que seja capaz de reproduzir a estrutura de autocorrelação observada na série de interesse (i.e., o comportamento das funções FAC e FACP). Na metodologia de Box e Jenkins, que será detalhada nos capítulos seguintes, iremos primeiro derivar as FACs e FACPs dos modelos mais usados na prática, montando um repertório de modelos possíveis. O problema de escolha do modelo a ser adotado será então transformado num problema de reconhecimento visual de padrões: dada uma série real, o pesquisador irá estimar suas FAC e FACP empíricas e, a seguir, compará-las com as funções teóricas disponíveis no seu repertório de modelos; irá então adotar, pelo menos para os estudos iniciais, aquele modelo cujas funções teóricas mais se aproximem das funções empíricas encontradas na série.
Compartilhar