Baixe o app para aproveitar ainda mais
Prévia do material em texto
Fundamentos de Processos Estocásticos Guilherme de Alencar Barreto gbarreto@ufc.br Grupo de Aprendizado de Máquinas – GRAMA Programa de Pós-Graduação em Engenharia de Teleinformática Universidade Federal do Ceará – UFC www.researchgate.net/profile/Guilherme_Barreto2/ c© G. A. Barreto Fundamentos de Processos Estocásticos “O processamento de sinais mudou! Não estamos mais na era na qual a informação na forma de sinais elétricos é processada por meio de tradicionais dispositivos analógicos. Nós estamos solida e, para o futuro previsível, irrevogavelmente, no âmago do processamento de sinais digitais (amostrados ou discretos no tempo) aleatórios." Charles W. Therrien, 1992 Discrete Random Signals and Statistical Signal Processing c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Conteúdo da Apresentação 1 Definição de Processos Estocásticos 2 Funções de Autocovariância e de Covariância Cruzada 3 Funções de Autocorrelação e de Correlação Cruzada 4 Estacionariedade Forte/Fraca e Ergodicidade 5 Função Densidade Espectral de Potência 6 Periodograma e a Transformada Discreta de Fourier 7 Gráfico de Dispersão (lagplot) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Pré-Requisitos 1 Variáveis Aleatórias (Univariada/Multivariada) 2 Álgebra Linear e Cálculo Integral/Diferencial 3 Sinais e Sistemas (ou Processamento Digital de Sinais) 4 Noções de Matlab/Octave/Scilab c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Referências Importantes 1 Charles W. Therrien (1992). Discrete Random Signals and Statistical Signal Processing, Prentice Hall. 2 A. Hyvärinen, J. Karhunen & E. Oja (2001). Independent Component Analysis, John Wiley & Sons. 3 R. G. Brown & P. Y. C. Hwang (1996). Introduction to Random Signals and Applied Kalman Filtering, John Wiley & Sons. 4 P. A. Morettin & C. M. C. Toloi (2004). Análise de Séries Temporais, editora Edgar Blücher LTDA. 5 Notas de Aula - Prof. Guilherme A. Barreto c© G. A. Barreto Fundamentos de Processos Estocásticos Parte I Fundamentos de Processos Estocásticos c© G. A. Barreto Fundamentos de Processos Estocásticos Análise Matemática de Sinais Probabilísticos Conceito de Processo Estocástico Grosso modo, Processo Estocástico é uma generalização do conceito de variável aleatória, em que uma segunda componente (em geral, a variável tempo) é utilizada na caracterização de um evento ou experimento probabilístico. c© G. A. Barreto Fundamentos de Processos Estocásticos Análise Matemática de Sinais Probabilísticos Nomenclatura Matemática Definição Um processo estocástico no espaço paramétrico T é uma família {X(w, t); t ∈ T,w ∈ Ω} de variáveis aleatórias definidas no mesmo espaço amostral Ω. Se T é um intervalo de números reais, o processo é dito contínuo. Se T é uma seqüência de números inteiros, o processo é dito discreto. Para simplificar a notação, em geral, omite-se a dependência em ω escrevendo apenas X(ω, t) ≡ X(t). (1) c© G. A. Barreto Fundamentos de Processos Estocásticos Análise Matemática de Sinais Probabilísticos Caso 1 - Se t = ti é fixo e ω varia, tem-se que X(ω, ti) ≡ X(ti) é uma variável aleatória. Caso 2 - Se t varia e ω = ωj é fixo, tem-se que X(ωj , t) é uma realização do processo estocástico, também chamado de sinal aleatório. c© G. A. Barreto Fundamentos de Processos Estocásticos Análise Matemática de Sinais Probabilísticos Exemplos de realizações de processos estocásticos: → Ondas de tensão/corrente em circuitos elétricos reais. → Sinais de voz, EEG, ECG e outros biossinais. → Demanda de energia elétrica. → Em geral, qualquer grandeza física que pode ser medida no tempo e que está sujeita à incertezas provocadas pelo processo de medição ou por influências externas e/ou internas indeterminadas. c© G. A. Barreto Fundamentos de Processos Estocásticos Análise Matemática de Sinais Probabilísticos c© G. A. Barreto Fundamentos de Processos Estocásticos Análise Matemática de Sinais Probabilísticos Figura : Um processo estocástico interpretado como uma família de variáveis aleatórias. c© G. A. Barreto Fundamentos de Processos Estocásticos Análise Matemática de Sinais Probabilísticos Figura : Um processo estocástico interpretado como uma família de trajetórias. c© G. A. Barreto Fundamentos de Processos Estocásticos Análise Matemática de Sinais Probabilísticos Descrição Probabilística: Um processo estocástico {X(w, t); t ∈ T,w ∈ Ω} está completamente caracterizado quando, para uma dada realização de tempo discreto deste processo, denotada por {X(ti)}ni=1, é possível especificar todas as funções densidade conjuntas até a de ordem n: Ordem 1 → fX1(x1), fX2(x2), ..., fXn(xn) Ordem 2 → fX1X2(x1, x2), fX1X3(x1, x3), ..., fXnXn−1(xn, xn−1) ... ... Ordem n → fX1X2...Xn(x1, x2, ..., xn) em que foi adotada a seguinte notação xi = x(ti). c© G. A. Barreto Fundamentos de Processos Estocásticos Análise Matemática de Sinais Probabilísticos Observações 1 Densidades conjuntas de ordem superior são, em tese, úteis na caracterização de determinado processo estocástico. 2 Na prática é praticamente impossível e improdutivo escrever todas estas densidades conjuntas!!! 3 Único caso viável na prática ocorre quando o processo estocástico é gaussiano. Neste caso, todas as densidades conjuntas para qualquer combinação de variáveis aleatórias são gaussianas!! c© G. A. Barreto Fundamentos de Processos Estocásticos Análise Matemática de Sinais Probabilísticos Independência Caso 1 - Para uma dada realização {X(t)} de um processo estocástico de interesse, as variáveis aleatórias X(ti) = Xi, i = 1, 2, . . . , n, são ditas independentes, para n = 2, 3, . . ., se e somente se fX1···Xn(x1, . . . , xn) = fX1(x1) · · · fXn(xn), (2) = n ∏ i=1 fXi(xi). (3) Neste caso, X(t) é chamado de processo estocástico independente. c© G. A. Barreto Fundamentos de Processos Estocásticos Caso 2 - Dois processos estocásticos quaisquer, {X(t)} e {Y (t)} são independentes se a densidade conjunta de qualquer combinação das variáveis aleatórias dos 2 processos pode ser escrita como produto das densidades conjuntas individuais: fX1X2...Y1Y2... = fX1X2...fY1Y2... (4) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Média de um Processo Estocástico Definição Seja fXi(xi) a PDF da variável aleatória X(ti). Então, a média do processo X(t) no instante ti é definida como mX(ti) = E[X(ti)] = ∫ ∞ −∞ x(ti)fX(ti)(x(ti))dx(ti) (5) = ∫ ∞ −∞ xifXi(xi)dxi em que xi ≡ x(ti). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Média de um Processo Estocástico Observações sobre a Média de um Processo Estocástico A média de um sinal estocástico é função de ti. Portanto, ela pode ter valor diferente para diferentes valores de ti. Na Eq. (5) o sinal é contínuo, logo para resolver a integral devemos conhecer todos os infinitos possíveis valores que X(t) pode assumir em t = ti. De acordo com a Eq. (5), para saber o valor médio da amplitude do sinal no instante ti necessitamos de infinitas realizações do sinal estocástico X(t). Como a média definida na Eq. (5) é tomada ao longo das infinitas realizações do processo para um instante fixo t = ti, ela recebe é comumente chamada de média de conjunto (do inglês ensemble mean). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Média de um Processo Estocástico A figura abaixo mostra várias realizações um sinal aleatório de tempo discreto. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação Definição A Função de Autocorrelação (FAC) de X(t) para dois instantes de tempo t1 e t2, t1, t2 ∈ R e t2 > t1, é definida como: RX(t1, t2) = E[X(t1)X(t2)] = ∫ ∞ −∞ ∫ ∞ −∞ x1x2fX1X2(x1, x2)dx1dx2 (6) em que x1 = x(t1), x2 = x(t2) e fX1X2(x1, x2) é a FDPconjunta de X1 = X(t1) e X2 = X(t2). A FAC avalia o quanto a amplitude do sinal em certo instante de tempo t1 está estatisticamente associada à amplitude do sinal em outro instante de tempo t2. Note que a FAC fornece valores na faixa (−∞,+∞). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação A figura abaixo mostra várias realizações um sinal aleatório. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação Importante 1 Valores positivos indicam que quando a amplitude no instante t1 tende a crescer, a amplitude no instante t2 tende a crescer também. Valores negativos indicam que quando a amplitude no instante t1 tende a crescer, a amplitude no instante t2 tende a decrescer. Valores próximos de zero indicam que tanto faz se a amplitude no instante t1 tende a crescer (ou descrescer), pois não se verifica nenhuma tendência de crescimento (ou decrescimento) da amplitude no instante t2. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação Importante 2 Valores elevados da FAC para dois instantes quaisquer t1 e t2 indicam a presença de componentes de baixa freqüência no sinal. ⋆ Quando o sinal é predominantemente de baixa freqüência as amplitudes consecutivas X(t1) e X(t2) possuem valores muito parecidos. Valores baixos da FAC para dois instantes quaisquer t1 e t2 indicam a presença de componentes de alta freqüência no sinal. ⋆ Quando o sinal é predominantemente de alta freqüência as amplitudes consecutivas X(t1) e X(t2) possuem valores bem diferentes. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação A figura abaixo mostra um sinal aleatório com um conteúdo harmônico considerado de baixa freqüência. 0 10 20 30 40 50 60 70 80 90 100 −1.5 −1 −0.5 0 0.5 1 1.5 tempo A m p lit u d e d o S in a l t 1 t 2 X(t 2 ) X(t 1 ) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação A figura abaixo mostra um sinal aleatório com um conteúdo harmônico de maior freqüência que a do sinal do slide anterior. 0 10 20 30 40 50 60 70 80 90 100 −1.5 −1 −0.5 0 0.5 1 1.5 tempo A m p lit u d e d o S in a l t 1 t 2 X(t 1 ) X(t 2 ) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação A amplitude do sinal mostrado na segunda figura varia bastante entre instantes consecutivos t1 e t2, t2 > t1, enquanto a amplitude do sinal da primeira figura varia menos. Logo, o produto X(t1) ·X(t2) para a segunda figura é menor do que o produto para a primeira figura, para os mesmos valores t1 e t2. Quanto mais distintos forem os valores consecutivos das amplitudes X(t1) e X(t2), menor será a correlação entre eles. Quanto mais parecidos forem os valores consecutivos das amplitudes X(t1) e X(t2), maior será a correlação entre eles. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação Comentário Importante A interpretação da FAC em termos do conteúdo harmônico de um sinal será muito útil mais adiante quando formos definir o conceito de função densidade espectral de potência. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocovariância Uma vez definida a FAC de um sinal estocástico, prosseguimos com a definição de Função de Autocovariância (FACV). Definição Seja fX1X2(x1, x2) a PDF conjunta do sinal X(t) nos instantes t1 e t2. Então a Função de Autocovariância (FACV) de X(t) nestes dois instantes de tempo é definida como: CX(t1, t2) = E[(x(t1)−mX(t1))(x(t2)−mX(t2))] (7) em que mX(ti) = E[X(ti)] é a média do sinal no instante ti, i = 1, 2. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocovariância Após alguma manipulação algébrica, chegamos a uma expressão bastante útil que relaciona a FAC com a FACV: CX(t1, t2) = RX(t1, t2)−mX(t1)mX(t2) (8) ⋆ Para obter a FACV basta calcular a FAC e subtrair o produto das médias correspondentes. Para sinais de médias nulas tem-se obviamente que CX(t1, t2) = RX(t1, t2) (9) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocovariância Uma definição importante que derivada da definição de FACV é a de variância de um processo estocástico. Definição Seja fXi(xi) a PDF do sinal X(t) no instante ti. Então a Variância (FACV) de X(t) neste instante é definida como: σ2X(ti) = E[(x(ti)−mX(ti)) 2], = ∫ ∞ −∞ (xi −mX(ti)) 2 fXi(xi)dxi (10) em que mX(ti) = E[X(ti)] é a média do sinal no instante ti. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Valor quadrático médio Por sua vez, da definição de variância deriva-se o conceito de Valor Quadrático Médio de um processo estocástico. Definição Considere que o sinal X(t) tem média nula. Então, o valor quadrático médio de X(t) é definido como: E[x2(ti)] = RX(ti, ti), = ∫ ∞ −∞ x2i fXi(xi)dxi (11) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função Coeficiente de Autocorrelação É comum em Processamento de Sinais Estocásticos, usar uma versão normalizada da FACV, denominada Função Coeficiente de Autocorrelação (FCAC). Definição Seja CX(t1, t2), σX(t1) e σX(t1), respectivamente, a FACV e as variâncias do sinal X(t) para os instantes t1 e t2. Então, a FCAC de X(t) é dada por ρX(t1, t2) = CX(t1, t2) σX(t1)σX(t2) , (12) tal que −1 ≤ ρX(t1, t2) ≤ 1. Na literatura, o termo FAC (Função de Autocorrelação) é usado para designar tanto a FAC quanto a FCAC. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade Um conceito importante em processamento de sinais aleatórios é a Estacionariedade. Este conceito está associado com a invariância (ou constância) das propriedades estatísticas de um processo estocástico. Considere a seguinte realização de um processo estocástico: {X(t1),X(t2), ...,X(tk)} Considere agora uma nova realização obtida τ instantes de tempo depois, ou seja: {X(t1 + τ),X(t2 + τ), ...,X(tk + τ)} c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-1) Definição Um processo estocástico é fortemente estacionário ou estacionário no sentido estrito se, e somente se, todas as FDPs de ordem k ≥ 1 forem invariantes sob uma translação do tempo τ ∈ R. Assim, um processo estocástico é fortemente estacionário se, para todo k e para todo τ : fX1(x1) ≡ fX1+τ (x1+τ ) fX1X2(x1, x2) ≡ fX1+τX2+τ (x1+τ , x2+τ ) ... ... ... fX1X2...Xk(x1, x2, ..., xk) ≡ fX1+τX2+τ ...Xk+τ (x1+τ , x2+τ , ..., xk+τ ) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-2) Observações Importantes - 1 A condição de estacionariedade forte é um requisito bastante severo, pois exige que todas as FDPs associadas sejam invariantes no tempo. Esta condição é bastante difícil de ser verificada ou testada na prática. Uma definição “menos” exigente de estacionariedade é freqüentemente usada (ou assumida). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-3) Observações Importantes - 2 Quando a condição acima só é válida para 1 ≤ r ≤ k, diz-se que o processo estocástico X(t) é estacionário de ordem r. Um caso importante e de bastante interesse prático diz respeito a um processo estocástico estacionário de ordem r = 2. Este processo estacionário é chamado fracamente estacionário ou estacionário no sentido amplo. c© G. A. BarretoFundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-4) Observações Importantes - 2 Para um processo fracamente estacionário as seguintes condições são válidas: Condição 1 - A média do processo mX(ti) é constante. Condição 2 - A variância do processo σ2X(ti) é constante. Condição 3 - A FAC do processo RX(t1, t2) = RX(τ), em que τ = t2 − t1 (t1 < t2). As condições acima são mais fáceis de se verificar na prática, permitindo classificar um sinal estocástico em estacionário ou não-estacionário. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-5) Mostre que a Condição 1 de estacionariedade fraca é verdadeira. Seja X(t) um processo estocástico contínuo. Se o processo é estacionário, então podemos escrever que: fXt(xt) = fXt+τ (xt+τ ), ∀τ ∈ R Assim, a média de X(t+ τ) é dada por: mX(t+ τ) = E[X(t + τ)] = ∫ ∞ −∞ xt+τfXt+τ (xt+τ )dxt+τ = ∫ ∞ −∞ xt+τfXt(xt)dxt+τ = E[X(t)] = mX(t). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-6) Mostre que a Condição 3 de estacionariedade fraca é verdadeira. Seja X(t) um processo estocástico contínuo. Assim, a FAC de X(t) é dada por: E[X(t1)X(t2)] = RX(t1, t2) = RX(t1 + τ, t2 + τ) = RX(t1 − t2, 0) ≡ RX(τ), ∀τ ∈ R (13) em que assumimos que fX1X2(x1, x2) = fX1+τX2+τ (x1+τ , x2+τ ) Note que a FAC depende apenas da diferença entre t1 e t2. Por isso, em vez de escrever RX(t1 − t2, 0), costumamos abreviar a notação e escrever RX(t1 − t2, 0) = RX(τ). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-7) A figura abaixo mostra um sinal aleatório estacionário (pelo menos para o período de observação do mesmo!). 0 100 200 300 400 500 600 700 800 900 1000 −1.5 −1 −0.5 0 0.5 1 1.5 tempo A m p li tu d e d o S in a l c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-8) A figura anterior mostra uma realização do seguinte processo estocástico, simulado no Matlab/Octave: X(t) = sin(ωt) + ε(t) (14) em que ε(t) é uma variável aleatória gaussiana de média zero e variância σ2ε=0,1, ω = 2π/T é a freqüência angular constante e T = 50 unidades de tempo é o período da senóide. O sinal gerado obedece todas as três condições de estacionariedade fraca. O tipo de sinal estocástico mostrado na Eq. (14) simula um fenômeno comumente encontrado na prática: um sinal determinístico contaminado com ruído branco. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-9) A parte senoidal do sinal corresponderia a uma onda de tensão/corrente gerada por determinado equipamento elétrico, enquanto a variável aleatória ε(t) corresponderia ao ruído que interfere na medição desta onda de tensão/corrente. Na prática, mede-se apenas o sinal ruidoso X(t). Muitas vezes o nível de ruído é tão elevado que não temos certeza absoluta que o sinal medido possui uma componente senoidal. Mais adiante estudaremos uma técnica baseada na FAC para detectar sinais períodicos imersos em ruído. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-10) A figura abaixo mostra um sinal aleatório não-estacionário na média (por quê?). 0 100 200 300 400 500 600 700 800 900 1000 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 3 3.5 tempo A m p li tu d e d o S in a l c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-11) A figura abaixo mostra um sinal aleatório não-estacionário na variância (por quê?). 0 100 200 300 400 500 600 700 800 900 1000 −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 tempo A m p li tu d e d o S in a l c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-12) A figura abaixo mostra um sinal aleatório não-estacionário na FAC (por quê?). 0 100 200 300 400 500 600 700 800 900 1000 −1.5 −1 −0.5 0 0.5 1 1.5 tempo A m p li tu d e d o S in a l c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-13) A estacionariedade fraca permite simplificar as expressões da FAC, FACV e FCAC, escrevendo-as em função de τ = t2 − t1. Por exemplo, a FAC passa ser escrita como RX(t1, t2) = RX(τ) = E[X(t)X(t + τ)] (15) A FACV, por sua vez, passa ser escrita como CX(t1, t2) = CX(τ) = E[(X(t)−mX )(X(t+τ)−mX)] (16) Por fim, a FCAC passa ser escrito como ρX(t1, t2) = ρX(τ) = CX(τ) σ2X (17) em que mX e σ2X são constantes. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-14) Como a FAC de um processo fracamente estacionário depende apenas de τ (τ > 0), podemos escrever a FAC de duas maneiras equivalentes: RX(τ) = E[X(t)X(t + τ)] (18) ou RX(τ) = E[X(t− τ)X(t)] (19) Note que em ambas definições temos t2 − t1 = τ . A mesma observação vale para a definição da FACV e do FCAC. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-15) Propriedades Gerais da FAC (1) RX(0) é o valor quadrático médio do processo X(t): E[x2(ti)] = RX(ti, ti) = RX(ti − ti) = RX(0). (2) RX(0) = σ2X se o processo tiver média nula. (3) RX(τ) é uma função par de seu argumento: RX(τ) = RX(−τ). Assim, para fins de análise consideramos apenas os valores correspondentes a τ > 0. (4) |RX(τ)| ≤ RX(0), para todo τ . (5) Se X(t) contém uma componente periódica, RX(t) também conterá uma componente de mesmo período. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estacionariedade de um Processo Estocástico (cont.-16) Propriedades Gerais da FAC (cont.) (6) Se a componente periódica é do tipo senoidal, então RX(t) perderá informação sobre a fase da componente senoidal. (7) Se X(t) não contém componentes periódicas, RX(τ) tende a zero, à medida que τ → ∞. (8) Se para um determinado processo estocástico X(t) obtivermos RX(∞) = 0 implica dizer que o processo tem média zero. (9) A transformada de Fourier de RX(τ) é real (não é um número complexo), simétrica e não-negativa. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico Definição Um processo estocástico é ergódico, se seus momentos estatísticos, calculados ao longo de várias realizações do processo, forem equivalentes aos momentos temporais, calculados a partir de uma única realização do processo. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-1) Definição Um processo é ergódico na média, se e somente se: E[X(ti)] = ∫ ∞ −∞ xifXi(xi)dxi ≡ 1 k ∫ k 0 x(t)dt, k → ∞ (sinal contínuo) 1 k ∑k i=1 x(ti), k → ∞ (sinal amostrado) (20) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-2) Definição Um processo é ergódico na variância, se e somente se: V ar[X(ti)] = ∫ ∞ −∞ (xi − µX) 2fXi(xi)dxi ≡ 1 k ∫ k 0 (x(t)− µX) 2dt, k → ∞ (contínuo) 1 k ∑k i=1(x(ti)− µX) 2, k → ∞ (amostrado) (21) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-3) Definição Um processo é ergódico na correlação,se e somente se: RX(τ) = E[X(t)X(t + τ)] = ∫ ∞ −∞ ∫ ∞ −∞ xtxt+τfXtXt+τ (xt, xt+τ )dxtdxt+τ ≡ 1 k ∫ k 0 x(t)x(t+ τ)dt, k → ∞ (contínuo) 1 k−τ ∑k−τ i=1 x(ti)x(ti + τ), k → ∞ (amostrado) (22) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-4) O conceito de ergodicidade é de fundamental importância prática para a teoria de processos estocásticos. Dizer que um processo é ergódico implica em assumir que podemos inferir todas as informações estatísticas sobre o processo estocástico a partir de uma única realização do mesmo. Na prática, é muito difícil verificar a estacionariedade no sentido estrito e a ergodicidade de um processo estocástico. Assim, para facilitar a nossa vida, o que se faz é assumir que o processo é estacionário no sentido amplo e ergódico. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-5) Estimativa da FAC de um Processo Estocástico Ergódico A expressão da FAC de um processo ergódico na correlação de tempo discreto, mostrada na Eq. (22), nos dá um método simples para estimar a FAC a partir de uma realização de tal processo de tamanho N , {x(t1), x(t2), . . . , x(tN )}: R̂X(τ) = 1 N − τ N−τ ∑ i=1 x(ti)x(ti + τ) (23) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-5) Dica Prática para Verificar Estacionariedade! (1) Dividir o sinal original em um número finito K de sub-sinais de mesmo comprimento N . (2) Para um certo ti fixo, estimar a média (mx(ti)) e variância (σx(ti)) ao longo das K pseudo-realizações: m̂X(ti) ≈ 1 K K ∑ k=1 x(k)(ti), (24) σ̂2X(ti) ≈ 1 K K ∑ k=1 (x(k)(ti)− m̂X(ti)) 2, (25) para i = 1, . . . , N . c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-6) Dica Prática para Verificar Estacionariedade! (cont.) (3) Calcular a média das médias e das variâncias do Item (2): M̄ = ∑N i=1 m̂X(ti) N e V̄ = ∑N i=1 σ̂ 2 X(ti) N (26) (4) Calcular a média e a variância das amplitudes da realização original completa: X̄ ≈ 1 N ·K N ·K ∑ i=1 x(ti), (27) s2X ≈ 1 N ·K N ·K ∑ i=1 (x(ti)− X̄) 2. (28) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-7) Dica Prática! (5) Analisar a plausibilidade das seguintes hipóteses: A média é constante, ou seja, M̄ ≈ X̄. A variância é constante, ou seja, V̄ ≈ s2 X . (6) Se as hipóteses forem verdadeiras, então pode-se assumir com relativa segurança que o processo é ergódico e estacionário. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-8) Exercício Resolvido Considere o seguinte processo estocástico: X(t) = A sinωt (29) em que A é uma variável aleatória gaussiana de média zero e variância σ2A, ω é uma constante de valor conhecido e t corresponde ao tempo contínuo. Suponha que obtemos um valor amostral para A, denotado por A1. Assim, a realização correspondente de X(t) para esse valor de A1 é dada por: XA(t) = A1 sinωt (30) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-9) Exercício Resolvido Assim, usando a Eq. (22) para um sinal contínuo, obtemos: RXA(τ) = lim k→∞ 1 k ∫ k 0 x(t)x(t+ τ)dt = lim k→∞ 1 k ∫ k 0 A1 sinωt ·A1 sinω(t+ τ)dt = A21 2 cosωτ Para resolver a integral acima usar a seguinte identidade trigonométrica: sin(a) · sin(b) = 1 2 cos(a− b)− 1 2 cos(a+ b) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Ergodicidade de um Processo Estocástico (cont.-10) Exercício Resolvido Por outro lado, usando a definição teórica da FAC (Eq. (6)), chegamos ao seguinte resultado: RX(t1, t2) = E[X(t1)X(t2)] = E[A sinωt1 · A sinωt2] = E[A2] sinωt1 · sinωt2 = σ2A sinωt1 · sinωt2 (31) Como os resultados são diferentes, concluímos que este processo não é ergódico. Além disso, como a expressão da FAC dada na Eq. (31) não pode ser reduzida a uma simples função de τ = t2 − t1, o processo também não é estacionário. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Processo Autorregressivo de Ordem 1 - AR(1) O processo AR(1) é definido pela seguinte expressão: x(t) = a0 + a1x(t− 1) + ε(t), (32) em que a0 ∈ R e |a1| < 1 são constantes e ε(t) ∼ N(0, σ2ε) é uma variável aleatória gaussiana de média zero e variância σ2ε . Além disso, a variável aleatória ε(t) tem a seguinte função de autocorrelação teórica: Rε(τ) = { σ2ε , para τ = 0 0, para τ 6= 0 (33) Por esse motivo, a variável aleatória σ2ε é popularmente chamada de ruído branco gaussiano aditivo. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Média de um Processo AR(1) A média teórica de um processo AR(1) é dada por µx = E[x(t) = E[a0 + a1x(t− 1) + ε(t), = E[a0] + E[a1x(t− 1)] + E[ε(t)], = a0 + a1E[x(t− 1)], (34) em que lançamos mão do fato de o valor esperado de uma constante ser a própria constante. Se assumirmos que o processo AR(1) é estacionário no sentido amplo, temos que E[x(t)] = E[x(t− 1)] = µx. Assim, a expressão (34) pode ser resolvida para µx, resultando em µx = a0 + a1µx ⇒ (1− a1)µx = a0 µx = a0 1− a1 . (35) Note que da Eq. (35) tiramos que a0 = µx(1− a1). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Variância de um Processo AR(1) Assim, podemos reescrever a expressão de um processo AR(1) da seguinte forma: x(t) = a0 + a1x(t− 1) + ε(t), = µx(1− a1) + a1x(t− 1) + ε(t), (36) de onde resulta x(t)− µx = a1(x(t− 1)− µx) + ε(t). (37) Daí, a variância teórica de um processo AR(1) é dada por σ 2 x = E[(x(t)− µx) 2 ], = E[(a1(x(t − 1) − µx) + ε(t)) 2 ], = E[a 2 1 (x(t − 1) − µx) 2 + 2a1(x(t − 1) − µx)ε(t) + ε 2 (t)], = a 2 1 E[(x(t− 1) − µx) 2 ] + 2a1E[(x(t− 1) − µx)ε(t)] + E[ε 2 (t)], = a 2 1 σ 2 x + 0 + σ 2 ε ⇒ σ 2 x = σ2 ε 1 − a2 1 . (38) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Variância de um Processo AR(1) Na obtenção da Eq. (38), usamos o fato de o processo ser estacionário. Logo, σ2x = E[(x(t) − µx) 2] = E[(x(t− 1)− µx) 2]. (39) Além disso, a covariância entre x(t− 1) e ε(t) é nula por questões de causalidade. Se ε(t) é visto como um sinal de entrada, enquanto x(t− 1) é visto como um sinal de saída, estamos tentando correlacionar a entrada no instante t com a saída no instante t− 1. Seria como tentar determinar ou visualizar a resposta do sistema antes de aplicar a entrada! Por este motivo, temos que E[(x(t− 1)− µx)ε(t)] = 0. (40) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação de um Processo AR(1) A fim de obter uma expressão para Rx(τ) = E[x(t)x(t − τ)], iremos considerar primeiro τ = 0. Além disso, sem perda de generalidade, iremos considerar a0 = 0. Neste caso, temos o seguinte resultado: Rx(0) = E[x 2(t)] = σ2x. (41) Para obter Rx(1) = E[x(t)x(t − 1)], basta multiplicar ambos os lados da expressão do processo AR(1) e aplicar o operador valor esperado a ambos os lados da expressão resultante. Assim, E[x(t)x(t− 1)] = a1E[x 2(t− 1)] + E[ε(t)x(t − 1)], Rx(1) = a1σ 2 x, (42) em que lançamos mão do fato de o ruído ε(t) não ser correlacionado com valores passados de x(t). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação de um Processo AR(1) Para τ = 2, obtemos o seguinte resultado: E[x(t)x(t− 2)] = a1E[x(t− 1)x(t− 2)] + E[ε(t)x(t − 2)], Rx(2) = a1Rx(1) = a 2 1σ 2 x. (43) E para τ = 3, obtemosE[x(t)x(t− 3)] = a1E[x(t− 1)x(t− 3)] + E[ε(t)x(t − 3)], Rx(3) = a1Rx(2) = a 3 1σ 2 x. (44) Por indução, podemos generalizar os resultados anteriores e obter uma expressão para Rx(τ) para qualquer τ ≥ 0: E[x(t)x(t− τ)] = a1E[x(t− 1)x(t− τ)] + E[ε(t)x(t − τ)], Rx(τ) = a1Rx(τ − 1) = a τ 1σ 2 x = σ2ε 1− a21 aτ1 . (45) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação de um Processo AR(1) A Equação (44) pode ainda ser generalizada para qualquer τ , positivo, negativo ou nulo. Para isto, basta lembrar que a FAC é uma função par, ou seja, Rx(τ) = Rx(−τ). Assim, chegamos à expressão final da FAC de um processo AR(1): Rx(τ) = σ 2 xa |τ | 1 = σ2ε 1− a21 a |τ | 1 , τ = 0,±1,±2, ... (46) em que |u| denota o valor absoluto de u. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação (Normalizada) de um Processo AR(1) Se dividirmos a Equação (46) da FAC pela variância do processo, obtemos a FAC normalizada, ou seja: ρx(τ) = Rx(τ) σ2x = a |τ | 1 = a |τ | 1 , τ = 0,±1,±2, ... (47) em que |u| denota o valor absoluto de u. A expressão de ρx(τ) é útil na estimação do parâmetro a1 do modelo AR(1). Se fizermos τ = 1, teremos a1 = ρx(1). (48) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação (Normalizada) de um Processo AR(1) Assim, dada uma realização {x(ti)}Ni=1 do processo AR(1), uma estimativa do coeficiente a1 a partir da FCAC amostral para τ = 1 é dada por â1 = ρ̂x(1) = ∑N−1 i=1 x(ti)x(ti − 1) (N − 1)s2x , (49) em que s2x é a variância amostral do processo: s2x = ∑N i=1(x(ti)− x̄) 2 N − 1 , (50) com x̄ = ∑N i=1 x(ti)/N denotando a média amostral. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação de um Processo AR(1) FAC de um processo AR(1) com a1 = 0.8 e σ2ε = 0.1 0 2 4 6 8 10 12 14 16 18 20 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 atraso temporal (τ) F A C ( R x( τ) ) FAC Processo AR(1): a 1 =0.8, σ e =0.1 c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Autocorrelação de um Processo AR(1) FAC de um processo AR(1) com a1 = −0.8 e σ2ε = 0.1 0 2 4 6 8 10 12 14 16 18 20 −0.25 −0.2 −0.15 −0.1 −0.05 0 0.05 0.1 0.15 0.2 0.25 atraso temporal (τ) F A C ( R x( τ) ) FAC Processo AR(1): a 1 =−0.8, σ e =0.1 c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Correlação Cruzada (FCC) - Sinais Contínuos Definição 1 Sejam X(t) e Y (t) dois sinais aleatórios estacionários de tempo contínuo. A Função de Correlação Cruzada (FCC) entre X(t) e Y (t) pode ser definida como: RXY (τ) = E[X(t)Y (t+ τ)], τ = 0, 1, 2, ... (51) = ∫ ∞ −∞ ∫ ∞ −∞ xtyt+τfXtYt+τ (xt, yt+τ )dxtdyt+τ , em que fXtYt+τ (xt, yt+τ ) é a FDP conjunta de X(t) e Y (t+ τ). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Correlação Cruzada (FCC) (cont.-1) Definição 2 A FCC entre X(t) e Y (t) também pode ser definida como: RY X(τ) = E[Y (t)X(t+ τ)], τ = 0, 1, 2, ... (52) = ∫ ∞ −∞ ∫ ∞ −∞ ytxt+τfYtXt+τ (yt, xt+τ )dytdxt+τ , em que fYtXt+τ (yt, xt+τ ) é a FDP conjunta de Y (t) e X(t+ τ). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Propriedades da FCC Propriedade 1 A definição de RY X(τ) dada na Eq. (52) é invariante a uma translação de −τ . Desta forma, RY X(τ) é também dada por: RY X(τ) = E[Y (t− τ)X(t)] (53) Comparando a Eq.(53) com a definição de RXY (τ) dada na Eq.(51), percebemos que: RXY (τ) = RY X(−τ) (54) Logo, trocar a ordem dos índices da FCC tem o efeito de mudar o sinal do seu argumento. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Propriedades da FCC Propriedades 2 e 3 O valor máximo de RXY (τ) e RY X(τ) geralmente não ocorrem para τ = 0. Porém, pode-se mostrar que |RXY (τ)| ≤ √ RX(0)RY (0) (55) Para dois processos estocásticos independentes temos que: RXY (τ) = RY X(τ) (56) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função de Correlação Cruzada (FCC) - Sinais Discretos Definição Sejam X(t) = {..., x(−2), x(−1), x(0), x(1), x(2), ...} e Y (t) = {..., y(−2), y(−1), y(0), y(1), y(2), ...} dois sinais aleatórios estacionários e de tempo discreto. Neste caso, as FCCs são definidas como: RXY (τ) = ∞ ∑ t=−∞ x(t)y(t+ τ) (57) e RY X(τ) = ∞ ∑ t=−∞ y(t)x(t+ τ), (58) para τ = 0, 1, 2, ... c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estimação da FCC - Sinais Discretos Definição 1 Sejam X(t) = {x(1), x(2), ..., x(N)} e Y (t) = {y(1), y(2), ..., y(N)} duas seqüências aleatórias finitas (e.g. sinais amostrados). Neste caso, as FCCs podem ser estimadas por meio das seguintes expressões: rXY (τ) = ∑N−τ t=1 x(t)y(t+ τ) N − τ (59) e rY X(τ) = ∑N−τ t=1 y(t)x(t+ τ) N − τ , (60) para τ = 0, 1, 2, ... c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estimação da FCC - Sinais Discretos (cont.-1) Exemplo c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Estimação da FCC - Sinais Discretos (cont.-2) Exemplo (continuação) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FAC na Detecção de Sinais em Meio ao Ruído Na prática, é comum a ocorrência de combinações aditivas de sinais estocásticos. Por exemplo, seja um processo Z(t) dado pela soma de dois outros processos estacionários X(t) e Y (t): Z(t) = X(t) + Y (t) (61) Pode-se mostrar (exercício!) que a FAC do processo Z(t) é dada por: RZ(τ) = E[Z(t)Z(t+ τ)] = RX(τ) +RY X(τ) +RXY (τ) +RY (τ) (62) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FAC na Detecção de Sinais em Meio ao Ruído (cont.-1) Se X(t) e Y (t) são processos não-correlacionados e ambos têm média zero, os termos RY X(τ) = RXY (τ) são nulos, resultando em RZ(τ) = RX(τ) +RY (τ) (63) Assim, concluímos a FAC de um sinal formado pela soma de dois sinais não-correlacionados é equivalente à soma das FACs dos sinais individuais. Este resultado pode ser estendido para a soma de mais de dois processos estocásticos não-correlacionados. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FAC na Detecção de Sinais em Meio ao Ruído (cont.-2) A Eq. (63) provê um procedimento muito interessante para ser utilizado na prática; por exemplo, na detecção de sinais determinísticos em um meio ruidoso, tal como um canal de comunicação. Nesta aplicação supõe-se que um determinado sinal estocástico é formado por componentes determinísticas (informação transmitida pelo meio) distorcidas por ruído e que o ruído e a informação desejada são não-correlacionados. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FAC na Detecção de Sinais em Meio ao Ruído (cont.-3) Seja o sinal senoidal de amplitude unitária e período T = 50 unidades de tempo, cujo gráfico está mostrado na figura abaixo. 0 20 40 60 80 100 120 140 160 180 200 −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FAC na Detecção de Sinais em Meio ao Ruído (cont.-4) De acordo com o exposto na teoria, a FAC de um sinal periódico é também periódica e possui o mesmo período do sinal. 0 10 20 30 40 50 60 70 80 90 100 −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 Lag S am pl e A ut oc or re la tio n Sample Autocorrelation Function (ACF) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FAC na Detecção de Sinais em Meioao Ruído (cont.-5) Considere agora um sinal totalmente aleatório (ruído branco), gaussiano, de média 0 e variância 1. 0 20 40 60 80 100 120 140 160 180 200 −3 −2 −1 0 1 2 3 Tempo Ruido Branco N(0,1) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FAC na Detecção de Sinais em Meio ao Ruído (cont.-6) De acordo com a teoria, a FAC do ruído branco é nula, exceto para τ = 0. A FAC estimada a partir do sinal mostrado na figura anterior é mostrado abaixo. 0 10 20 30 40 50 60 70 80 90 100 −0.5 0 0.5 1 Lag S am pl e A ut oc or re la tio n Sample Autocorrelation Function (ACF) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FAC na Detecção de Sinais em Meio ao Ruído (cont.-7) Considere agora um sinal formado pela soma da senóide com o ruído branco. Este sinal é mostrado abaixo. 0 20 40 60 80 100 120 140 160 180 200 −4 −3 −2 −1 0 1 2 3 4 Tempo c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FAC na Detecção de Sinais em Meio ao Ruído (cont.-9) Pergunta Desafio Você poderia confirmar só no “olhômetro”, que este sinal estocástico é uma senóide contaminada com ruído branco? De acordo com a teoria, a FAC de dois sinais não-correlacionados é a soma das FACs dos sinais individuais. Vamos ver se isto se confirma? A FAC do sinal ruidoso estimada diretamente a partir do sinal observado é mostrada no próximo slide. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FAC na Detecção de Sinais em Meio ao Ruído (cont.-10) 0 10 20 30 40 50 60 70 80 90 100 −0.5 0 0.5 1 Lag S am pl e A ut oc or re la tio n Sample Autocorrelation Function (ACF) Assim, concluímos que a FAC pode ser usada para detectar estruturas determinísticas periódicas imersas em sinais estocásticos, podendo inclusive estimar o período do sinal determinístico. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função Densidade Espectral de Potência Definição Seja um processo estocástico X(t) contínuo, estacionário e de média nula. A Função Densidade Espectral de Potência (FDE) de X(t) é definida como: SX(jω) = F [RX(τ)] = ∫ ∞ −∞ RX(τ)e −jωτdτ (64) em que F [·] é a transformada de Fourier do sinal. RX(τ) = E[X(t)X(t − τ)] é a FAC de X(t). ω = 2πf (rad/s) é a freqüência angular. A Eq. (64) é conhecida como relação de Wiener-Khinchin em homenagem aos seus proponentes. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função Densidade Espectral de Potência (cont.-1) Seja a transformada de Fourier inversa de SX(jω) dada por: F−1[SX(jω)] = 1 2π ∫ ∞ −∞ SX(jω)e jωτdω = RX(τ) (65) Então, é possível definir o valor quadrático médio de um processo estacionário, dada sua FDE. Para isto, basta fazer τ = 0 na Eq. (65), ou seja: RX(0) = E[X 2(t)] = 1 2π ∫ ∞ −∞ SX(jω)dω (66) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função Densidade Espectral de Potência (cont.-2) A Eq. (66) sugere que a potência do sinal está distribuída em freqüência de acordo com SX(jω). É nesta interpretação que está a origem dos termos densidade e potência na nomenclatura adotada para a Eq. (64). Com base na Eq. (65), pode-se obter a potência média P̄ em uma banda-passante finita integrando SX(jω) na faixa apropriada de freqüências: P̄ω1≤ω≤ω2 [X(t)] = 1 2π ∫ −ω1 −ω2 SX(jω)dω + 1 2π ∫ ω2 ω1 SX(jω)dω para ∀ω1, ω2 > 0. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função Densidade Espectral de Potência (cont.-3) Pode-se fazer os seguintes comentários sobre a relação entre FDE e a FAC: ⇒ As funções RX(τ) e SX(jω) são pares transformados. Assim, ambos contém a mesma informação estatística sobre o processo. ⇒ Visto que se pode ir e vir entre os domínios do tempo e da freqüência, a escolha de uma das formas é apenas uma questão de conveniência! ⇒ Devido aos atributos de RX(τ), a sua transformada de Fourier dada por SX(jω) será sempre uma função real, não-negativa e simétrica de ω. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Função Densidade Espectral Cruzada Definições A FDE Cruzada (FDEC) entre dois processos estacionários contínuos, X(t) e Y (t), pode ser definida de duas formas: SXY (jω) = F [RXY (τ)] = ∫ ∞ −∞ RXY (τ)e −jωτdτ (67) SY X(jω) = F [RY X(τ)] = ∫ ∞ −∞ RY X(τ)e −jωτdτ (68) em que RXY (τ) e RY X(τ) são as respectivas FCC cruzadas de X(t) e Y (t). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FDE Cruzada de Dois Sinais Aleatórios (cont.-1) Comentário Importante 1 As funções RXY (τ) e RY X(τ) não são necessariamente funções pares de τ !! Logo, as funções SXY (jω) e SY X(jω) correspondentes não são, em geral, funções reais de ω. Comentário Importante 2 De fato, mostrou-se anteriormente que RXY (τ) = RY X(−τ). Neste caso, as funções SXY (jω) e SY X(jω) são pares complexos conjugados, ou seja: SXY (jω) = S ∗ Y X(jω) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FDE Cruzada de Dois Sinais Aleatórios (cont.-2) Função Coerência A FDE Cruzada Normalizada, chamada de Função Coerência, de dois processos estacionários X(t) e Y (t) é definida como: γXY (jω) = SXY (jω) √ SX(jω) √ SY (jω) . (69) O valor absoluto quadrático de γXY (jω) é dado por: |γXY | 2 = |SXY (jω)| 2 SX(jω)SY (jω) , (70) tal que 0 ≤ γ2XY ≤ 1. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos FDE Cruzada de Dois Sinais Aleatórios (cont.-3) Resultado Importante Seja Z(t) um sinal aleatório dado pela soma de dois outros sinais não-correlacionados, X(t) e Y (t). A FDE de Z(t) é então dada por SZ(jω) = F [RX+Y (τ)] = SX(jω) + SY (jω), (71) visto que SXY (jω) = SY X(jω) = 0, ∀ω. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Periodograma Definição: Periodograma Seja F [XT (t)] a transformada de Fourier de uma versão “truncada", XT (t), de um processo estacionário X(t). Define-se o periodograma de qualquer realização particular de XT (t) como a seguinte quantidade: Periodograma[XT (t)] = 1 T |F [XT (t)]| 2 (72) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Periodograma (cont.-1) O interesse prático no cálculo do periodograma está no fato de que seu valor esperado, para T → ∞, fornece uma estimativa não-paramétrica da FDE de XT (t). Numericamente,tem-se que: E [ lim T→∞ 1 T |F [XT (t)]| 2 ] = ∫ ∞ −∞ RX(τ)e −jωτdτ (73) A Eq. (73) é de fundamental importância pois é ela que faz a conexão da função SX(jω) com o conceito de “espectro"no sentido clássico. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Transformada Discreta de Fourier Considere um sinal de banda-passante na faixa 0 a W Hz. O teorema de Nyquist/Shannon diz que a taxa de amostragem do sinal deve ser de pelo menos 2W amostras/segundo. Seja o número N de amostras do sinal. Assim, o intervalo de tempo T varrido pelas amostras é T = N 2W Seja o sinal truncado XT (t) representado agora por g(t). Assim, sua transformada de Fourier é dada por: G(jω) = ∫ T 0 g(t)e−jωtdt (74) em que assume-se que g(t) ∈ ℜ, ∀t ∈ [0, T ]. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Transformada Discreta de Fourier (cont.-1) Considere agora uma discretização de G(jω) dada por: G(jn2π∆f) ≈ N−1 ∑ k=0 gke −jn2π∆fk∆T∆T (75) em que gk = g(tk), k = 0, 1, . . . , N − 1 ∆T = 1 2W = espaço entre amostras no domínio do tempo ∆f = 2W N = espaço entre amostras no domínio da freqüência c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos EstocásticosTransformada Discreta de Fourier (cont.-2) Nota-se que ∆f ·∆T = 1 N . Assim, a Eq. (75) pode ser reescrita como: G(jn2π∆f)∆f ≈ 1 N N−1 ∑ k=0 gk exp { −j 2πnk N } (76) Dada a seqüência g0, g1, ..., gN−1, o lado direito da Eq. (76) gera uma outra seqüência G0,G1, ...,GN−1, dada por: Gn = 1 N N−1 ∑ k=0 gk exp { −j 2πnk N } , n = 0, 1, ..., N − 1 (77) em que Gn não são valores exatos de G(jω), mas sim boas aproximações destas. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Transformada Discreta de Fourier (cont.-3) Dada a seqüência {Gn} N−1 n=0 , pode-se mostrar que existe a seguinte relação inversa exata: gk = N−1 ∑ n=0 Gn exp { j 2πnk N } , k = 0, 1, ..., N − 1 (78) As seqüências {Gn} e {gk} formam um par-transformado de Fourier, ou seja, dado uma delas pode-se achar a outra. A seqüência {Gn} é chamada de Transformada Discreta de Fourier de gk, enquanto {gk} é a transformada inversa {Gn}. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Transformada Discreta de Fourier (cont.-4) Comentários Importantes sobre DFT (1) A seqüência |G0|2, |G1|2, ..., define uma aproximação da FDE do sinal, pois envolve apenas uma única realização. (2) A DFT foi responsável pela popularização do método do periodograma. Quanto maior N maior a resolução e a confiabilidade do resultado. (3) A implementação algorítmica da DFT exige um número de multiplicações da ordem de N2. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Transformada Discreta de Fourier (cont.-5) Comentários Importantes sobre DFT (cont.) (4) Implementações computacionalmente eficientes da DFT, chamadas de Transformadas Rápidas de Fourier (FFT), requerem multiplicações da ordem de N log2 N . (5) Todos os algoritmos do tipo FFT exigem que o número de amostras N seja uma potência inteira de 2. (6) Se N é pequeno e uma boa resolução no domínio da freqüência é requerida, então é melhor usar a DFT da Eq. (77). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Periodograma no Matlab/Octave Senóide com Harmônico e Ruído 1 Freqüência Fundamental: F0 = 440Hz 2 Freqüência de Amostragem: Fs = 10000Hz 3 Duração do sinal: T = 3s 4 Desvio-padrão do ruído: σruido = 0.1 » F0=440; » Fs=10000; » T=3; » dpr=0.1; » t=0:1/Fs:T-1/Fs; % instantes de amostragem » x=sin(2*pi*F0*t)+0.5*sin(2*pi*3*F0*t)+dpr*randn(size(t)); » plot(t(1:100),x(1:100)) % plota primeiras 100 amostras c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Periodograma no Matlab/Octave 0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01 −1.5 −1 −0.5 0 0.5 1 1.5 Tempo (segundos) A m p lit u d e Figura : Primeiras 100 amostras do sinal senoidal ruidoso gerado. c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Periodograma no Matlab/Octave Estimação da PSD Usando FFT » N=length(x); » xdft=fft(x); % transformada rapida Fourier » xdft=xdft(1:N/2+1); % Seleciona N/2+1 amostras se N par » Pxx = (1/(Fs*N)) * abs(xdft).∧2; % Aplica Eq.(76) » Pxx(2:end-1) = 2*Pxx(2:end-1); » Freq = 0:Fs/N:Fs/2; % Fs=2W => W=Fs/2 » Pyy=10*log10(Pxx); % Escala logaritmica » figure; plot(Freq, Pxx); % grafico escala linear » figure; plot(Freq, Pyy); % grafico escala logaritmica Observação - Se o o número N de amostras do sinal é ímpar, trocar a linha 3 por: » xdft=xdft(1:(N+1)/2); % Seleciona (N+1)/2 amostras se N impar c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Periodograma no Matlab/Octave 0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 P o te n c ia /F re q u e n c ia ( W a tt s /H z ) Frequencia (Hz) Periodograma Usando FFT Figura : Estimativa da PSD usando FFT (escala linear). c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Periodograma no Matlab/Octave 0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 −120 −100 −80 −60 −40 −20 0 20 Periodograma Usando FFT Frequencia (Hz) P o te n c ia /F re q u e n c ia ( d B /H z ) Figura : Estimativa da PSD usando FFT (escala logaritmica - decibel). c© G. A. Barreto Fundamentos de Processos Estocásticos Parte II Gráfico de Dispersão (lagplot) c© G. A. Barreto Fundamentos de Processos Estocásticos Função de Autocorrelação Gráfico de Dispersão (lagplot) Definição Técnica qualitativa (gráfica) que avalia a correlação serial das amplitudes do sinal através do gráfico de dispersão. Implementação Considere o seguinte sinal de tempo discreto: X = {x(1), x(2), x(3), ...., x(N)}. O lagplot consiste em gerar o gráfico de um conjunto de pares ordenados: [x(n), x(n − τ)], n = τ + 1, . . . , N (79) em que a constante τ (τ > 0), chamada de lag, é um nÃomero inteiro que define ao distânciamento temporal entre as amplitudes do sinal. c© G. A. Barreto Fundamentos de Processos Estocásticos Função de Autocorrelação Gráfico de Dispersão (lagplot) Comentários Em geral, é necessário plotar lagplots para vários lags para se ter uma idéia da persistência da memória. Em outras palavras, vários lagplots são necessários para avaliar quanto tempo dura a influência dos valores passados sobre o valor atual do sinal. A influência pode ser dos valores passados sobre o valor atual pode ser positiva, negativa ou nula. c© G. A. Barreto Fundamentos de Processos Estocásticos Função de Autocorrelação Gráfico de Dispersão (lagplot) Exemplo 1 Considere um sinal de tempo discreto X, de comprimento N = 1000. Lagplot (τ = 1) Os pares ordenados que formam o lagplot para τ = 1 são definidos como: [x(n), x(n − 1)], n = 2, ...., 1000. (80) Ou seja, [x(2), x(1)], [x(3), x(2)], · · · , [x(1000), x(999)]. (81) c© G. A. Barreto Fundamentos de Processos Estocásticos Função de Autocorrelação Gráfico de Dispersão (lagplot) Exemplo 2 Considere novamente um sinal de tempo discreto X, de comprimento N = 1000. Lagplot (τ = 2) Os pares ordenados que formam o lagplot para τ = 2 são definidos como: [x(n), x(n − 2)], n = 3, ...., 1000. (82) Ou seja, [x(3), x(1)], [x(4), x(2)], · · · , [x(1000), x(998)]. (83) E assim sucessivamente para outros lagplots do mesmo sinal (i.e.τ = 3, ..., 1000). c© G. A. Barreto Fundamentos de Processos Estocásticos Função de Autocorrelação Gráficos de Típicos Lagplot (τ = 1) - correlação positiva O lagplot de um sinal cujas as amplitudes distanciadas de τ = 1 estão positivamente correlacionadas é mostrado a seguir. c© G. A. Barreto Fundamentos de Processos Estocásticos Função de Autocorrelação Gráficos de Típicos (cont.-1) Lagplot (τ = 1) - correlação nula O lagplot de um sinal cujas as amplitudes distanciadas de τ = 1 não são correlacionadas é mostrado abaixo. c© G. A. Barreto Fundamentos de Processos Estocásticos Função de Autocorrelação Gráficos de Típicos (cont.-2) Lagplots (τ = 1, 2) - Processo AR(1):x(n) = 0.6x(n − 1) + v(n) Os lagplots para τ = 1 e 2 de um processo AR(1) são mostrados abaixo. O ruído é branco gaussiano com variância 1. c© G. A. Barreto Fundamentos de Processos Estocásticos Função de Autocorrelação Gráficos de Típicos (cont.-2) Lagplots (τ = 3, 4) - Processo AR(1):x(n) = 0.6x(n − 1) + v(n) Os lagplots para τ = 3 e 4 de um processo AR(1) são mostrados abaixo. O ruído é branco gaussiano com variância 1. c© G. A. Barreto Fundamentos de Processos Estocásticos Função de Autocorrelação Código Matlab/Octave - Lagplots Processo AR(1) c© G. A. Barreto Fundamentos de Processos Estocásticos Fundamentos de Processos Estocásticos Gráfico de Dispersão (lagplot)
Compartilhar