Buscar

Nota de aula 01_processos estocasticos

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 122 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 122 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 122 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Fundamentos de Processos Estocásticos
Guilherme de Alencar Barreto
gbarreto@ufc.br
Grupo de Aprendizado de Máquinas – GRAMA
Programa de Pós-Graduação em Engenharia de Teleinformática
Universidade Federal do Ceará – UFC
www.researchgate.net/profile/Guilherme_Barreto2/
c© G. A. Barreto Fundamentos de Processos Estocásticos
“O processamento de sinais mudou! Não estamos mais na era na
qual a informação na forma de sinais elétricos é processada por meio
de tradicionais dispositivos analógicos. Nós estamos solida e, para o
futuro previsível, irrevogavelmente, no âmago do processamento de
sinais digitais (amostrados ou discretos no tempo) aleatórios."
Charles W. Therrien, 1992
Discrete Random Signals and Statistical Signal Processing
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Conteúdo da Apresentação
1 Definição de Processos Estocásticos
2 Funções de Autocovariância e de Covariância Cruzada
3 Funções de Autocorrelação e de Correlação Cruzada
4 Estacionariedade Forte/Fraca e Ergodicidade
5 Função Densidade Espectral de Potência
6 Periodograma e a Transformada Discreta de Fourier
7 Gráfico de Dispersão (lagplot)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Pré-Requisitos
1 Variáveis Aleatórias (Univariada/Multivariada)
2 Álgebra Linear e Cálculo Integral/Diferencial
3 Sinais e Sistemas (ou Processamento Digital de Sinais)
4 Noções de Matlab/Octave/Scilab
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Referências Importantes
1 Charles W. Therrien (1992). Discrete Random Signals and Statistical
Signal Processing, Prentice Hall.
2 A. Hyvärinen, J. Karhunen & E. Oja (2001). Independent Component
Analysis, John Wiley & Sons.
3 R. G. Brown & P. Y. C. Hwang (1996). Introduction to Random Signals
and Applied Kalman Filtering, John Wiley & Sons.
4 P. A. Morettin & C. M. C. Toloi (2004). Análise de Séries Temporais,
editora Edgar Blücher LTDA.
5 Notas de Aula - Prof. Guilherme A. Barreto
c© G. A. Barreto Fundamentos de Processos Estocásticos
Parte I
Fundamentos de Processos Estocásticos
c© G. A. Barreto Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
Conceito de Processo Estocástico
Grosso modo, Processo Estocástico é uma generalização do
conceito de variável aleatória, em que uma segunda componente
(em geral, a variável tempo) é utilizada na caracterização de um
evento ou experimento probabilístico.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
Nomenclatura Matemática
Definição
Um processo estocástico no espaço paramétrico T é uma
família {X(w, t); t ∈ T,w ∈ Ω} de variáveis aleatórias
definidas no mesmo espaço amostral Ω.
Se T é um intervalo de números reais, o processo é dito
contínuo. Se T é uma seqüência de números inteiros, o
processo é dito discreto.
Para simplificar a notação, em geral, omite-se a dependência
em ω escrevendo apenas
X(ω, t) ≡ X(t). (1)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
Caso 1 - Se t = ti é fixo e ω varia, tem-se que
X(ω, ti) ≡ X(ti) é uma variável aleatória.
Caso 2 - Se t varia e ω = ωj é fixo, tem-se que X(ωj , t) é
uma realização do processo estocástico, também chamado de
sinal aleatório.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
Exemplos de realizações de processos estocásticos:
→ Ondas de tensão/corrente em circuitos elétricos reais.
→ Sinais de voz, EEG, ECG e outros biossinais.
→ Demanda de energia elétrica.
→ Em geral, qualquer grandeza física que pode ser medida no
tempo e que está sujeita à incertezas provocadas pelo processo
de medição ou por influências externas e/ou internas
indeterminadas.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
c© G. A. Barreto Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
Figura : Um processo estocástico interpretado como uma família de
variáveis aleatórias.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
Figura : Um processo estocástico interpretado como uma família de
trajetórias.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
Descrição Probabilística: Um processo estocástico
{X(w, t); t ∈ T,w ∈ Ω} está completamente caracterizado quando,
para uma dada realização de tempo discreto deste processo,
denotada por {X(ti)}ni=1, é possível especificar todas as funções
densidade conjuntas até a de ordem n:
Ordem 1 → fX1(x1), fX2(x2), ..., fXn(xn)
Ordem 2 → fX1X2(x1, x2), fX1X3(x1, x3), ..., fXnXn−1(xn, xn−1)
...
...
Ordem n → fX1X2...Xn(x1, x2, ..., xn)
em que foi adotada a seguinte notação xi = x(ti).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
Observações
1 Densidades conjuntas de ordem superior são, em tese, úteis na
caracterização de determinado processo estocástico.
2 Na prática é praticamente impossível e improdutivo escrever
todas estas densidades conjuntas!!!
3 Único caso viável na prática ocorre quando o processo
estocástico é gaussiano. Neste caso, todas as densidades
conjuntas para qualquer combinação de variáveis aleatórias são
gaussianas!!
c© G. A. Barreto Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
Independência
Caso 1 - Para uma dada realização {X(t)} de um processo
estocástico de interesse, as variáveis aleatórias
X(ti) = Xi, i = 1, 2, . . . , n, são ditas
independentes, para n = 2, 3, . . ., se e somente se
fX1···Xn(x1, . . . , xn) = fX1(x1) · · · fXn(xn), (2)
=
n
∏
i=1
fXi(xi). (3)
Neste caso, X(t) é chamado de processo
estocástico independente.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Caso 2 - Dois processos estocásticos quaisquer, {X(t)} e
{Y (t)} são independentes se a densidade conjunta de
qualquer combinação das variáveis aleatórias dos 2
processos pode ser escrita como produto das
densidades conjuntas individuais:
fX1X2...Y1Y2... = fX1X2...fY1Y2... (4)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Média de um Processo Estocástico
Definição
Seja fXi(xi) a PDF da variável aleatória X(ti). Então, a média do
processo X(t) no instante ti é definida como
mX(ti) = E[X(ti)]
=
∫ ∞
−∞
x(ti)fX(ti)(x(ti))dx(ti) (5)
=
∫ ∞
−∞
xifXi(xi)dxi
em que xi ≡ x(ti).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Média de um Processo Estocástico
Observações sobre a Média de um Processo Estocástico
A média de um sinal estocástico é função de ti. Portanto, ela
pode ter valor diferente para diferentes valores de ti.
Na Eq. (5) o sinal é contínuo, logo para resolver a integral
devemos conhecer todos os infinitos possíveis valores que
X(t) pode assumir em t = ti.
De acordo com a Eq. (5), para saber o valor médio da
amplitude do sinal no instante ti necessitamos de infinitas
realizações do sinal estocástico X(t).
Como a média definida na Eq. (5) é tomada ao longo das
infinitas realizações do processo para um instante fixo t = ti,
ela recebe é comumente chamada de média de conjunto (do
inglês ensemble mean).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Média de um Processo Estocástico
A figura abaixo mostra várias realizações um sinal aleatório de
tempo discreto.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Definição
A Função de Autocorrelação (FAC) de X(t) para dois instantes
de tempo t1 e t2, t1, t2 ∈ R e t2 > t1, é definida como:
RX(t1, t2) = E[X(t1)X(t2)]
=
∫ ∞
−∞
∫ ∞
−∞
x1x2fX1X2(x1, x2)dx1dx2 (6)
em que x1 = x(t1), x2 = x(t2) e fX1X2(x1, x2) é a FDPconjunta
de X1 = X(t1) e X2 = X(t2).
A FAC avalia o quanto a amplitude do sinal em certo instante
de tempo t1 está estatisticamente associada à amplitude do
sinal em outro instante de tempo t2.
Note que a FAC fornece valores na faixa (−∞,+∞).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação
A figura abaixo mostra várias realizações um sinal aleatório.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Importante 1
Valores positivos indicam que quando a amplitude no instante
t1 tende a crescer, a amplitude no instante t2 tende a crescer
também.
Valores negativos indicam que quando a amplitude no instante
t1 tende a crescer, a amplitude no instante t2 tende a
decrescer.
Valores próximos de zero indicam que tanto faz se a amplitude
no instante t1 tende a crescer (ou descrescer), pois não se
verifica nenhuma tendência de crescimento (ou decrescimento)
da amplitude no instante t2.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Importante 2
Valores elevados da FAC para dois instantes quaisquer t1 e t2
indicam a presença de componentes de baixa freqüência no
sinal.
⋆ Quando o sinal é predominantemente de baixa freqüência as
amplitudes consecutivas X(t1) e X(t2) possuem valores muito
parecidos.
Valores baixos da FAC para dois instantes quaisquer t1 e t2
indicam a presença de componentes de alta freqüência no
sinal.
⋆ Quando o sinal é predominantemente de alta freqüência as
amplitudes consecutivas X(t1) e X(t2) possuem valores bem
diferentes.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação
A figura abaixo mostra um sinal aleatório com um conteúdo
harmônico considerado de baixa freqüência.
0 10 20 30 40 50 60 70 80 90 100
−1.5
−1
−0.5
0
0.5
1
1.5
tempo
A
m
p
lit
u
d
e
 d
o
 S
in
a
l
t
1
t
2
X(t
2
)
X(t
1
)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação
A figura abaixo mostra um sinal aleatório com um conteúdo
harmônico de maior freqüência que a do sinal do slide anterior.
0 10 20 30 40 50 60 70 80 90 100
−1.5
−1
−0.5
0
0.5
1
1.5
tempo
A
m
p
lit
u
d
e
 d
o
 S
in
a
l
t
1
t
2
X(t
1
)
X(t
2
)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação
A amplitude do sinal mostrado na segunda figura varia
bastante entre instantes consecutivos t1 e t2, t2 > t1,
enquanto a amplitude do sinal da primeira figura varia menos.
Logo, o produto X(t1) ·X(t2) para a segunda figura é menor
do que o produto para a primeira figura, para os mesmos
valores t1 e t2.
Quanto mais distintos forem os valores consecutivos das
amplitudes X(t1) e X(t2), menor será a correlação entre eles.
Quanto mais parecidos forem os valores consecutivos das
amplitudes X(t1) e X(t2), maior será a correlação entre eles.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Comentário Importante
A interpretação da FAC em termos do conteúdo harmônico de um
sinal será muito útil mais adiante quando formos definir o conceito
de função densidade espectral de potência.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocovariância
Uma vez definida a FAC de um sinal estocástico, prosseguimos
com a definição de Função de Autocovariância (FACV).
Definição
Seja fX1X2(x1, x2) a PDF conjunta do sinal X(t) nos instantes t1
e t2. Então a Função de Autocovariância (FACV) de X(t)
nestes dois instantes de tempo é definida como:
CX(t1, t2) = E[(x(t1)−mX(t1))(x(t2)−mX(t2))] (7)
em que mX(ti) = E[X(ti)] é a média do sinal no instante ti,
i = 1, 2.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocovariância
Após alguma manipulação algébrica, chegamos a uma
expressão bastante útil que relaciona a FAC com a FACV:
CX(t1, t2) = RX(t1, t2)−mX(t1)mX(t2) (8)
⋆ Para obter a FACV basta calcular a FAC e subtrair o produto
das médias correspondentes.
Para sinais de médias nulas tem-se obviamente que
CX(t1, t2) = RX(t1, t2) (9)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocovariância
Uma definição importante que derivada da definição de FACV
é a de variância de um processo estocástico.
Definição
Seja fXi(xi) a PDF do sinal X(t) no instante ti. Então a
Variância (FACV) de X(t) neste instante é definida como:
σ2X(ti) = E[(x(ti)−mX(ti))
2],
=
∫ ∞
−∞
(xi −mX(ti))
2 fXi(xi)dxi (10)
em que mX(ti) = E[X(ti)] é a média do sinal no instante ti.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Valor quadrático médio
Por sua vez, da definição de variância deriva-se o conceito de
Valor Quadrático Médio de um processo estocástico.
Definição
Considere que o sinal X(t) tem média nula. Então, o valor
quadrático médio de X(t) é definido como:
E[x2(ti)] = RX(ti, ti),
=
∫ ∞
−∞
x2i fXi(xi)dxi (11)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Coeficiente de Autocorrelação
É comum em Processamento de Sinais Estocásticos, usar uma
versão normalizada da FACV, denominada Função
Coeficiente de Autocorrelação (FCAC).
Definição
Seja CX(t1, t2), σX(t1) e σX(t1), respectivamente, a FACV e as
variâncias do sinal X(t) para os instantes t1 e t2. Então, a FCAC
de X(t) é dada por
ρX(t1, t2) =
CX(t1, t2)
σX(t1)σX(t2)
, (12)
tal que −1 ≤ ρX(t1, t2) ≤ 1.
Na literatura, o termo FAC (Função de Autocorrelação) é
usado para designar tanto a FAC quanto a FCAC.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade
Um conceito importante em processamento de sinais aleatórios
é a Estacionariedade.
Este conceito está associado com a invariância (ou constância)
das propriedades estatísticas de um processo estocástico.
Considere a seguinte realização de um processo estocástico:
{X(t1),X(t2), ...,X(tk)}
Considere agora uma nova realização obtida τ instantes de
tempo depois, ou seja:
{X(t1 + τ),X(t2 + τ), ...,X(tk + τ)}
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-1)
Definição
Um processo estocástico é fortemente estacionário ou estacionário
no sentido estrito se, e somente se, todas as FDPs de ordem k ≥ 1
forem invariantes sob uma translação do tempo τ ∈ R.
Assim, um processo estocástico é fortemente estacionário se, para
todo k e para todo τ :
fX1(x1) ≡ fX1+τ (x1+τ )
fX1X2(x1, x2) ≡ fX1+τX2+τ (x1+τ , x2+τ )
...
...
...
fX1X2...Xk(x1, x2, ..., xk) ≡ fX1+τX2+τ ...Xk+τ (x1+τ , x2+τ , ..., xk+τ )
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-2)
Observações Importantes - 1
A condição de estacionariedade forte é um requisito bastante
severo, pois exige que todas as FDPs associadas sejam
invariantes no tempo.
Esta condição é bastante difícil de ser verificada ou testada na
prática. Uma definição “menos” exigente de estacionariedade é
freqüentemente usada (ou assumida).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-3)
Observações Importantes - 2
Quando a condição acima só é válida para 1 ≤ r ≤ k, diz-se
que o processo estocástico X(t) é estacionário de ordem r.
Um caso importante e de bastante interesse prático diz
respeito a um processo estocástico estacionário de ordem
r = 2.
Este processo estacionário é chamado fracamente
estacionário ou estacionário no sentido amplo.
c© G. A. BarretoFundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-4)
Observações Importantes - 2
Para um processo fracamente estacionário as seguintes condições
são válidas:
Condição 1 - A média do processo mX(ti) é constante.
Condição 2 - A variância do processo σ2X(ti) é constante.
Condição 3 - A FAC do processo RX(t1, t2) = RX(τ), em que
τ = t2 − t1 (t1 < t2).
As condições acima são mais fáceis de se verificar na prática,
permitindo classificar um sinal estocástico em estacionário ou
não-estacionário.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-5)
Mostre que a Condição 1 de estacionariedade fraca é verdadeira.
Seja X(t) um processo estocástico contínuo. Se o processo é
estacionário, então podemos escrever que:
fXt(xt) = fXt+τ (xt+τ ), ∀τ ∈ R
Assim, a média de X(t+ τ) é dada por:
mX(t+ τ) = E[X(t + τ)] =
∫ ∞
−∞
xt+τfXt+τ (xt+τ )dxt+τ
=
∫ ∞
−∞
xt+τfXt(xt)dxt+τ = E[X(t)] = mX(t).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-6)
Mostre que a Condição 3 de estacionariedade fraca é verdadeira.
Seja X(t) um processo estocástico contínuo. Assim, a FAC de
X(t) é dada por:
E[X(t1)X(t2)] = RX(t1, t2) = RX(t1 + τ, t2 + τ)
= RX(t1 − t2, 0) ≡ RX(τ), ∀τ ∈ R (13)
em que assumimos que
fX1X2(x1, x2) = fX1+τX2+τ (x1+τ , x2+τ )
Note que a FAC depende apenas da diferença entre t1 e t2. Por
isso, em vez de escrever RX(t1 − t2, 0), costumamos abreviar a
notação e escrever RX(t1 − t2, 0) = RX(τ).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-7)
A figura abaixo mostra um sinal aleatório estacionário (pelo
menos para o período de observação do mesmo!).
0 100 200 300 400 500 600 700 800 900 1000
−1.5
−1
−0.5
0
0.5
1
1.5
tempo
A
m
p
li
tu
d
e
 d
o
 S
in
a
l
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-8)
A figura anterior mostra uma realização do seguinte processo
estocástico, simulado no Matlab/Octave:
X(t) = sin(ωt) + ε(t) (14)
em que ε(t) é uma variável aleatória gaussiana de média zero e
variância σ2ε=0,1, ω = 2π/T é a freqüência angular constante
e T = 50 unidades de tempo é o período da senóide.
O sinal gerado obedece todas as três condições de
estacionariedade fraca.
O tipo de sinal estocástico mostrado na Eq. (14) simula um
fenômeno comumente encontrado na prática: um sinal
determinístico contaminado com ruído branco.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-9)
A parte senoidal do sinal corresponderia a uma onda de
tensão/corrente gerada por determinado equipamento elétrico,
enquanto a variável aleatória ε(t) corresponderia ao ruído que
interfere na medição desta onda de tensão/corrente.
Na prática, mede-se apenas o sinal ruidoso X(t).
Muitas vezes o nível de ruído é tão elevado que não temos
certeza absoluta que o sinal medido possui uma componente
senoidal.
Mais adiante estudaremos uma técnica baseada na FAC para
detectar sinais períodicos imersos em ruído.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-10)
A figura abaixo mostra um sinal aleatório não-estacionário na
média (por quê?).
0 100 200 300 400 500 600 700 800 900 1000
−1.5
−1
−0.5
0
0.5
1
1.5
2
2.5
3
3.5
tempo
A
m
p
li
tu
d
e
 d
o
 S
in
a
l
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-11)
A figura abaixo mostra um sinal aleatório não-estacionário na
variância (por quê?).
0 100 200 300 400 500 600 700 800 900 1000
−2.5
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
2.5
tempo
A
m
p
li
tu
d
e
 d
o
 S
in
a
l
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-12)
A figura abaixo mostra um sinal aleatório não-estacionário na
FAC (por quê?).
0 100 200 300 400 500 600 700 800 900 1000
−1.5
−1
−0.5
0
0.5
1
1.5
tempo
A
m
p
li
tu
d
e
 d
o
 S
in
a
l
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-13)
A estacionariedade fraca permite simplificar as expressões da
FAC, FACV e FCAC, escrevendo-as em função de τ = t2 − t1.
Por exemplo, a FAC passa ser escrita como
RX(t1, t2) = RX(τ) = E[X(t)X(t + τ)] (15)
A FACV, por sua vez, passa ser escrita como
CX(t1, t2) = CX(τ) = E[(X(t)−mX )(X(t+τ)−mX)] (16)
Por fim, a FCAC passa ser escrito como
ρX(t1, t2) = ρX(τ) =
CX(τ)
σ2X
(17)
em que mX e σ2X são constantes.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-14)
Como a FAC de um processo fracamente estacionário depende
apenas de τ (τ > 0), podemos escrever a FAC de duas
maneiras equivalentes:
RX(τ) = E[X(t)X(t + τ)] (18)
ou
RX(τ) = E[X(t− τ)X(t)] (19)
Note que em ambas definições temos t2 − t1 = τ .
A mesma observação vale para a definição da FACV e do
FCAC.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-15)
Propriedades Gerais da FAC
(1) RX(0) é o valor quadrático médio do processo X(t):
E[x2(ti)] = RX(ti, ti) = RX(ti − ti) = RX(0).
(2) RX(0) = σ2X se o processo tiver média nula.
(3) RX(τ) é uma função par de seu argumento:
RX(τ) = RX(−τ). Assim, para fins de análise consideramos
apenas os valores correspondentes a τ > 0.
(4) |RX(τ)| ≤ RX(0), para todo τ .
(5) Se X(t) contém uma componente periódica, RX(t) também
conterá uma componente de mesmo período.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-16)
Propriedades Gerais da FAC (cont.)
(6) Se a componente periódica é do tipo senoidal, então RX(t)
perderá informação sobre a fase da componente senoidal.
(7) Se X(t) não contém componentes periódicas, RX(τ) tende a
zero, à medida que τ → ∞.
(8) Se para um determinado processo estocástico X(t) obtivermos
RX(∞) = 0 implica dizer que o processo tem média zero.
(9) A transformada de Fourier de RX(τ) é real (não é um número
complexo), simétrica e não-negativa.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico
Definição
Um processo estocástico é ergódico, se seus momentos
estatísticos, calculados ao longo de várias realizações do processo,
forem equivalentes aos momentos temporais, calculados a partir de
uma única realização do processo.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-1)
Definição
Um processo é ergódico na média, se e somente se:
E[X(ti)] =
∫ ∞
−∞
xifXi(xi)dxi
≡



1
k
∫ k
0 x(t)dt, k → ∞ (sinal contínuo)
1
k
∑k
i=1 x(ti), k → ∞ (sinal amostrado)
(20)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-2)
Definição
Um processo é ergódico na variância, se e somente se:
V ar[X(ti)] =
∫ ∞
−∞
(xi − µX)
2fXi(xi)dxi
≡



1
k
∫ k
0 (x(t)− µX)
2dt, k → ∞ (contínuo)
1
k
∑k
i=1(x(ti)− µX)
2, k → ∞ (amostrado)
(21)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-3)
Definição
Um processo é ergódico na correlação,se e somente se:
RX(τ) = E[X(t)X(t + τ)]
=
∫ ∞
−∞
∫ ∞
−∞
xtxt+τfXtXt+τ (xt, xt+τ )dxtdxt+τ
≡





1
k
∫ k
0 x(t)x(t+ τ)dt, k → ∞ (contínuo)
1
k−τ
∑k−τ
i=1 x(ti)x(ti + τ), k → ∞ (amostrado)
(22)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-4)
O conceito de ergodicidade é de fundamental importância
prática para a teoria de processos estocásticos.
Dizer que um processo é ergódico implica em assumir que
podemos inferir todas as informações estatísticas sobre o
processo estocástico a partir de uma única realização do
mesmo.
Na prática, é muito difícil verificar a estacionariedade no
sentido estrito e a ergodicidade de um processo estocástico.
Assim, para facilitar a nossa vida, o que se faz é assumir que o
processo é estacionário no sentido amplo e ergódico.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-5)
Estimativa da FAC de um Processo Estocástico Ergódico
A expressão da FAC de um processo ergódico na correlação de
tempo discreto, mostrada na Eq. (22), nos dá um método simples
para estimar a FAC a partir de uma realização de tal processo de
tamanho N , {x(t1), x(t2), . . . , x(tN )}:
R̂X(τ) =
1
N − τ
N−τ
∑
i=1
x(ti)x(ti + τ) (23)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-5)
Dica Prática para Verificar Estacionariedade!
(1) Dividir o sinal original em um número finito K de sub-sinais de
mesmo comprimento N .
(2) Para um certo ti fixo, estimar a média (mx(ti)) e variância
(σx(ti)) ao longo das K pseudo-realizações:
m̂X(ti) ≈
1
K
K
∑
k=1
x(k)(ti), (24)
σ̂2X(ti) ≈
1
K
K
∑
k=1
(x(k)(ti)− m̂X(ti))
2, (25)
para i = 1, . . . , N .
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-6)
Dica Prática para Verificar Estacionariedade! (cont.)
(3) Calcular a média das médias e das variâncias do Item (2):
M̄ =
∑N
i=1 m̂X(ti)
N
e V̄ =
∑N
i=1 σ̂
2
X(ti)
N
(26)
(4) Calcular a média e a variância das amplitudes da realização
original completa:
X̄ ≈
1
N ·K
N ·K
∑
i=1
x(ti), (27)
s2X ≈
1
N ·K
N ·K
∑
i=1
(x(ti)− X̄)
2. (28)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-7)
Dica Prática!
(5) Analisar a plausibilidade das seguintes hipóteses:
A média é constante, ou seja, M̄ ≈ X̄.
A variância é constante, ou seja, V̄ ≈ s2
X
.
(6) Se as hipóteses forem verdadeiras, então pode-se assumir com
relativa segurança que o processo é ergódico e estacionário.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-8)
Exercício Resolvido
Considere o seguinte processo estocástico:
X(t) = A sinωt (29)
em que A é uma variável aleatória gaussiana de média zero e
variância σ2A, ω é uma constante de valor conhecido e t
corresponde ao tempo contínuo.
Suponha que obtemos um valor amostral para A, denotado
por A1. Assim, a realização correspondente de X(t) para esse
valor de A1 é dada por:
XA(t) = A1 sinωt (30)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-9)
Exercício Resolvido
Assim, usando a Eq. (22) para um sinal contínuo, obtemos:
RXA(τ) = lim
k→∞
1
k
∫ k
0
x(t)x(t+ τ)dt
= lim
k→∞
1
k
∫ k
0
A1 sinωt ·A1 sinω(t+ τ)dt
=
A21
2
cosωτ
Para resolver a integral acima usar a seguinte identidade
trigonométrica:
sin(a) · sin(b) =
1
2
cos(a− b)−
1
2
cos(a+ b)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-10)
Exercício Resolvido
Por outro lado, usando a definição teórica da FAC (Eq. (6)),
chegamos ao seguinte resultado:
RX(t1, t2) = E[X(t1)X(t2)] = E[A sinωt1 · A sinωt2]
= E[A2] sinωt1 · sinωt2
= σ2A sinωt1 · sinωt2 (31)
Como os resultados são diferentes, concluímos que este
processo não é ergódico.
Além disso, como a expressão da FAC dada na Eq. (31) não
pode ser reduzida a uma simples função de τ = t2 − t1, o
processo também não é estacionário.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Processo Autorregressivo de Ordem 1 - AR(1)
O processo AR(1) é definido pela seguinte expressão:
x(t) = a0 + a1x(t− 1) + ε(t), (32)
em que a0 ∈ R e |a1| < 1 são constantes e ε(t) ∼ N(0, σ2ε) é
uma variável aleatória gaussiana de média zero e variância σ2ε .
Além disso, a variável aleatória ε(t) tem a seguinte função de
autocorrelação teórica:
Rε(τ) =
{
σ2ε , para τ = 0
0, para τ 6= 0
(33)
Por esse motivo, a variável aleatória σ2ε é popularmente
chamada de ruído branco gaussiano aditivo.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Média de um Processo AR(1)
A média teórica de um processo AR(1) é dada por
µx = E[x(t) = E[a0 + a1x(t− 1) + ε(t),
= E[a0] + E[a1x(t− 1)] + E[ε(t)],
= a0 + a1E[x(t− 1)], (34)
em que lançamos mão do fato de o valor esperado de uma
constante ser a própria constante.
Se assumirmos que o processo AR(1) é estacionário no sentido
amplo, temos que E[x(t)] = E[x(t− 1)] = µx. Assim, a
expressão (34) pode ser resolvida para µx, resultando em
µx = a0 + a1µx ⇒ (1− a1)µx = a0
µx =
a0
1− a1
. (35)
Note que da Eq. (35) tiramos que a0 = µx(1− a1).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Variância de um Processo AR(1)
Assim, podemos reescrever a expressão de um processo AR(1)
da seguinte forma:
x(t) = a0 + a1x(t− 1) + ε(t),
= µx(1− a1) + a1x(t− 1) + ε(t), (36)
de onde resulta
x(t)− µx = a1(x(t− 1)− µx) + ε(t). (37)
Daí, a variância teórica de um processo AR(1) é dada por
σ
2
x
= E[(x(t)− µx)
2
],
= E[(a1(x(t − 1) − µx) + ε(t))
2
],
= E[a
2
1
(x(t − 1) − µx)
2
+ 2a1(x(t − 1) − µx)ε(t) + ε
2
(t)],
= a
2
1
E[(x(t− 1) − µx)
2
] + 2a1E[(x(t− 1) − µx)ε(t)] + E[ε
2
(t)],
= a
2
1
σ
2
x
+ 0 + σ
2
ε
⇒ σ
2
x
=
σ2
ε
1 − a2
1
. (38)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Variância de um Processo AR(1)
Na obtenção da Eq. (38), usamos o fato de o processo ser
estacionário. Logo,
σ2x = E[(x(t) − µx)
2] = E[(x(t− 1)− µx)
2]. (39)
Além disso, a covariância entre x(t− 1) e ε(t) é nula por
questões de causalidade.
Se ε(t) é visto como um sinal de entrada, enquanto x(t− 1) é
visto como um sinal de saída, estamos tentando correlacionar
a entrada no instante t com a saída no instante t− 1.
Seria como tentar determinar ou visualizar a resposta do
sistema antes de aplicar a entrada!
Por este motivo, temos que
E[(x(t− 1)− µx)ε(t)] = 0. (40)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação de um Processo AR(1)
A fim de obter uma expressão para Rx(τ) = E[x(t)x(t − τ)],
iremos considerar primeiro τ = 0. Além disso, sem perda de
generalidade, iremos considerar a0 = 0.
Neste caso, temos o seguinte resultado:
Rx(0) = E[x
2(t)] = σ2x. (41)
Para obter Rx(1) = E[x(t)x(t − 1)], basta multiplicar ambos
os lados da expressão do processo AR(1) e aplicar o operador
valor esperado a ambos os lados da expressão resultante.
Assim,
E[x(t)x(t− 1)] = a1E[x
2(t− 1)] + E[ε(t)x(t − 1)],
Rx(1) = a1σ
2
x, (42)
em que lançamos mão do fato de o ruído ε(t) não ser
correlacionado com valores passados de x(t).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação de um Processo AR(1)
Para τ = 2, obtemos o seguinte resultado:
E[x(t)x(t− 2)] = a1E[x(t− 1)x(t− 2)] + E[ε(t)x(t − 2)],
Rx(2) = a1Rx(1) = a
2
1σ
2
x. (43)
E para τ = 3, obtemosE[x(t)x(t− 3)] = a1E[x(t− 1)x(t− 3)] + E[ε(t)x(t − 3)],
Rx(3) = a1Rx(2) = a
3
1σ
2
x. (44)
Por indução, podemos generalizar os resultados anteriores e
obter uma expressão para Rx(τ) para qualquer τ ≥ 0:
E[x(t)x(t− τ)] = a1E[x(t− 1)x(t− τ)] + E[ε(t)x(t − τ)],
Rx(τ) = a1Rx(τ − 1) = a
τ
1σ
2
x =
σ2ε
1− a21
aτ1 . (45)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação de um Processo AR(1)
A Equação (44) pode ainda ser generalizada para qualquer τ ,
positivo, negativo ou nulo.
Para isto, basta lembrar que a FAC é uma função par, ou seja,
Rx(τ) = Rx(−τ).
Assim, chegamos à expressão final da FAC de um processo
AR(1):
Rx(τ) = σ
2
xa
|τ |
1 =
σ2ε
1− a21
a
|τ |
1 , τ = 0,±1,±2, ... (46)
em que |u| denota o valor absoluto de u.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação (Normalizada) de um Processo AR(1)
Se dividirmos a Equação (46) da FAC pela variância do
processo, obtemos a FAC normalizada, ou seja:
ρx(τ) =
Rx(τ)
σ2x
= a
|τ |
1 = a
|τ |
1 , τ = 0,±1,±2, ... (47)
em que |u| denota o valor absoluto de u.
A expressão de ρx(τ) é útil na estimação do parâmetro a1 do
modelo AR(1). Se fizermos τ = 1, teremos
a1 = ρx(1). (48)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação (Normalizada) de um Processo AR(1)
Assim, dada uma realização {x(ti)}Ni=1 do processo AR(1),
uma estimativa do coeficiente a1 a partir da FCAC amostral
para τ = 1 é dada por
â1 = ρ̂x(1) =
∑N−1
i=1 x(ti)x(ti − 1)
(N − 1)s2x
, (49)
em que s2x é a variância amostral do processo:
s2x =
∑N
i=1(x(ti)− x̄)
2
N − 1
, (50)
com x̄ =
∑N
i=1 x(ti)/N denotando a média amostral.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação de um Processo AR(1)
FAC de um processo AR(1) com a1 = 0.8 e σ2ε = 0.1
0 2 4 6 8 10 12 14 16 18 20
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
atraso temporal (τ)
F
A
C
 (
R
x(
τ)
)
FAC Processo AR(1): a
1
=0.8, σ
e
=0.1
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação de um Processo AR(1)
FAC de um processo AR(1) com a1 = −0.8 e σ2ε = 0.1
0 2 4 6 8 10 12 14 16 18 20
−0.25
−0.2
−0.15
−0.1
−0.05
0
0.05
0.1
0.15
0.2
0.25
atraso temporal (τ)
F
A
C
 (
R
x(
τ)
)
FAC Processo AR(1): a
1
=−0.8, σ
e
=0.1
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Correlação Cruzada (FCC) - Sinais Contínuos
Definição 1
Sejam X(t) e Y (t) dois sinais aleatórios estacionários de tempo
contínuo. A Função de Correlação Cruzada (FCC) entre X(t) e
Y (t) pode ser definida como:
RXY (τ) = E[X(t)Y (t+ τ)], τ = 0, 1, 2, ... (51)
=
∫ ∞
−∞
∫ ∞
−∞
xtyt+τfXtYt+τ (xt, yt+τ )dxtdyt+τ ,
em que fXtYt+τ (xt, yt+τ ) é a FDP conjunta de X(t) e Y (t+ τ).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Correlação Cruzada (FCC) (cont.-1)
Definição 2
A FCC entre X(t) e Y (t) também pode ser definida como:
RY X(τ) = E[Y (t)X(t+ τ)], τ = 0, 1, 2, ... (52)
=
∫ ∞
−∞
∫ ∞
−∞
ytxt+τfYtXt+τ (yt, xt+τ )dytdxt+τ ,
em que fYtXt+τ (yt, xt+τ ) é a FDP conjunta de Y (t) e X(t+ τ).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Propriedades da FCC
Propriedade 1
A definição de RY X(τ) dada na Eq. (52) é invariante a uma
translação de −τ .
Desta forma, RY X(τ) é também dada por:
RY X(τ) = E[Y (t− τ)X(t)] (53)
Comparando a Eq.(53) com a definição de RXY (τ) dada na
Eq.(51), percebemos que:
RXY (τ) = RY X(−τ) (54)
Logo, trocar a ordem dos índices da FCC tem o efeito de
mudar o sinal do seu argumento.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Propriedades da FCC
Propriedades 2 e 3
O valor máximo de RXY (τ) e RY X(τ) geralmente não
ocorrem para τ = 0.
Porém, pode-se mostrar que
|RXY (τ)| ≤
√
RX(0)RY (0) (55)
Para dois processos estocásticos independentes temos que:
RXY (τ) = RY X(τ) (56)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Correlação Cruzada (FCC) - Sinais Discretos
Definição
Sejam X(t) = {..., x(−2), x(−1), x(0), x(1), x(2), ...} e
Y (t) = {..., y(−2), y(−1), y(0), y(1), y(2), ...} dois sinais aleatórios
estacionários e de tempo discreto. Neste caso, as FCCs são
definidas como:
RXY (τ) =
∞
∑
t=−∞
x(t)y(t+ τ) (57)
e
RY X(τ) =
∞
∑
t=−∞
y(t)x(t+ τ), (58)
para τ = 0, 1, 2, ...
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estimação da FCC - Sinais Discretos
Definição 1
Sejam X(t) = {x(1), x(2), ..., x(N)} e
Y (t) = {y(1), y(2), ..., y(N)} duas seqüências aleatórias
finitas (e.g. sinais amostrados).
Neste caso, as FCCs podem ser estimadas por meio das
seguintes expressões:
rXY (τ) =
∑N−τ
t=1 x(t)y(t+ τ)
N − τ
(59)
e
rY X(τ) =
∑N−τ
t=1 y(t)x(t+ τ)
N − τ
, (60)
para τ = 0, 1, 2, ...
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estimação da FCC - Sinais Discretos (cont.-1)
Exemplo
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estimação da FCC - Sinais Discretos (cont.-2)
Exemplo (continuação)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído
Na prática, é comum a ocorrência de combinações aditivas de
sinais estocásticos.
Por exemplo, seja um processo Z(t) dado pela soma de dois
outros processos estacionários X(t) e Y (t):
Z(t) = X(t) + Y (t) (61)
Pode-se mostrar (exercício!) que a FAC do processo Z(t) é
dada por:
RZ(τ) = E[Z(t)Z(t+ τ)]
= RX(τ) +RY X(τ) +RXY (τ) +RY (τ) (62)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-1)
Se X(t) e Y (t) são processos não-correlacionados e ambos
têm média zero, os termos RY X(τ) = RXY (τ) são nulos,
resultando em
RZ(τ) = RX(τ) +RY (τ) (63)
Assim, concluímos a FAC de um sinal formado pela soma de
dois sinais não-correlacionados é equivalente à soma das FACs
dos sinais individuais.
Este resultado pode ser estendido para a soma de mais de dois
processos estocásticos não-correlacionados.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-2)
A Eq. (63) provê um procedimento muito interessante para ser
utilizado na prática; por exemplo, na detecção de sinais
determinísticos em um meio ruidoso, tal como um canal de
comunicação.
Nesta aplicação supõe-se que um determinado sinal
estocástico é formado por componentes determinísticas
(informação transmitida pelo meio) distorcidas por ruído e que
o ruído e a informação desejada são não-correlacionados.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-3)
Seja o sinal senoidal de amplitude unitária e período T = 50
unidades de tempo, cujo gráfico está mostrado na figura
abaixo.
0 20 40 60 80 100 120 140 160 180 200
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-4)
De acordo com o exposto na teoria, a FAC de um sinal
periódico é também periódica e possui o mesmo período do
sinal.
0 10 20 30 40 50 60 70 80 90 100
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Lag
S
am
pl
e 
A
ut
oc
or
re
la
tio
n
Sample Autocorrelation Function (ACF)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meioao Ruído (cont.-5)
Considere agora um sinal totalmente aleatório (ruído branco),
gaussiano, de média 0 e variância 1.
0 20 40 60 80 100 120 140 160 180 200
−3
−2
−1
0
1
2
3
Tempo 
Ruido Branco N(0,1) 
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-6)
De acordo com a teoria, a FAC do ruído branco é nula, exceto
para τ = 0. A FAC estimada a partir do sinal mostrado na
figura anterior é mostrado abaixo.
0 10 20 30 40 50 60 70 80 90 100
−0.5
0
0.5
1
Lag
S
am
pl
e 
A
ut
oc
or
re
la
tio
n
Sample Autocorrelation Function (ACF)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-7)
Considere agora um sinal formado pela soma da senóide com o
ruído branco. Este sinal é mostrado abaixo.
0 20 40 60 80 100 120 140 160 180 200
−4
−3
−2
−1
0
1
2
3
4
Tempo 
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-9)
Pergunta Desafio
Você poderia confirmar só no “olhômetro”, que este sinal
estocástico é uma senóide contaminada com ruído branco?
De acordo com a teoria, a FAC de dois sinais
não-correlacionados é a soma das FACs dos sinais individuais.
Vamos ver se isto se confirma?
A FAC do sinal ruidoso estimada diretamente a partir do sinal
observado é mostrada no próximo slide.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-10)
0 10 20 30 40 50 60 70 80 90 100
−0.5
0
0.5
1
Lag
S
am
pl
e 
A
ut
oc
or
re
la
tio
n
Sample Autocorrelation Function (ACF)
Assim, concluímos que a FAC pode ser usada para detectar
estruturas determinísticas periódicas imersas em sinais
estocásticos, podendo inclusive estimar o período do sinal
determinístico.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Densidade Espectral de Potência
Definição
Seja um processo estocástico X(t) contínuo, estacionário e de
média nula. A Função Densidade Espectral de Potência (FDE) de
X(t) é definida como:
SX(jω) = F [RX(τ)] =
∫ ∞
−∞
RX(τ)e
−jωτdτ (64)
em que
F [·] é a transformada de Fourier do sinal.
RX(τ) = E[X(t)X(t − τ)] é a FAC de X(t).
ω = 2πf (rad/s) é a freqüência angular.
A Eq. (64) é conhecida como relação de Wiener-Khinchin em
homenagem aos seus proponentes.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Densidade Espectral de Potência (cont.-1)
Seja a transformada de Fourier inversa de SX(jω) dada por:
F−1[SX(jω)] =
1
2π
∫ ∞
−∞
SX(jω)e
jωτdω = RX(τ) (65)
Então, é possível definir o valor quadrático médio de um
processo estacionário, dada sua FDE.
Para isto, basta fazer τ = 0 na Eq. (65), ou seja:
RX(0) = E[X
2(t)] =
1
2π
∫ ∞
−∞
SX(jω)dω (66)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Densidade Espectral de Potência (cont.-2)
A Eq. (66) sugere que a potência do sinal está distribuída em
freqüência de acordo com SX(jω).
É nesta interpretação que está a origem dos termos densidade
e potência na nomenclatura adotada para a Eq. (64).
Com base na Eq. (65), pode-se obter a potência média P̄ em
uma banda-passante finita integrando SX(jω) na faixa
apropriada de freqüências:
P̄ω1≤ω≤ω2 [X(t)] =
1
2π
∫ −ω1
−ω2
SX(jω)dω +
1
2π
∫ ω2
ω1
SX(jω)dω
para ∀ω1, ω2 > 0.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Densidade Espectral de Potência (cont.-3)
Pode-se fazer os seguintes comentários sobre a relação entre FDE e
a FAC:
⇒ As funções RX(τ) e SX(jω) são pares transformados. Assim,
ambos contém a mesma informação estatística sobre o
processo.
⇒ Visto que se pode ir e vir entre os domínios do tempo e da
freqüência, a escolha de uma das formas é apenas uma
questão de conveniência!
⇒ Devido aos atributos de RX(τ), a sua transformada de Fourier
dada por SX(jω) será sempre uma função real, não-negativa e
simétrica de ω.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Densidade Espectral Cruzada
Definições
A FDE Cruzada (FDEC) entre dois processos estacionários
contínuos, X(t) e Y (t), pode ser definida de duas formas:
SXY (jω) = F [RXY (τ)] =
∫ ∞
−∞
RXY (τ)e
−jωτdτ (67)
SY X(jω) = F [RY X(τ)] =
∫ ∞
−∞
RY X(τ)e
−jωτdτ (68)
em que RXY (τ) e RY X(τ) são as respectivas FCC cruzadas de
X(t) e Y (t).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FDE Cruzada de Dois Sinais Aleatórios (cont.-1)
Comentário Importante 1
As funções RXY (τ) e RY X(τ) não são necessariamente
funções pares de τ !!
Logo, as funções SXY (jω) e SY X(jω) correspondentes não
são, em geral, funções reais de ω.
Comentário Importante 2
De fato, mostrou-se anteriormente que RXY (τ) = RY X(−τ).
Neste caso, as funções SXY (jω) e SY X(jω) são pares
complexos conjugados, ou seja:
SXY (jω) = S
∗
Y X(jω)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FDE Cruzada de Dois Sinais Aleatórios (cont.-2)
Função Coerência
A FDE Cruzada Normalizada, chamada de Função
Coerência, de dois processos estacionários X(t) e Y (t) é
definida como:
γXY (jω) =
SXY (jω)
√
SX(jω)
√
SY (jω)
. (69)
O valor absoluto quadrático de γXY (jω) é dado por:
|γXY |
2 =
|SXY (jω)|
2
SX(jω)SY (jω)
, (70)
tal que 0 ≤ γ2XY ≤ 1.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FDE Cruzada de Dois Sinais Aleatórios (cont.-3)
Resultado Importante
Seja Z(t) um sinal aleatório dado pela soma de dois outros
sinais não-correlacionados, X(t) e Y (t).
A FDE de Z(t) é então dada por
SZ(jω) = F [RX+Y (τ)] = SX(jω) + SY (jω), (71)
visto que SXY (jω) = SY X(jω) = 0, ∀ω.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma
Definição: Periodograma
Seja F [XT (t)] a transformada de Fourier de uma versão
“truncada", XT (t), de um processo estacionário X(t).
Define-se o periodograma de qualquer realização particular de
XT (t) como a seguinte quantidade:
Periodograma[XT (t)] =
1
T
|F [XT (t)]|
2 (72)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma (cont.-1)
O interesse prático no cálculo do periodograma está no fato de
que seu valor esperado, para T → ∞, fornece uma estimativa
não-paramétrica da FDE de XT (t).
Numericamente,tem-se que:
E
[
lim
T→∞
1
T
|F [XT (t)]|
2
]
=
∫ ∞
−∞
RX(τ)e
−jωτdτ (73)
A Eq. (73) é de fundamental importância pois é ela que faz a
conexão da função SX(jω) com o conceito de “espectro"no
sentido clássico.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier
Considere um sinal de banda-passante na faixa 0 a W Hz.
O teorema de Nyquist/Shannon diz que a taxa de amostragem
do sinal deve ser de pelo menos 2W amostras/segundo.
Seja o número N de amostras do sinal. Assim, o intervalo de
tempo T varrido pelas amostras é
T =
N
2W
Seja o sinal truncado XT (t) representado agora por g(t).
Assim, sua transformada de Fourier é dada por:
G(jω) =
∫ T
0
g(t)e−jωtdt (74)
em que assume-se que g(t) ∈ ℜ, ∀t ∈ [0, T ].
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier (cont.-1)
Considere agora uma discretização de G(jω) dada por:
G(jn2π∆f) ≈
N−1
∑
k=0
gke
−jn2π∆fk∆T∆T (75)
em que
gk = g(tk), k = 0, 1, . . . , N − 1
∆T =
1
2W
= espaço entre amostras no domínio do tempo
∆f =
2W
N
= espaço entre amostras no domínio da freqüência
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos EstocásticosTransformada Discreta de Fourier (cont.-2)
Nota-se que ∆f ·∆T = 1
N
. Assim, a Eq. (75) pode ser
reescrita como:
G(jn2π∆f)∆f ≈
1
N
N−1
∑
k=0
gk exp
{
−j
2πnk
N
}
(76)
Dada a seqüência g0, g1, ..., gN−1, o lado direito da Eq. (76)
gera uma outra seqüência G0,G1, ...,GN−1, dada por:
Gn =
1
N
N−1
∑
k=0
gk exp
{
−j
2πnk
N
}
, n = 0, 1, ..., N − 1 (77)
em que Gn não são valores exatos de G(jω), mas sim boas
aproximações destas.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier (cont.-3)
Dada a seqüência {Gn}
N−1
n=0 , pode-se mostrar que existe a
seguinte relação inversa exata:
gk =
N−1
∑
n=0
Gn exp
{
j
2πnk
N
}
, k = 0, 1, ..., N − 1 (78)
As seqüências {Gn} e {gk} formam um par-transformado de
Fourier, ou seja, dado uma delas pode-se achar a outra.
A seqüência {Gn} é chamada de Transformada Discreta de
Fourier de gk, enquanto {gk} é a transformada inversa {Gn}.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier (cont.-4)
Comentários Importantes sobre DFT
(1) A seqüência |G0|2, |G1|2, ..., define uma aproximação da FDE
do sinal, pois envolve apenas uma única realização.
(2) A DFT foi responsável pela popularização do método do
periodograma. Quanto maior N maior a resolução e a
confiabilidade do resultado.
(3) A implementação algorítmica da DFT exige um número de
multiplicações da ordem de N2.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier (cont.-5)
Comentários Importantes sobre DFT (cont.)
(4) Implementações computacionalmente eficientes da DFT,
chamadas de Transformadas Rápidas de Fourier (FFT),
requerem multiplicações da ordem de N log2 N .
(5) Todos os algoritmos do tipo FFT exigem que o número de
amostras N seja uma potência inteira de 2.
(6) Se N é pequeno e uma boa resolução no domínio da
freqüência é requerida, então é melhor usar a DFT da Eq. (77).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma no Matlab/Octave
Senóide com Harmônico e Ruído
1 Freqüência Fundamental: F0 = 440Hz
2 Freqüência de Amostragem: Fs = 10000Hz
3 Duração do sinal: T = 3s
4 Desvio-padrão do ruído: σruido = 0.1
» F0=440;
» Fs=10000;
» T=3;
» dpr=0.1;
» t=0:1/Fs:T-1/Fs; % instantes de amostragem
» x=sin(2*pi*F0*t)+0.5*sin(2*pi*3*F0*t)+dpr*randn(size(t));
» plot(t(1:100),x(1:100)) % plota primeiras 100 amostras
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma no Matlab/Octave
0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
−1.5
−1
−0.5
0
0.5
1
1.5
Tempo (segundos)
A
m
p
lit
u
d
e
Figura : Primeiras 100 amostras do sinal senoidal ruidoso gerado.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma no Matlab/Octave
Estimação da PSD Usando FFT
» N=length(x);
» xdft=fft(x); % transformada rapida Fourier
» xdft=xdft(1:N/2+1); % Seleciona N/2+1 amostras se N par
» Pxx = (1/(Fs*N)) * abs(xdft).∧2; % Aplica Eq.(76)
» Pxx(2:end-1) = 2*Pxx(2:end-1);
» Freq = 0:Fs/N:Fs/2; % Fs=2W => W=Fs/2
» Pyy=10*log10(Pxx); % Escala logaritmica
» figure; plot(Freq, Pxx); % grafico escala linear
» figure; plot(Freq, Pyy); % grafico escala logaritmica
Observação - Se o o número N de amostras do sinal é ímpar,
trocar a linha 3 por:
» xdft=xdft(1:(N+1)/2); % Seleciona (N+1)/2 amostras se N impar
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma no Matlab/Octave
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
P
o
te
n
c
ia
/F
re
q
u
e
n
c
ia
 (
W
a
tt
s
/H
z
)
Frequencia (Hz)
Periodograma Usando FFT
Figura : Estimativa da PSD usando FFT (escala linear).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma no Matlab/Octave
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000
−120
−100
−80
−60
−40
−20
0
20
Periodograma Usando FFT
Frequencia (Hz)
P
o
te
n
c
ia
/F
re
q
u
e
n
c
ia
 (
d
B
/H
z
)
Figura : Estimativa da PSD usando FFT (escala logaritmica - decibel).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Parte II
Gráfico de Dispersão (lagplot)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráfico de Dispersão (lagplot)
Definição
Técnica qualitativa (gráfica) que avalia a correlação serial das
amplitudes do sinal através do gráfico de dispersão.
Implementação
Considere o seguinte sinal de tempo discreto:
X = {x(1), x(2), x(3), ...., x(N)}.
O lagplot consiste em gerar o gráfico de um conjunto de pares
ordenados:
[x(n), x(n − τ)], n = τ + 1, . . . , N (79)
em que a constante τ (τ > 0), chamada de lag, é um
nÃomero inteiro que define ao distânciamento temporal entre
as amplitudes do sinal.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráfico de Dispersão (lagplot)
Comentários
Em geral, é necessário plotar lagplots para vários lags para se
ter uma idéia da persistência da memória.
Em outras palavras, vários lagplots são necessários para avaliar
quanto tempo dura a influência dos valores passados sobre o
valor atual do sinal.
A influência pode ser dos valores passados sobre o valor atual
pode ser positiva, negativa ou nula.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráfico de Dispersão (lagplot)
Exemplo 1
Considere um sinal de tempo discreto X, de comprimento
N = 1000.
Lagplot (τ = 1)
Os pares ordenados que formam o lagplot para τ = 1 são definidos
como:
[x(n), x(n − 1)], n = 2, ...., 1000. (80)
Ou seja,
[x(2), x(1)], [x(3), x(2)], · · · , [x(1000), x(999)]. (81)
c© G. A. Barreto Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráfico de Dispersão (lagplot)
Exemplo 2
Considere novamente um sinal de tempo discreto X, de
comprimento N = 1000.
Lagplot (τ = 2)
Os pares ordenados que formam o lagplot para τ = 2 são definidos
como:
[x(n), x(n − 2)], n = 3, ...., 1000. (82)
Ou seja,
[x(3), x(1)], [x(4), x(2)], · · · , [x(1000), x(998)]. (83)
E assim sucessivamente para outros lagplots do mesmo sinal
(i.e.τ = 3, ..., 1000).
c© G. A. Barreto Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráficos de Típicos
Lagplot (τ = 1) - correlação positiva
O lagplot de um sinal cujas as amplitudes distanciadas de τ = 1
estão positivamente correlacionadas é mostrado a seguir.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráficos de Típicos (cont.-1)
Lagplot (τ = 1) - correlação nula
O lagplot de um sinal cujas as amplitudes distanciadas de τ = 1
não são correlacionadas é mostrado abaixo.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráficos de Típicos (cont.-2)
Lagplots (τ = 1, 2) - Processo AR(1):x(n) = 0.6x(n − 1) + v(n)
Os lagplots para τ = 1 e 2 de um processo AR(1) são mostrados
abaixo. O ruído é branco gaussiano com variância 1.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráficos de Típicos (cont.-2)
Lagplots (τ = 3, 4) - Processo AR(1):x(n) = 0.6x(n − 1) + v(n)
Os lagplots para τ = 3 e 4 de um processo AR(1) são mostrados
abaixo. O ruído é branco gaussiano com variância 1.
c© G. A. Barreto Fundamentos de Processos Estocásticos
Função de Autocorrelação
Código Matlab/Octave - Lagplots Processo AR(1)
c© G. A. Barreto Fundamentos de Processos Estocásticos
	Fundamentos de Processos Estocásticos
	Gráfico de Dispersão (lagplot)

Outros materiais