Baixe o app para aproveitar ainda mais
Prévia do material em texto
ANA´LISE DE TRANSIENTE DOS ALGORITMOS ℓ0-SIGN-LMS E ℓ0-SIGN-NLMS Leonardo Oliveira dos Santos Projeto de Graduac¸a˜o apresentado ao Curso de Engenharia Eletroˆnica e de Computac¸a˜o da Escola Polite´cnica, Universidade Federal do Rio de Janeiro, como parte dos requisitos necessa´rios a` obtenc¸a˜o do t´ıtulo de Enge- nheiro. Orientadores: Mariane Rembold Petraglia Diego Barreto Haddad Rio de Janeiro, RJ - Brasil Janeiro de 2017 1 UNIVERSIDADE FEDERAL DO RIO DE JANEIRO Escola Polite´cnica - Departamento de Eletroˆnica e de Computac¸a˜o Centro de Tecnologia, bloco H, sala H-217, Cidade Universita´ria Rio de Janeiro - RJ CEP 21949-900 Este exemplar e´ de propriedade da Universidade Federal do Rio de Janeiro, que podera´ inclu´ı-lo em base de dados, armazenar em computador, microfilmar ou adotar qualquer forma de arquivamento. E´ permitida a menc¸a˜o, reproduc¸a˜o parcial ou integral e a transmissa˜o entre bibli- otecas deste trabalho, sem modificac¸a˜o de seu texto, em qualquer meio que esteja ou venha a ser fixado, para pesquisa acadeˆmica, comenta´rios e citac¸o˜es, desde que sem finalidade comercial e que seja feita a refereˆncia bibliogra´fica completa. Os conceitos expressos neste trabalho sa˜o de responsabilidade do(s) autor(es). 4 DEDICATO´RIA Ao meu pai Delcides. A` minha ma˜e Moˆnica. Aos meus amigos do Zueira. 5 AGRADECIMENTO Eu gostaria muito escrever um texto bonito pra mostrar o qua˜o grato eu sou a`s pessoas que percorreram comigo esse caminho tortuoso ate´ aqui, mas essas mesmas pessoas sabem que me expressar na˜o e´ uma das minhas qualidades. Enta˜o, eu queria apenas agredecer a toda minha famı´lia e aos meus amigos Carlos Lordelo, Diego Freitas, Fa´bio Oliveira, Felipe Feitosa, Felipe Gonza´lez, Felipe Petraglia, Gabriel Torres, Gustavo Nunes, Henrique Dias, Joa˜o Victor, Ju´lio Vargas, Lucas Oliveira, Michel Morais. Gostaria ainda de fazer um agredecimento em especial aos meus orientadores: prof. Diego Haddad e profa. Mariane Petraglia por todo apoio e disponibilidade. 6 RESUMO Sistemas esparsos sa˜o comuns nas mais diversas a´reas de aplicac¸a˜o da filtragem adaptativa, dentre elas controle, engenharia biome´dica e cancelamento de eco. Algo- ritmos capazes de usar essa propriedade para acelerar a convergeˆncia e/ou melhorar o erro em regime permanente veˆm ganhando cada vez mais destaque na comunidade acadeˆmica. Motivado por essas experieˆncias positivas, este trabalho apresenta uma ana´lise teo´rica do transiente e do regime permanente dos algoritmos ℓ0-sign-LMS e ℓ0-sign- NLMS, a qual e´ efetuada atrave´s do ca´lculo recursivo da matriz de autocorrelac¸a˜o dos desvios. Durante a ana´lise sa˜o assumidas algumas suposic¸o˜es comuns na literatura, embora tenha sido evitada a hipo´tese muito frequente de que o sinal de entrada e´ branco. Ao final, sa˜o efetuadas diversas simulac¸o˜es para avaliar o desempenho do modelo estoca´stico proposto perante simulac¸o˜es computacionais dos algoritmos adaptativos sob ana´lise. Palavras-Chave: filtragem adaptativa, ca´lculo recursivo da matriz de autocorrelac¸a˜o dos desvios, ℓ0-sign-LMS, ℓ0-sign-NLMS, identificac¸a˜o de sistemas esparsos, ana´lise de transiente. 7 ABSTRACT Sparse systems are common in the most diverse areas of application of adaptive fil- tering, including control, biomedical engineering and echo cancellation. Algorithms able to use this property to accelerate convergence and/or improve steady state error has been gaining increasing prominence in the academic community. Motivated by these positive experiences, this work presents a theoretical analy- sis of the ℓ0-sign-LMS and ℓ0-sign-NLMS algorithms, which is done by calculating recursively the autocorrelation matrix of the weight vector deviations. During the analysis some assumptions already present in the literature are assumed, without the restriction of a white input signal. The derivation of the proposed model is presented in details. At the end, several simulations are performed to evaluate the performance of the proposed model compared to the practical realization of the adaptive filter. Key-words: Adaptive filtering, recursive autocorrelation matrix calculation, ℓ0-sign- LMS, ℓ0-sign-NLMS, sparse system identification, transient analysis. 8 Lista de Figuras 2.1 Diagrama de blocos de um algoritmo adaptativo. . . . . . . . . . . . 16 3.1 (a) Valores dos coeficientes do filtro adaptativo w(k) ao longo das iterac¸o˜es. (b) Fρ[w(k)] para ρ = 2, ρ = 4, ρ = 6 e ρ = 20. . . . . . . . 24 3.2 (a) fρ[wi(k)] quando i = 7 e ρ = 6. (b) fρ[wi(k)] quando i = 3 e ρ = 6. 25 5.1 Desempenho do algoritmo ℓ0-sign-LMS. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). . . . . . . . . . . . . . 40 5.2 Desempenho do algoritmo ℓ0-sign-NLMS. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). . . . . . . . . . . . . . 41 5.3 (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-LMS com β variando. Emp´ırico (em azul) e teo´rico (em vermelho).(b) Comportamento de β ao longo das iterac¸o˜es. . . . . . . . . . . . . . . . . . . . . . . . . . 42 5.4 (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-NLMS com β variando. Emp´ırico (em azul) e teo´rico (em vermelho).(b) Comportamento de β ao longo das iterac¸o˜es. . . . . . . . . . . . . . . . . . . . . . . . . . 43 5.5 (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-LMS com σ2ν variando. Emp´ırico (em azul) e teo´rico (em vermelho).(b) Comportamento de σ2ν ao longo das iterac¸o˜es. . . . . . . . . . . . . . . . . . . . . . . . . 44 5.6 (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-NLMS com σ2ν vari- ando. Emp´ırico (em azul) e teo´rico (em vermelho).(b) Comporta- mento de σ2ν ao longo das iterac¸o˜es. . . . . . . . . . . . . . . . . . . . 45 5.7 (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-LMS para κ = 10−10, κ = 10−7. Emp´ırico (em azul, com 10000 me´dias de Monte Carlo) e teo´rico (em vermelho).(b) “Zoom” na regia˜o de interesse demarcada por um retaˆngulo em (a). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 9 5.8 (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-NLMS para κ = 10−10, κ = 10−7. Emp´ırico (em azul, com 2500 me´dias de Monte Carlo) e teo´rico (em vermelho).(b) “Zoom” na regia˜o de interesse demarcada por um retaˆngulo em (a). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 5.9 Desempenho do algoritmo ℓ0-sign-LMS em regime permanente para diferentes valores de β. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). . . . . . . . . . . . . . . . . . . . . . . 48 5.10 Desempenho do algoritmo ℓ0-sign-NLMS em regime permanente para diferentes valores de β. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). . . . . . . . . . . . . . . . . . . . . . . 49 5.11 Desempenho do algoritmo ℓ0-sign-LMS em regime permanente para diferentes valores de κ. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). . . . . . . . . . . . . . . . . . . . . . . 50 5.12 Desempenho do algoritmo ℓ0-sign-NLMS em regime permanente para diferentes valores de κ. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). . . . . . . . . . . . . . . . . . . . . . . 51 5.13 Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-LMS em regime perma- nente para diferentes valores de ρ e para σ2ν = 10−2, σ2ν = 10−3 e σ2ν = 10−4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 5.14 Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-NLMS em regime perma- nente para diferentes valores de ρ e para σ2ν = 10−2, σ2ν = 10−3 e σ2ν = 10−4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 10 Suma´rio 1 Introduc¸a˜o13 1.1 Contexto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2 Objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.3 Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.4 Conteu´do do Trabalho . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2 Filtragem Adaptativa 15 2.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2 Algoritmo LMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3 Algoritmo NLMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.4 Algoritmo Sign-error . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.5 Conclusa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3 Identificac¸a˜o de Sistemas Esparsos 22 3.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.2 PNLMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.3 ℓ0-LMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.4 Conclusa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 4 Ana´lise de transiente 27 4.1 Me´todos de ana´lise . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 4.2 Alguns comenta´rios sobre as hipo´teses . . . . . . . . . . . . . . . . . 28 4.3 Descric¸a˜o dos momentos de primeira e segunda ordens . . . . . . . . 29 4.4 Conclusa˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 5 Resultados 39 11 6 Conclusa˜o 54 12 Cap´ıtulo 1 Introduc¸a˜o 1.1 Contexto Historicamente, a abordagem parame´trica tem sido a abordagem principal da engenharia para processamento de sinais, sendo baseada em modelos derivados de conhecimento a priori concernente ao problema em questa˜o. Por outro lado, a abordagem na˜o-parame´trica e´ baseada no uso de modelos mais gene´ricos, treina- dos para replicar comportamentos desejados usando informac¸o˜es estat´ısticas de um agrupamento de dados. Filtros adaptativos sa˜o, na verdade, baseados em uma abor- dagem situada entre esses dois extremos [1, 2]. Quando o conhecimento pre´vio de um processo dinaˆmico e de suas estat´ısticas e´ limitado, o concurso de filtros adapta- tivos pode resultar em uma melhora no desempenho, comparativamente aos filtros parame´tricos convencionais. Ale´m disso, eles podem oferecer outras vantagens para o processamento de sinais. Consequentemente, filtros adaptativos esta˜o sendo usa- dos em diversas aplicac¸o˜es, incluindo comunicac¸o˜es, controle, robo´tica, biome´dica, entre outros [3, 4, 5]. Motivado por isso, este trabalho propo˜e um estudo sobre o comportamento desses algoritmos para ajudar o projetista a entender como e´ o pro- cesso de aprendizagem do filtro de sorte a possibilitar a escolha do algoritmo mais apropriado (ou de seus paraˆmetros) para o problema em questa˜o. 13 1.2 Objetivo O objetivo deste trabalho consiste em efetuar uma ana´lise dos algoritmos ℓ0-sign-LMS e ℓ0-sign-NLMS e, enta˜o, propor um modelo estoca´stico capaz de pre- ver o comportamento dos algoritmos citados. Desta forma, tem-se como objetivos espec´ıficos: (1) estimar de modo recursivo a matriz de autocorrelac¸a˜o dos desvios dos coeficientes; (2) calcular me´tricas de desempenho a cada iterac¸a˜o, no caso, o erro quadra´tico me´dio (MSE, do ingleˆs: Mean Square Error) e o desvio quadra´tico me´dio (MSD, do ingleˆs: Mean Square Deviation). 1.3 Metodologia Este trabalho visa estimar o comportamento me´dio dos algoritmos sob ana´lise. Para tanto, usa o me´todo do ca´lculo recursivo da matriz de autocorrelac¸a˜o dos des- vios. Tal te´cnica consiste em determinar equac¸o˜es a diferenc¸as recursivas que con- sigam prever o comportamento de Rw˜(k) = E[w˜(k)w˜T (k)], onde w˜(k) e´ o vetor de desvio dos coeficientes adaptativos na k-e´sima iterac¸a˜o. Estimada tal matriz de autocorrelac¸a˜o para cada iterac¸a˜o, podemos inferir a evoluc¸a˜o das me´tricas de desempenho MSE e MSD. 1.4 Conteu´do do Trabalho Este trabalho foi dividido em treˆs partes. Na primeira parte, formada pelos Cap´ıtulos 1, 2 e 3, e´ feita uma introduc¸a˜o sobre o trabalho e uma revisa˜o sobre filtragem adaptativa e sistemas esparsos. Na segunda parte, formada pelo Cap´ıtulo 4, e´ feito todo o desenvolvimento do modelo proposto. Ja´ a terceira parte, formada pelos Cap´ıtulos 5 e 6, apresenta os resultados e a conclusa˜o do trabalho. 14 Cap´ıtulo 2 Filtragem Adaptativa 2.1 Introduc¸a˜o As te´cnicas de filtragem adaptativa apresentam diversas aplicac¸o˜es, dentre as quais importa destacar: engenharia biome´dica, equalizac¸a˜o de canais, cancelamento de eco e identificac¸a˜o de sistemas [6]. Filtros adaptativos apresentam duas grandes vantagens com relac¸a˜o a filtros com coeficientes fixos. A primeira e´ que, ao contra´rio de filtros com coeficientes fixos, quando se trabalha com filtros adaptativos na˜o e´ necessa´rio ter conhecimento pre´vio das caracter´ısticas do sinal de entrada, tampouco do sistema envolvido. A segunda vantagem e´ que os filtros adaptativos podem ser usados tanto para modelagem ou equalizac¸a˜o de sistemas invariantes no tempo quanto de sistemas variantes no tempo. Em um algoritmo de filtragem adaptativa, os coeficientes sa˜o atualizados recursivamente de maneira que, apo´s um nu´mero suficiente de iterac¸o˜es, o filtro possua uma estimativa adequada do sistema de refereˆncia. Tal atualizac¸a˜o costuma ser regida pelo ca´lculo do gradiente de uma func¸a˜o custo estoca´stica, o qual e´ capaz de fornecer a direc¸a˜o de atualizac¸a˜o engendrada pelo algoritmo adaptativo. Isto se deve ao fato de que uma estrate´gia muito comum para a identificac¸a˜o adaptativa de um sistema de refereˆncia consistir na minimizac¸a˜o de uma func¸a˜o custo. Para isso e´ calculado o gradiente dessa func¸a˜o, ja´ que o gradiente aponta para a direc¸a˜o de maior crescimento da func¸a˜o, e a atualizac¸a˜o e´ feita no sentido contra´rio ao do gradiente (pois, afinal, o objetivo consiste em minimizar uma func¸a˜o custo). A Figura 2.1 mostra a estrutura de um algoritmo adaptativo (aplicado a` iden- 15 x(k) wo w(k) y(k) − + + d(k) ν(k) e(k) Figura 2.1: Diagrama de blocos de um algoritmo adaptativo. tificac¸a˜o de sistemas, foco deste projeto), cujos coeficientes do filtro de comprimento N podem ser coletados no vetor w(k) definido por: w(k) , [ w0(k) w1(k) . . . wN−1(k) ]T , (2.1) sendo a sa´ıda do filtro no instante k definida por y(k) , wT (k)x(k), com o vetor de entrada x(k) descrito por: x(k) = [ x(k) x(k − 1) . . . x(k −N + 1) ]T , (2.2) onde k representa a k-e´sima iterac¸a˜o. Cabe ressaltar que neste trabalho todos os vetores envolvidos sa˜o do tipo coluna. Apo´s um nu´mero suficiente de iterac¸o˜es, e´ esperado que y(k) seja similar ao valor de refereˆncia d(k) = (wo)Tx(k)+ν(k), sendo wo o vetor que conte´m os coeficientes a serem identificados e definido por: w(k) , [ wo0(k) wo1(k) . . . woN−1(k) ]T , (2.3) e ν(k) um ru´ıdo somado ao sinal de refereˆncia, geralmente atribu´ıdo a erros de medic¸a˜o e/ou de modelagem. 2.2 Algoritmo LMS O algoritmo de mı´nimos quadrados (LMS, do ingleˆs Least-Mean Squares) foi um dos primeiros algoritmos adaptativos e teve origem no algoritmo “Steepest Descent”. A ideia deste algoritmo era percorrer uma superf´ıcie, descrita aproxima- damente por uma func¸a˜o custo apropriada, ate´ o seu ponto de mı´nimo. A func¸a˜o 16 custo a partir da qual o algoritmo LMS foi derivado e´ o valor quadra´tico me´dio do erro (MSE) entre o sinal de refereˆncia e a sa´ıda do filtro adaptativo: F [e(k)] = E[e2(k)] = E[(d(k)−wT (k)x(k))2]. (2.4) Como ja´ foi dito anteriormente, algoritmos adaptativosna˜o raro sa˜o atuali- zados recursivamente na direc¸a˜o contra´ria ao do vetor gradiente da func¸a˜o custo. Portanto, podemos escrever a equac¸a˜o de atualizac¸a˜o da seguinte forma: w(k + 1) = w(k)− β∂F [e(k)] ∂w(k) , (2.5) onde ∂F [e(k)] ∂w(k) e´ o vetor gradiente de uma func¸a˜o do erro instantaˆneo e β e´ uma cons- tante de proporcionalidade (“step size”) utilizada para evitar saltos muito grandes durante o processo de aprendizagem do filtro, fazendo com que o algoritmo convirja sem experimentar grandes oscilac¸o˜es, as quais degradam seu desempenho, particu- larmente em regime permanente. Para a func¸a˜o custo MSE da equac¸a˜o (2.4), o vetor gradiente e´ dado por: ∂E [e2(k)] ∂w(k) = E [ ∂e2(k) ∂w(k) ] = E [ 2e(k) ∂e(k) ∂w(k) ] = E [ 2e(k)∂(d(k)−wT (k)x(k)) ∂w(k) ] = −2E [e(k)x(k)] (2.6) Aplicando a equac¸a˜o acima na equac¸a˜o de atualizac¸a˜o dos coeficientes do filtro, obtemos: w(k + 1) = w(k) + 2E[e(k)x(k)] = w(k) + βE[x(k)(d(k)− xT (k)w(k))] = w(k) + β(pdx(k)−Rxx(k)w(k)) (2.7) conhecida como equac¸a˜o de atualizac¸a˜o do algoritmo “Steepest Descent”. Vale no- tar que com esse algoritmo ainda e´ necessa´rio estimar caracter´ısticas do sinal de entrada, como a matriz autocorrelac¸a˜o do sinal de entrada definida por Rxx(k) , E[x(k)xT (k)]. O sinal de entrada, como sera´ mostrado mais a frente, e´ assumido ser estaciona´rio no sentido amplo (WSS, do ingleˆs: Wide Sense Stacionary), e a correlac¸a˜o cruzada de d(k) com x(k), a qual tambe´m cumpre estimar, e´ definida por pdx(k) = E[d(k)x(k)]. Por isso, no algoritmo LMS foi proposta a adoc¸a˜o do 17 gradiente de uma estimativa do MSE, de sorte a usar a func¸a˜o custo instantaˆnea FLMS[e(k)] = e2(k). Portanto, a equac¸a˜o de atualizac¸a˜o para o caso do LMS pode ser escrita da seguinte forma: w(k + 1) = w(k) + 2β′e(k)x(k) = w(k) + βx(k)e(k), (2.8) onde 2β′ = β. 2.3 Algoritmo NLMS Nesta sec¸a˜o, apresentaremos o algoritmo de mı´nimos quadrados normalizado (NLMS, do ingleˆs Normalized Least-Mean Squares). O funcionamento desse algo- ritmo e´ muito similar ao do seu antecessor (o LMS). A principal diferenc¸a reside no fato de que, conforme o pro´prio nome revela, o termo de atualizac¸a˜o dos coeficien- tes do filtro e´ normalizado pela norma euclidiana (||.||2) do vetor de entrada x(k). Essa normalizac¸a˜o com relac¸a˜o ao sinal de entrada e´ muito interessante porque faz com que o passo de aprendizagem seja inversamente proporcional a` energia do ve- tor x(k). Tal propriedade permite que o algoritmo convirja mais rapidamente em momentos em que o sinal de entrada e´ mais uniforme e evite saltos quando o sinal sofre alterac¸o˜es mais bruscas [7]. Na sec¸a˜o anterior, derivamos o algoritmo LMS a partir de uma func¸a˜o custo apropriada. Como o algoritmo NLMS trata-se apenas de uma normalizac¸a˜o do termo de atualizac¸a˜o do algoritmo anterior, ele possui uma equac¸a˜o de atualizac¸a˜o dos coeficientes semelhante, como mostrado abaixo: w(k + 1) = w(k) + β||x(k)||2 + δx(k)e(k), (2.9) onde δ e´ uma constante comumente usada para evitar diviso˜es por zero. E´ poss´ıvel derivar a equac¸a˜o do NLMS por meio da otimizac¸a˜o de uma func¸a˜o custo com restric¸a˜o. A ideia e´ minimizar a norma da diferenc¸a entre os coeficientes do filtro de refereˆncia e o filtro adaptativo. Para isso, definamos o erro a posteriori ep(k) no instante k por: 18 ep(k) , d(k)−wT (k + 1)x(k). (2.10) Agora, basta resolver o problema de otimizac¸a˜o com restric¸a˜o abaixo. minw(k+1) ||w(k + 1)−w(k)||2 sujeito a ep(k) = (1− β)e(k). (2.11) Para resolver esse problema, recorremos aos multiplicadores de Lagrange: F = ||w(k + 1)−w(k)||2 + λep(k) = ||w(k + 1)||2 − 2wT (k + 1)w(k) + ||w(k)||2 + λep(k). (2.12) Para achar o mı´nimo dessa func¸a˜o em relac¸a˜o w(k + 1), basta calcular seu gradiente em func¸a˜o de w(k) e iguala´-la a zero, logo: ∂F ∂w(k + 1) = 2w(k + 1)− 2w(k)− λx(k) = 0 (2.13) w(k + 1) = w(k) + λx(k)2 . (2.14) Igualando as duas equac¸o˜es do erro a posteriori e substituindo w(k+1) pelo resultado obtido na equac¸a˜o (2.14), temos: e(k)− βe(k) = d(k)−w(k)Tx(k)− λx(k)Tx(k)2 = e(k) + λ||x(k)||22 (2.15) λ = 2βe(k)||x(k)||2 (2.16) Da´ı podemos concluir que a equac¸a˜o de atualizac¸a˜o dos coeficientes pode ser escrita da seguinte forma: w(k + 1) = w(k) + βx(k)e(k)||x(k)||2 . (2.17) O algoritmo LMS, assim como muitos outros, tambe´m pode ser derivado utilizando multiplicadores de Lagrange [8]. No caso do LMS, o problema fica da seguinte forma: 19 minw(k+1) ||w(k + 1)−w(k)||2 sujeito a ep(k) = (1− β||x(k)||2)e(k). (2.18) Assim como no caso anterior, recorremos aos multiplicadores de Lagrange: F = ||w(k + 1)−w(k)||2 + λep(k) = ||w(k + 1)||2 − 2wT (k + 1)w(k) + ||w(k)||2 + λep(k). (2.19) Para achar o mı´nimo dessa func¸a˜o em relac¸a˜o w(k + 1), basta calcular seu gradiente em func¸a˜o de w(k) e iguala´-la a zero, logo: ∂F ∂w(k + 1) = 2w(k + 1)− 2w(k)− λx(k) = 0 (2.20) w(k + 1) = w(k) + λx(k)2 . (2.21) Igualando as duas equac¸o˜es do erro a posteriori e substituindo w(k+1) pelo resultado obtido na equac¸a˜o (2.21), temos: e(k)− β||x(k)||2e(k) = d(k)−w(k)Tx(k)− λx(k)Tx(k)2 = e(k) + λ||x(k)||22 (2.22) λ = 2βe(k) (2.23) Da´ı podemos concluir que a equac¸a˜o de atualizac¸a˜o dos coeficientes pode ser escrita da seguinte forma: w(k + 1) = w(k) + βx(k)e(k). (2.24) 2.4 Algoritmo Sign-error Nessa sec¸a˜o, sera´ apresentada uma variac¸a˜o do algoritmo LMS, o sign-error LMS e sua versa˜o normalizada. Essa variac¸a˜o do algoritmo LMS reduz o custo computacional (caso escolhamos de modo apropriado o passo de aprendizagem) e apresenta maior robustez com relac¸a˜o ao ru´ıdo [9, 10]. A func¸a˜o custo definida para esse algoritmo e´ o mo´dulo do sinal do erro (FSIGN[e(k)] = |e(k)|). Da´ı podemos 20 desenvolver a equac¸a˜o de atualizac¸a˜o apropriada para os coeficientes do filtro, como segue: w(k + 1) = w(k)− β∇F [e(k)]∇w(k) = w(k)− βsign[e(k)] ∂e(k) ∂w(k) = w(k)− βsign[e(k)]∂(d(k)−w(k)Tx(k)) ∂w(k) = w(k) + βsign[e(k)]x(k) (2.25) Na sua forma normalizada, podemos escrever: w(k + 1) = w(k) + β||x(k)||2 + δ sign[e(k)]x(k) (2.26) 2.5 Conclusa˜o Neste cap´ıtulo foi feita uma revisa˜o sobre filtragem adaptativa, e como esta e´ usada na identificac¸a˜o de sistemas que e´ o foco deste trabalho. Tambe´m foram apre- sentados o desenvolvimento dos algoritmos da famı´lia LMS que, como veremos mais adiante, e´ uma famı´lia de algoritmos adaptativos amplamente utilizada, tanto na pra´tica como no meio acadeˆmico, e muito importante como base para os algoritmos estudados neste trabalho. 21 Cap´ıtulo 3 Identificac¸a˜o de Sistemas Esparsos 3.1 Introduc¸a˜o Desde o in´ıcio dos anos 2000, muitos autores notaram que sistemas reais, recorrentemente, apresentam respostas ao impulso esparsas, sendo tais respostas ao impulso comuns em aplicac¸o˜es como canais de transmissa˜o de televisa˜o digital e cancelamento de eco [11]. Um sistema esparso e´ um sistema cuja resposta ao impulso possui muitos coeficientes de magnitude nula ou quase nula. Por se tratar de uma propriedade recorrente, a capacidade de incorpora´-la no processo de aprendizagem do filtro adap- tativo vem ganhando notoriedade por acelerar a convergeˆncia dos algoritmos e/ou diminuir o erro em regime permanente. Como nenhum dos algoritmos tradicionais da famı´lia LMS faziam uso dessa propriedade na identificac¸a˜o de sistemas, algorit- mos conscientes da esparsidade foram desenvolvidos. Tais algoritmos sa˜o capazes de aproveitar a esparsidade dos sistemas de diferentes formas, seja identificando e na˜o atualizando regio˜es inativas (isto e´, com coeficientes muito pro´ximos de zero) [12, 13], seja propondouma atualizac¸a˜o espec´ıfica para cada coeficiente com base em sua magnitude (algoritmos proporcionais) [14, 15, 16], ou ainda aplicando uma pena- lizac¸a˜o aos coeficientes dentro de uma determinada faixa, de forma a “empurra´-los” para zero [11, 17, 18, 19], dentre outras formas propostas na literatura [20]. 22 3.2 PNLMS Apesar do foco deste trabalho ser em algoritmos que usam a regularizac¸a˜o pela norma ℓ0, nesta sec¸a˜o e´ mostrada uma das primeiras derivac¸o˜es realizadas para se utilizar a propriedade de coeficientes esparsos, que e´ a atualizac¸a˜o proporcional dos coeficientes (PNLMS). A principal ideia deste paradigma consiste na atualizac¸a˜o proporcional dos coeficientes consoante a sua magnitude, de acordo com a seguinte equac¸a˜o de atualizac¸a˜o: w(k + 1) = w(k) + β xT (k)Λ(k)x(k) + δΛ(k)x(k)e(k), (3.1) onde a matriz Λ(k) e´ responsa´vel pela ponderac¸a˜o da atualizac¸a˜o dos coeficientes do filtro adaptativo. Embora o algoritmo PNLMS apresente ra´pida convergeˆncia inicial quando comparado ao NLMS, essa taxa sofre grande reduc¸a˜o durante o processo de con- vergeˆncia. Ale´m disso, para o caso de respostas ao impulso na˜o-esparsas, a con- vergeˆncia do PNLMS e´ mais lenta que a do NLMS [15, 21]. Para compensar esses problemas, outros algoritmos proporcionais a partir do PNLMS foram propostos em [22, 23]. 3.3 ℓ0-LMS O algoritmo ℓ0-LMS e´ uma versa˜o do LMS capaz de explorar a propriedade de esparsidade na identificac¸a˜o de sistemas, atraindo muito a atenc¸a˜o da comunidade acadeˆmica por conseguir melhorar tanto a taxa convergeˆncia como o erro de regime permanente em sistemas esparsos [18]. A mudanc¸a consiste na adic¸a˜o de um termo a` func¸a˜o custo do LMS que penaliza soluc¸o˜es pouco esparsas, sendo esta func¸a˜o descrita pela seguinte equac¸a˜o: Fℓ0−LMS(k) = e(k)2 + κ β Fρ[w(k)], (3.2) onde κ e´ um paraˆmetro empregado para controlar a penalizac¸a˜o imposta a soluc¸o˜es pouco esparsas, e a func¸a˜o Fρ[w(k)] e´ uma func¸a˜o diferencia´vel por partes que aproxima a norma ℓ0. Uma escolha comum na literatura para essa func¸a˜o, e que sera´ usada tambe´m nesse trabalho, e´ [11, 17]: 23 Fρ [w(k)] = N−1∑ n=0 ( 1− e−ρ|wn(k)| ) , (3.3) onde ρ ∈ R+ e´ um paraˆmetro arbitra´vel, o qual controla a aproximac¸a˜o da norma ℓ0, como mostrado na Figura 3.1. 500 1000 1500 2000 2500 3000 3500 4000 4500 0 0.1 0.2 500 1000 1500 2000 2500 3000 3500 4000 4500 0 2 4 6 Nu´mero de Iterac¸o˜es Nu´mero de Iterac¸o˜es(a) (b) ρ = 2 ρ = 4ρ = 6 ρ = 20 w (k ) F ρ [w (k )] Figura 3.1: (a) Valores dos coeficientes do filtro adaptativo w(k) ao longo das iterac¸o˜es. (b) Fρ[w(k)] para ρ = 2, ρ = 4, ρ = 6 e ρ = 20. A Figura 3.1(a) mostra a evoluc¸a˜o dos coeficientes do filtro adaptativo ao longo do tempo. Ja´ Figura 3.1(b) mostra a sa´ıda da func¸a˜o Fρ [w(k)] que, como podemos perceber, e´ condicionada ao valor de ρ escolhido. Vale notar como ρ atua na interpretac¸a˜o da func¸a˜o Fρ [w(k)] sobre quais coeficientes esta˜o suficiente- mente pro´ximos de zero para serem considerados esparsos, e assim sofrerem a devida atuac¸a˜o do algoritmo adaptativo, como sera´ mostrado adiante. Uma vez definida a func¸a˜o custo, e´ poss´ıvel escrever a equac¸a˜o de atualizac¸a˜o do ℓ0-LMS e do ℓ0-NLMS da seguinte forma: w(k + 1) = w(k) + β˜(k)x(k)e(k) + κf ρ[w(k)], (3.4) onde f ρ[w(k)] e´ uma aproximac¸a˜o do negativo do gradiente de Fρ[w(k)] e β˜(k) e´ o passo de aprendizado tanto para o ℓ0-LMS quanto para o ℓ0-NLMS, como mostrado abaixo: β˜(k) = β, para o algoritmo ℓ0-LMS,β xT (k)x(k)+δ , para o algoritmo ℓ0-NLMS. (3.5) 24 Vale notar que ∂Fρ[w(k)] ∂w(k) apresenta um custo computacional elevado por ter- se que calcular o resultado de uma exponencial a toda iterac¸a˜o. Por isso, sera´ empregada uma aproximac¸a˜o de baixo custo desse gradiente: fρ [wi(k)] ≈ −∂Fρ[w(k)]∂wi(k) . Tal aproximac¸a˜o e´ feita utilizando a se´rie de McLaurin, um caso particular da se´rie de Taylor, e truncando-a nos dois primeiros termos. Esse termo pode ser visto como um termo de atrac¸a˜o para zero e pode ser descrito por [11]: fρ[wi(k)] = ρ2wi(k) + ρ, −1ρ ≤ wi(k) < 0 ρ2wi(k)− ρ, 0 < wi(k) ≤ 1ρ 0, no resto. (3.6) Vale notar que a func¸a˜o fρ(x) implementa uma func¸a˜o que atrai valores de x, dentro de uma determinada faixa controlada por ρ, para 0 [11]. 1000 2000 3000 4000 −4 −2 0 1000 2000 3000 4000 −2 0 2 4 Nu´mero de Iterac¸o˜es Nu´mero de Iterac¸o˜es (a) (b) f ρ [w i(k )] f ρ [w i(k )] Figura 3.2: (a) fρ[wi(k)] quando i = 7 e ρ = 6. (b) fρ[wi(k)] quando i = 3 e ρ = 6. A Figura 3.2(a) mostra um coeficiente do filtro que na˜o e´ considerado esparso. Note que o coeficiente so´ sofre a penalizac¸a˜o imposta por fρ[wi(k)] durante um determinado tempo devido ao valor com o qual ele foi inicializado (no caso todos 25 os coeficientes do filtro adaptativo foram inicializados com 0). Ja´ figura 3.2(b) mostra um coeficiente que sempre sofre penalizac¸a˜o por se tratar de um coeficiente considerado esparso. 3.4 Conclusa˜o Neste cap´ıtulo foi feita uma revisa˜o sobre identificac¸a˜o de sistemas esparsos, e foi mostrado como vem crescendo o desenvolvimento de algoritmos adaptativos cientes dessa propriedade, ta˜o comum em diversas aplicac¸o˜es. Tambe´m foram apre- sentados os algoritmos adaptativos proporcionais e os com regularizac¸a˜o de norma ℓ0, este u´ltimo sendo o caso de interesse deste trabalho. 26 Cap´ıtulo 4 Ana´lise de transiente 4.1 Me´todos de ana´lise A ana´lise teo´rica de algoritmos adaptativos e´ de grande importaˆncia, pois cabe a ela fornecer de antema˜o informac¸o˜es sobre as caracter´ısticas e o comporta- mento do algoritmo ao projetista. Diversas te´cnicas de ana´lises foram empregadas na literatura ao longo dos anos, dentre as quais cumpre destacar: ana´lise de esperanc¸a estat´ıstica exata [24], balanceamento de energia [25] e ca´lculo recursivo da matriz de autocorrelac¸a˜o dos desvios dos coeficientes [11]. A maior parte das te´cnicas tentam estimar de maneira confia´vel a evoluc¸a˜o de duas me´tricas principais de desempenho em algoritmos adaptativos, o MSE e o MSD. Neste trabalho, e´ feita uma ana´lise dos algoritmos ℓ0-sign-LMS e ℓ0-sign- NLMS, empregando a te´cnica do ca´lculo recursivo da matriz de autocorrelac¸a˜o dos desvios. Tal te´cnica consiste em determinar equac¸o˜es a diferenc¸as que consigam prever o comportamento de Rw˜(k) , E[w˜(k)w˜T (k)], onde w˜(k) = wo −w(k) e´ o vetor de desvio dos coeficientes adaptativos na k-e´sima iterac¸a˜o. Para que a ana´lise seja poss´ıvel, e´ necessa´rio que algumas hipo´teses sejam feitas: H1: x(k), β˜(k) e w˜(k) sa˜o mutuamente independentes. H2: O ru´ıdo aditivo ν(k), de me´dia zero e variaˆncia finita, e´ branco e ide- pendente de x(k). Sua variaˆncia no instante k e´ descrita por σ2ν(k). H3: As seguintes aproximac¸o˜es sa˜o necessa´rias para que se tenha uma soluc¸a˜o 27 fechada: E {w˜i(k)fρ [wj(k)]} ≈ E {w˜i(k)}E {fρ [wj(k)]} E {fρ [wi(k)] fρ [wj(k)]} ≈ E {fρ [wi(k)]}E {fρ [wj(k)]} (4.1) H4: A distribuic¸a˜o dos coeficientes w˜i(k) e´ Gaussiana. H5: O sinal de entrada e´ estaciona´rio, gaussiano e todos os autovalores da sua matriz de autocorrelac¸a˜o sa˜o na˜o nulos. Com as hipo´teses H1 e H2, podemos calcular o MSE segundo [26]: ξ(k) , E [ e2(k) ] ≈ σ2ν(k) + Tr { RxE [ w˜(k)w˜T (k) ]} , (4.2) onde Rx = E[x(k)xT (k)] e´ a autocorrelac¸a˜o do sinal de entrada, Tr {X} e´ o trac¸o da matriz X e σ2ν(k) e´ a variaˆncia do ru´ıdo no instante k. Ja´ o MSD pode ser calculado pela seguinte equac¸a˜o: MSD(k) , E[‖wo −w(k)‖2] = Tr { E[w˜(k)w˜T (k)] } . (4.3) 4.2 Algunscomenta´rios sobre as hipo´teses Vale fazer algumas observac¸o˜es acerca das hipo´teses feitas na sec¸a˜o anterior e que sera˜o utilizadas ao longo deste cap´ıtulo. Em H1 e´ suposto que x(k), β˜(k) e w˜(k) sa˜o mutuamente idependentes. A independeˆncia entre x(k) e w˜(k) e´ uma propriedade conhecida como “independence assumption” e amplamente encontrada no meio acadeˆmico [27, 28, 26, 6]. Ja´ no que tange a independeˆncia de β˜(k) com relac¸a˜o a`s outras varia´veis aleato´rias, e´ fa´cil notar que para o caso do algoritmo LMS a hipo´tese e´ verdadeira, uma vez que β e´ uma constante que na˜o depende do valor assumido por x(k). Pore´m, no caso do algoritmo NLMS e´ preciso aplicar o “Averaging Principle” [29] na expressa˜o E[β˜(k)A], onde β˜(k) e A sa˜o varia´veis aleato´rias ditas conjuntamente estaciona´rias [30, 31, 32]. Tal princ´ıpio defende que β˜(k) varia devagar com respeito ao sinal de entrada, permitindo que E[β˜(k)A] seja aproximado por E[β˜(k)]E[A]. Sobre a hipo´tese H2, vale notar que ela reforc¸a a linearidade entre x(k) e d(k), o que e´ razoa´vel em diversas aplicac¸o˜es (vide [11]). Este trabalho na˜o fica restrito a uma variaˆncia do ru´ıdo constante como e´ comum na literatura, aceitando que ela varie ao longo do tempo. 28 Embora H3 seja uma suposic¸a˜o “forc¸ada” para facilitar os ca´lculos, mostrou- se uma aproximac¸a˜o razoa´vel como observado em [11]. Assim como H1, H4 e´ uma hipo´tese muito encontrada na literatura e que pode ser justificada pelo teorema central do limite [31]. Resultados acerca da distribuic¸a˜o dos coeficientes de w(k), e que corroboram a utilizac¸a˜o desta hipo´tese, podem ser encontrados tambe´m em [11]. A hipo´tese H5 na˜o assume que o sinal de entrada seja branco, tornando o estudo aqui feito mais abrangente do que e´ comumente encontrado a este respeito. Pore´m, na˜o engloba o caso de todos os sinais coloridos, uma vez que assume-se que todos os autovalores de Rx sa˜o na˜o-nulos. 4.3 Descric¸a˜o dos momentos de primeira e se- gunda ordens Como dito anteriormente, o foco deste trabalho e´ fazer uma ana´lise dos al- goritmos ℓ0-sign-LMS e ℓ0-sign-NLMS, criando um modelo que permita fazer uma estimativa da evoluc¸a˜o das respectivas matrizes de autocorrelac¸a˜o dos desvios. Por- tanto, comecemos desenvolvendo suas equac¸o˜es de atualizac¸a˜o, as quais sa˜o uma das contribuic¸o˜es deste trabalho. Como ja´ foi dito, para explorar as caracter´ısticas de um sistema esparso, e´ somado um termo de regularizac¸a˜o a` func¸a˜o custo do algoritmo com o qual se deseja trabalhar, no caso, o sign-LMS. Logo, temos a seguinte func¸a˜o custo: F(k) = |e(k)|+ κ β Fρ[w(k)] (4.4) Como ja´ sabemos, o coeficiente do filtro adaptativo no instante k + 1 e´ cal- culado recursivamente pelo coeficiente no instante anterior, e somando o negativo do gradiente da func¸a˜o custo escalado por β. Logo, a equac¸a˜o de atualizac¸a˜o do algoritmo ℓ0-sign e´ dada por: w(k + 1) = w(k) + β˜(k)x(k)sign[e(k)] + κf ρ[w(k)]. (4.5) Definida a equac¸a˜o de atualizac¸a˜o para ambos os algoritmos (cabendo no- tar serem ambos contribuic¸o˜es deste trabalho), nossa ana´lise consiste em estimar 29 a evoluc¸a˜o da matriz de autocorrelac¸a˜o dos desvios. Portanto, devemos manipular a equac¸a˜o anterior substituindo w(k) por wo − w˜(k), de modo a encontrar uma atualizac¸a˜o recursiva dos desvios. Ou seja: wo − w˜(k + 1) = wo − w˜(k) + β˜(k)x(k)sign[e(k)] + κf ρ[w(k)]. (4.6) Ao subtrairmos wo e multiplicarmos por −1 ambos os lados, encontramos: w˜(k + 1) = w˜(k)− β˜(k)x(k)sign[e(k)]− κf ρ[w(k)]. (4.7) Para que a ana´lise teo´rica possa ser feita de maneira mais simples, doravante trabalharemos com a equac¸a˜o de atualizac¸a˜o na sua forma escalar, ou seja, ao inve´s de calcularmos o vetor de desvio diretamente, calcularemos seus coeficientes. Enta˜o, devemos reescrever a equac¸a˜o (4.7) da seguinte forma: w˜i(k + 1) = w˜i(k)− β˜(k)x(k − i)sign[e(k)]− κfρ[wi(k)]. (4.8) Para que possamos inferir as estat´ısticas de primeira e segunda ordem, deve- mos primeiro escrever o erro e(k) da seguinte forma: e(k) = d(k)− y(k) = (wo)Tx(k) + ν(k)−wT (k)x(k) = w˜T (k)x(k) + ν(k) = ∑N−1n=0 w˜n(k)x(k − n) + ν(k) (4.9) Substituindo (4.9) na equac¸a˜o (4.8), temos: w˜i(k+1) = w˜i(k)−β˜(k)x(k−i)sign [ N−1∑ n=0 w˜n(k)x(k − n) + ν(k) ] −κfρ[wi(k)]. (4.10) Uma vez definida a equac¸a˜o de atualizac¸a˜o dos desvios na sua forma escalar, devemos propor uma equac¸a˜o estat´ıstica que descreva o comportamento do algoritmo na me´dia, uma vez que a equac¸a˜o (4.10) e´ uma equac¸a˜o determin´ıstica. Portanto, devemos aplicar o operador do valor esperado a` equac¸a˜o (4.10), a qual passa a ser escrita da seguinte forma: 30 E[w˜i(k + 1)] = E[w˜i(k)] −E[β˜(k)x(k − i)sign(∑N−1n=0 w˜n(k)x(k − n) + ν(k))] −κE {fρ[wi(k)]} . (4.11) Para que possamos continuar a ana´lise, sera´ aplicado o teorema de Price [33, 34] a` equac¸a˜o (4.11). Tal teorema permite que escrevamos: E[sign(A)B] = √ 2 πσ2A E[AB], (4.12) onde A e B sa˜o duas varia´veis aleato´rias conjuntamente Gaussianas e de me´dia zero, e σ2A = E[A2]. Portanto, utilizando o teorema de Price, podemos reescrever a equac¸a˜o (4.11) da seguinte forma: E[w˜i(k + 1)] = E[w˜i(k)] − √ 2 πσ2e E[β˜(k)x(k − i)∑N−1n=0 w˜n(k)x(k − n)] +E[β˜(k)x(k − i)ν(k)] −κE[fρ[wi(k)]] (4.13) Pela hipo´tese H2, podemos observar que E[β˜(k)x(k − i)ν(k)] = 0, logo: E[w˜i(k + 1)] = E[w˜i(k)] − √ 2 πσ2e E[β˜(k)x(k − i)∑N−1n=0 w˜n(k)x(k − n)] −κE[fρ[wi(k)]] (4.14) Por fim, a hipo´tese H1 nos diz que β˜(k), x(k) e w˜i(k) sa˜o mutuamente in- dependentes. Portanto, utilizando H1 e a propriedade da linearidade entre os ope- radores valor esperado e somato´rio, a equac¸a˜o (4.14) pode ser reescrita da seguinte maneira: E[w˜i(k + 1)] = E[w˜i(k)]− √ 2 πσ2e E[β˜(k)] N−1∑ n=0 E[w˜n(k)]rin − κE {fρ[wi(k)]} , (4.15) onde σ2e e´ a variaˆncia do erro e rin , E[x(k − i)x(k − n)]. Para estimar a evoluc¸a˜o da matriz de autocorrelac¸a˜o dos desvios, devemos estimar a evoluc¸a˜o dos coeficientes de w˜(k)w˜T (k) na me´dia. Com base na equac¸a˜o 31 (4.10), a equac¸a˜o do ca´lculo recursivo para um coeficiente gene´rico dessa matriz e´ dada por: w˜i(k + 1)w˜j(k + 1) = w˜i(k)w˜j(k) −β˜(k)w˜i(k)x(k − j)sign(∑N−1n=0 w˜n(k)x(k − n) + ν(k)) −κw˜i(k)fρ[wj(k)] −β˜(k)w˜j(k)x(k − i)sign(∑N−1n=0 w˜n(k)x(k − n) + ν(k)) +β˜(k)2x(k − i)x(k − j)sign2(∑N−1n=0 w˜n(k)x(k − n) + ν(k)) +κβ˜(k)x(k − i)sign(∑N−1n=0 w˜n(k)x(k − n) + ν(k))fρ[wj(k)] −κw˜j(k)fρ[wi(k)] +κβ˜(k)x(k − j)sign(∑N−1n=0 w˜n(k)x(k − n) + ν(k))fρ[wi(k)] +κ2fρ[wi(k)]fρ[wj(k)] (4.16) Como a matriz de autocorrelac¸a˜o dos desvios e´ calculada via E[w˜(k)w˜T (k)], devemos aplicar o operador do valor esperado na equac¸a˜o (4.16), a qual passa a ser escrita da seguinte forma: E[w˜i(k+1)w˜j(k+1)] = E[w˜i(k)w˜j(k)] −E[β˜(k)w˜i(k)x(k − j)sign(∑N−1n=0 w˜n(k)x(k − n) + ν(k))] −E[κw˜i(k)fρ[wj(k)]] −E[β˜(k)w˜j(k)x(k − i)sign(∑N−1n=0 w˜n(k)x(k − n) + ν(k))] +E[β˜(k)2x(k − i)x(k − j)sign2(∑N−1n=0 w˜n(k)x(k − n) + ν(k))] +E[κβ˜(k)x(k − i)sign(∑N−1n=0 w˜n(k)x(k − n) + ν(k))fρ[wj(k)]] −E[κw˜j(k)fρ[wi(k)]] +E[κβ˜(k)x(k − j)sign(∑N−1n=0 w˜n(k)x(k − n) + ν(k))fρ[wi(k)]] +E[κ2fρ[wi(k)]fρ[wj(k)]] (4.17) Utilizando o teorema de Price, podemos reescrever a equac¸a˜o (4.17) da se- guinte maneira: 32 E[w˜i(k+1)w˜j(k+1)] = E[w˜i(k)w˜j(k)] − √ 2 πσ2e E[β˜(k)w˜i(k)x(k − j)(∑N−1n=0 x(k − n)w˜n(k) + ν(k))] −κE[w˜i(k)fρ[wj(k)]] − √ 2 πσ2e E[β˜(k)w˜j(k)x(k − i)(∑N−1n=0 x(k − n)w˜n(k) + ν(k))] +E[β˜(k)2x(k − i)x(k − j)] + √ 2 πσ2e κE[β˜(k)x(k − i)(∑N−1n=0 w˜n(k)x(k − n) + ν(k))fρ[wj(k)]] −κE[w˜j(k)fρ[wi(k)]] + √ 2 πσ2e κE[β˜(k)x(k − j)(∑N−1n=0 w˜n(k)x(k − n) + ν(k))fρ[wi(k)]] +κ2E[fρ[wi(k)]fρ[wj(k)]],(4.18) onde tambe´m utilizamos o fato de que sign2(x) = 1. Pela hipo´tese H2, podemos observar que E[β(k)x(k − j)ν(k)] = 0, logo: E[w˜i(k + 1)w˜j(k + 1)] = E[w˜i(k)w˜j(k)] − √ 2 πσ2e E[β˜(k)w˜i(k)x(k − j)∑N−1n=0 x(k − n)w˜n(k)] −κE[w˜i(k)fρ[wj(k)]] − √ 2 πσ2e E[β˜(k)w˜j(k)x(k − i)∑N−1n=0 x(k − n)w˜n(k)] +E[β˜(k)2x(k − i)x(k − j)] + √ 2 πσ2e κE[β˜(k)x(k − i)∑N−1n=0 w˜n(k)x(k − n)fρ[wj(k)]] −κE[w˜j(k)fρ[wi(k)]] + √ 2 πσ2e κE[β˜(k)x(k − j)∑N−1n=0 w˜n(k)x(k − n)fρ[wi(k)]] +κ2E[fρ[wi(k)]fρ[wj(k)]] (4.19) A hipo´tese H1, nos diz que β˜(k), x(k) e w˜(k) sa˜o mutuamente independentes. Portanto, utilizando H1 e a propriedade da linearidade entre os operadores valor esperado e somato´rio, a equac¸a˜o (4.19) pode ser reescrita da seguinte maneira: 33 E[w˜i(k + 1)w˜j(k + 1)] = E[w˜i(k)w˜j(k)] − √ 2 πσ2e E[β˜(k)]∑N−1n=0 E[w˜i(k)w˜n(k)]rjn −κE[w˜i(k)fρ[wj(k)]] − √ 2 πσ2e E[β˜(k)]∑N−1n=0 E[w˜j(k)w˜n(k)]rin +E[β˜(k)2]rij + √ 2 πσ2e κE[β˜(k)]∑N−1n=0 E[w˜n(k)rinfρ[wj(k)]] −κE[w˜j(k)fρ[wi(k)]] + √ 2 πσ2e κE[β˜(k)]∑N−1n=0 E[w˜n(k)rjnfρ[wi(k)]] +κ2E[fρ[wi(k)]fρ[wj(k)]] (4.20) Por fim, as aproximac¸o˜es descritas na hipo´tese H3 nos permitem reescrever a equac¸a˜o (4.20) como a seguir: E[w˜i(k + 1)w˜j(k + 1)] = E[w˜i(k)w˜j(k)] − √ 2 πσ2e E[β˜(k)]∑N−1n=0 E[w˜i(k)w˜n(k)]rjn −κE[w˜i(k)]E[fρ[wj(k)]] − √ 2 πσ2e E[β˜(k)]∑N−1n=0 E[w˜j(k)w˜n(k)]rin +E[β˜(k)2]rij + √ 2 πσ2e κE[β˜(k)]∑N−1n=0 E[w˜n(k)]rinE[fρ[wj(k)]] −κE[w˜j(k)]E[fρ[wi(k)]] + √ 2 πσ2e κE[β˜(k)]∑N−1n=0 E[w˜n(k)]rjnE[fρ[wi(k)]] +κ2E[fρ[wi(k)]]E[fρ[wj(k)]] (4.21) Uma vez definidas as equac¸o˜es recursivas para os momentos de primeira e segunda ordem, cabe agora empreender o ca´lculo dos termos: E [ β˜(k) ] , E [ β˜2(k) ] e E[fρ[wi(k)]]. Comecemos pelo ca´lculo de E [ β˜(k) ] e E [ β˜2(k) ] . No caso de algoritmos na˜o normalizados (LMS), esses termos sa˜o determin´ısticos e definidos por β e β2. Pore´m, em algoritmos normalizados, o passo de aprendizagem β e´ modulado pela norma euclidiana do vetor de entrada (xTx) que faz com que β(k) deixe de ser determin´ıstico e seja calculado por: βE[ 1 xTx+δ ]. Para realizar o ca´lculo desse valor esperado, utilizaremos uma aproximac¸a˜o de primeira ordem de McLaurin, como proposto em [35, 36, 37], reescrevendo E[ 1 xTx+δ ] como: 34 E [ 1 (xT (k)x(k)+δ)n ] ≈ E [ 1 (xT (k)x(k))n ] ︸ ︷︷ ︸ ,En −nδE [ 1 (xT (k)x(k))n+1 ] . (4.22) Assim, podemos escrever β(k) e β2(k) como: E { β˜(k) } = β ( E1 − δE2 ) , (4.23) E { β˜(k)2 } = β2 ( E2 − 2δE3 ) . (4.24) Devemos agora realizar o ca´lculo de E1, E2 e E3 e, para tanto, utilizaremos a hipo´tese H5, que nos permite escrever En da seguinte forma: En = 1(2π)L/2√det(Rx) ∫ ∞ −∞ . . . ∫ ∞ −∞︸ ︷︷ ︸ L× 1 (xTx)n e −x TR−1x x 2 dx. (4.25) Para que possamos chegar a uma soluc¸a˜o anal´ıtica para (4.25), devemos de- finir uma func¸a˜o auxiliar Ψn(ω): Ψn(ω) = 1(2π)L/2√det(Rx) ∫ ∞ −∞ . . . ∫ ∞ −∞︸ ︷︷ ︸ L× 1 (xTx)n e −ωxTxe− xTR−1x x 2 dx, (4.26) podemos perceber que a func¸a˜o auxiliar foi descrita de tal forma que quando ω = 0 recuperamos En. Logo: En = Ψn(ω)|ω=0 = Ψn(0) = ∫ . . . ∫ ︸ ︷︷ ︸ N× ∂nΨn(ω) ∂nω dω . . . dω︸ ︷︷ ︸ N× ∣∣∣∣∣∣∣∣∣ ω=0 , (4.27) onde ∂nΨn(ω) ∂nω e´ descrito pela seguinte equac¸a˜o: ∂nΨn(ω) ∂nω = (−1)n (2π)L/2 √ det(Rx) ∫ ∞ −∞ . . . ∫ ∞ −∞︸ ︷︷ ︸ L× e−ωx Txe− xTR−1x x 2 dx = (−1)n (2π)L/2 √ det(Rx) ∫∞ −∞ . . . ∫∞ −∞ e − xT (R−1x +2ωI)x 2 dx = (−1)n (2π)L/2 √ det(Rx) √ det [( R−1x + 2ωI )−1] = (−1)n√ det(I+2ωRx) . (4.28) 35 Substituindo o resultado obtido em (4.28) na equac¸a˜o (4.27), temos que: En = ∫ . . . ∫ ︸ ︷︷ ︸ N× (−1)n√ det (I + 2ωRx) dω . . . dω︸ ︷︷ ︸ N× ∣∣∣∣∣∣∣∣∣ ω=0 . (4.29) Para acharmos uma soluc¸a˜o para equac¸a˜o (4.29), ter´ıamos que fazer o ca´lculo de integrais hiper-el´ıpticas, as quais na˜o apresentam soluc¸a˜o anal´ıtica, exceto em casos muito simples. Para que possamos resolver a equac¸a˜o (4.29), devemos fazer algumas aproximac¸o˜es: Sejam Q e Λ duas matrizes que conte´m, respectivamente, os autove- tores e os autovalores de Rx. Logo, podemos escrever Rx = QΛQT , onde Λ e´ uma matriz diagonal que conte´m os autovalores de Rx. Como Q e´ ortonormal, podemos escrever que RxQ = QΛ, e assim temos que: (I + 2ωRx)Q = Q+ 2ω =QΛ︷ ︸︸ ︷ RxQ = Q (I + 2ωΛ) . Com isso, podemos concluir que os autovetores de (I + 2ωRx) coincidem com os autovetores de Rx e os autovalores de (I + 2ωRx) sa˜o dados por 1 + 2ωλi, onde λi e´ o i-e´simo autovalor de Rx (e o i-e´simo elemento de Λ). Como o determinante de uma matriz e´ o produto de seus autovalores, podemos reescrever a equac¸a˜o (4.29) da seguinte maneira: En = ∫ . . . ∫ ︸ ︷︷ ︸ N× (−1)n√∏N l=1 (1 + 2ωλl) dω . . . dω︸ ︷︷ ︸ N× ∣∣∣∣∣∣∣∣∣ ω=0 , (4.30) onde ωl , − 12λl e´ a l-e´sima raiz de det (I + 2ωRx). Usando essa definic¸a˜o na equac¸a˜o (4.30), podemos expressar En como: En = ∫ . . . ∫ ︸ ︷︷ ︸ N× (−1)n√( 2N∏Nl=1λl)(ω − ω1) . . . (ω − ωN)dω . . . dω ∣∣∣∣∣∣∣∣∣ ω=0 . (4.31) Assim como a equac¸a˜o (4.29), a equac¸a˜o (4.31) na˜o apresenta soluc¸a˜o fechada. Por isso, e´ feita uma aproximac¸a˜o em que os pares de ra´ızes adjacentes sa˜o substitu´ıdos por suas respectivas me´dias geome´tricas (ω′q, com multiplicidade 2), tal que [36]: ω′q = − √ ω2q−1ω2q, (4.32) 36 para q = 1, 2, . . . , N/2. Vale notar que ω′q deve ser negativo, uma vez que ωl e´ negativo. Usando (4.32) em (4.31), temos que: En ≈ (−1) n√ 2L∏Nl=1 λl ∫ . . . ∫ ︸ ︷︷ ︸ n× 1 (ω − ω′1)(ω − ω′2) . . . (ω − ω′N 2 ) dω . . . dω︸ ︷︷ ︸ n× ∣∣∣∣∣∣∣∣∣ ω=0 . (4.33) Expandindo ℘(ω) , 1(ω−ω′1)(ω−ω′2)...(ω−ω′N 2 ) em frac¸o˜es parciais, obtemos a equac¸a˜o a seguir: ℘(ω) = A1 ω − ω′1 + A2 ω − ω′2 + . . .+ AN/2 ω − ω′N/2 , (4.34) onde Aq = 1∏N/2 j=1,j 6=q ( ω′q − ω′j ) , (4.35) para q = 1, . . . , N/2. Substituindo a equac¸a˜o (4.34) em (4.33), podemos reescrever a aproximac¸a˜o para En da seguinte forma: En ≈ (−1)n√ 2L ∏N l=1 λl ∫ . . . ∫ ︸ ︷︷ ︸ n× ( A1 ω−ω′1 + . . .+ AN 2 ω−ω′N 2 ) dω . . . dω︸ ︷︷ ︸ n× ∣∣∣∣∣∣∣∣∣ ω=0 , (4.36) onde A1, . . . , AN 2 sa˜o dados pela equac¸a˜o (4.35). Com o resultado obtido na equac¸a˜o (4.36) podemos calcular En explicitamente para n = 1, 2, 3, como mostrado a seguir: E¯1 ≈ Γ1 ∫ A1 ω − ω′1 + · · ·+ AN 2 ω − ω′N 2 dω ∣∣∣∣∣∣ ω=0 = Γ1 N/2∑ l=1 Alln (ω − ω′l) ∣∣∣∣∣∣ ω=0 = Γ1 N/2∑ l=1 Alln (−ω′l) , onde E¯2 ≈ Γ2 ∫∫ A1 ω − ω′1 + . . .+ AN 2 ω − ω′N 2 dωdω ∣∣∣∣∣∣ ω=0 = Γ2 N/2∑ l=1 Al [ω′l − ω − ω′lln (ω − ω′l) + ωln (ω − ω′l)] ∣∣∣∣∣∣ ω=0 = Γ2 N/2∑ l=1 Al [ω′l − ω′lln (−ω′l)] , 37 e E¯3≈Γ3 ∫∫∫ A1 ω − ω′1 + · · ·+ AN 2 ω − ω′L 2 dωdωdω ∣∣∣∣∣∣ ω=0 =Γ3 N/2∑ l=1 Al [ ω′2 l ln(ω−ω′l) 2 + 3ω′ l ω 2 + ω2ln(ω−ω′l) 2 − 3ω′2 l 4 −ω′lωln(ω−ω′l) ]∣∣∣ ω=0 = Γ3 N/2∑ l=1 Al [ ω′2l ln (−ω′l) 2 − 3 (ω′l) 2 4 ] . Cabe-nos ainda obter um resultado anal´ıtico para o termo E[fρ[wi(k)]]. Para tanto, seja µi,k e σ2i,k a me´dia e a variaˆncia de w˜i(k), respectivamente. Como wi(k) = woi−w˜i(k), e woi e´ determin´ıstico, podemos observar que a variaˆncia de wi(k) tambe´m e´ dada por σ2i,k, e a me´dia de wi(k) e´ dada por µi,k = woi − µi,k. Portanto, aplicando a hipo´tese H4, podemos escrever a equac¸a˜o para E {fρ[wi(k)]} da seguinte forma [11]: E [fρ (wi(k))] = 1√2πσi,k ∫∞ −∞ fρ [wi(k)] e − (wi(k)−µi,k) 2 2σ2i,k dwi(k) = ρ 2σi,k√ 2π e −(µi,k+1ρ)2 2σ2 i,k − e −(µi,k− 1ρ)2 2σ2 i,k +ρ 2µi,k 2 [ erf ( µi,k+ 1ρ√ 2σi,k ) − erf ( µi,k− 1ρ√ 2σi,k )] +ρ2 [ erf ( µi,k+ 1ρ√ 2σi,k ) +erf ( µi,k− 1ρ√ 2σi,k ) −2erf ( µi,k√ 2σi,k )] , (4.37) onde erf(x) , 2√ π ∫ x 0 e −t2dt. 4.4 Conclusa˜o Na primeira sec¸a˜o deste cap´ıtulo apresentou-se o me´todo de ana´lise a ser utilizado, bem como as hipo´teses necessa´rias para o desenvolvimento da ana´lise. Na segunda sec¸a˜o foram apresentadas observac¸o˜es acerca das hipo´teses a serem seguidas. Na terceira sec¸a˜o e´ apresentado o desenvolvimento dos algoritmos estudados e, enta˜o, desenvolvidas as equac¸o˜es necessa´rias para a criac¸a˜o do modelo proposto e posterior comparac¸a˜o com o modelo emp´ırico. 38 Cap´ıtulo 5 Resultados Para avaliar a adequac¸a˜o do modelo estoca´stico proposto neste trabalho ao caso real, foram feitas diversas simulac¸o˜es, nas quais um filtro adaptativo tenta identificar uma dentre as func¸o˜es de transfereˆncia descritas pelos primeiros N coefi- cientes de [38]. Algumas dessas func¸o˜es de transfereˆncia possuem coeficientes muito pequenos, enta˜o um fator de escalonamento α foi utilizado. O filtro adaptativo pos- sui o mesmo comprimento N e o sinal de entrada e´ gerado passando um sinal branco e gaussiano por um filtro de colorimento com func¸a˜o de transfereˆncia: H(z) = 1− 0, 6z + 0, 2z−1 − 0, 3z−2. (5.1) Primeiro, foram feitas simulac¸o˜es para avaliar o comportamento transiente dos al- goritmos. Para um primeiro exemplo, foi utilizado o modelo 1 de [38] com N = 12, α = 1, 100 me´dias de Monte Carlo, β = 10−3, δ = 10−6, σ2ν = 10−6, κ = 10−9 e ρ = 20, tanto para o caso na˜o-normalizado quanto para o caso normalizado. A Figura 5.1 mostra a evoluc¸a˜o do algoritmo ℓ0-sign-LMS, enquanto a Figura 5.2 mostra a evoluc¸a˜o do algoritmo ℓ0-sign-NLMS, e e´ poss´ıvel perceber que para ambos os casos o modelo proposto consegue rastrear o comportamento do filtro real tanto no caso do MSE quanto no caso do MSD. Em um segundo exemplo, foi observado o comportamento do sistema quando β varia a cada iterac¸a˜o. Foi utilizado o modelo 6 de [38] com N = 12, α = 100, 100 me´dias de Monte Carlo, δ = 10−6, σ2ν = 10−6, κ = 10−9 e ρ = 20, tanto para o caso na˜o-normalizado quanto para o caso normalizado. A Figura 5.3(a) mostra 39 1000 2000 3000 4000 −40 −20 1000 2000 3000 4000 −40 −30 −20 Nu´mero de Iterac¸o˜es Nu´mero de Iterac¸o˜es (a) (b) M SE (d B) M SD (d B) Figura 5.1: Desempenho do algoritmo ℓ0-sign-LMS. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). a evoluc¸a˜o do algoritmo ℓ0-sign-LMS, enquanto a Figura 5.4(a) mostra a evoluc¸a˜o do algoritmo ℓ0-sign-NLMS, com β variando conforme a Figura 5.3(b), e podemos observar que mesmo quando β varia ao longo do tempo o modelo teo´rico consegue rastrear o resultado experimental. Em um terceiro exemplo, foi observado o comportamento do sistema quando σ2ν varia a cada iterac¸a˜o. Foi utilizado o modelo 8 de [38] com N = 12, α = 1, 100 me´dias de Monte Carlo, β = 10−3, δ = 10−6, κ = 10−9 e ρ = 20, tanto para o caso na˜o-normalizado quanto para o caso normalizado. A Figura 5.5(a) mostra a evoluc¸a˜o do algoritmo ℓ0-sign-LMS, enquanto a Figura 5.6(a) mostra a evoluc¸a˜o do algoritmo ℓ0-sign-NLMS, com σ2ν variando conforme a Figura 5.5(b). Assim como nos exemplos anteriores, vemos que o modelo estoca´stico proposto se adequa bem ao resultado experimental, ratificando que a ana´lise e´ va´lida mesmo quando a variaˆncia do ru´ıdo na˜o e´ constante. Em um quarto exemplo, foi observado o comportamento do sistema para 40 1 2 3 4 x 104 −40 −20 1 2 3 4 x 104 −60 −40 −20 Nu´mero de Iterac¸o˜es Nu´mero de Iterac¸o˜es (a) (b) M SE (d B) M SD (d B) Figura 5.2: Desempenho do algoritmo ℓ0-sign-NLMS. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). κ = 10−10, κ = 10−8 e κ = 10−7. Foi utilizado o modelo 6 de [38] com N = 12, α = 100, δ = 10−6, σ2ν = 10−6, β = 10−3 e ρ = 20, tanto para o caso na˜o-normalizado quanto para o caso normalizado. A Figura 5.7(a) mostra a evoluc¸a˜o do algoritmo ℓ0- sign-LMS, enquanto a Figura 5.8(a) mostra a evoluc¸a˜o do algoritmo ℓ0-sign-NLMS. As figuras 5.7(b) e 5.8(b) mostram um “zoom” em uma regia˜o de interesse das figuras 5.7(a) e 5.8(a). Neste exemplo, vale notar que no caso do algoritmo na˜o- normalizado a variac¸a˜o do paraˆmetro κ na˜o altera muito nem a convergeˆncia nem o erro quadra´tico me´dio em regime permanente. Ja´ no caso normalizado, podemos observar que aumentando o κ de 10−10 para 10−7 o sistema converge mais devagar. Por fim, foram feitas simulac¸o˜es para avaliar o comportamento em regime permanente dos algoritmos. Em um quinto exemplo, foi observado o comportamento do sistema em regime permanente para diversos valores de β. Para essa simulac¸a˜o, foi utilizado o modelo 4 de [38] com N = 12, α = 10, 10 me´dias de Monte Carlo, δ = 10−6, σ2ν = 10−6, κ = 41 1000 2000 3000 4000 5000 6000 7000 −40 −20 1000 2000 3000 4000 5000 6000 7000 5 10 x 10 −4 Nu´mero de Iterac¸o˜es Nu´mero de Iterac¸o˜es (a) (b) M SE (d B) β Figura 5.3: (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-LMS com β variando. Emp´ırico (em azul) e teo´rico (em vermelho).(b) Comportamento de β ao longo das iterac¸o˜es. 10−9 e ρ = 20, tanto para o caso na˜o-normalizado quanto para o caso normalizado. A Figura 5.9 mostra a evoluc¸a˜o do algoritmo ℓ0-sign-LMS, enquanto a Figura 5.10 mostra a evoluc¸a˜o do algoritmo ℓ0-sign-NLMS, sendo poss´ıvel perceber que, para ambos os casos, o modelo proposto consegue prever o MSE e o MSD com precisa˜o maior quando β e´ pequeno, o que e´ coerente com o fato de que o teorema de Price e´ mais acurado quando o valor de β e´ baixo [39, 40]. Em um sexto exemplo, foi observado o comportamento do sistema em regime permanente para diversos valores de κ. Para essa simulac¸a˜o, foi utilizado o modelo 5 de [38] com N = 12, α = 10, 10 me´dias de Monte Carlo, δ = 10−6, σ2ν = 10−6, β = 10−3 e ρ = 20, tanto para o caso na˜o-normalizado quanto para o caso normalizado. A Figura 5.11 mostra a evoluc¸a˜o do algoritmo ℓ0-sign-LMS, enquanto a Figura 5.12 mostra a evoluc¸a˜o do algoritmo ℓ0-sign-NLMS. Neste exemplo, e´ interessante notar que, em regime permanente, enquanto para o caso na˜o-normalizado o modelo 42 0.5 1 1.5 2 2.5 3 3.5 x 104 −60 −40 −20 0.5 1 1.5 2 2.5 3 3.5 x 104 5 10 x 10 −4 Nu´mero de Iterac¸o˜es Nu´mero de Iterac¸o˜es (a) (b) M SE (d B) β Figura 5.4: (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-NLMS com β variando. Emp´ırico (em azul) e teo´rico (em vermelho).(b) Comportamento de β ao longo das iterac¸o˜es. proposto se adequa melhor para valores de κ pequenos, para o caso normalizado o modelo se adequa melhor para valores de κ maiores. Em um se´timo exemplo, foi observado o comportamento do sistema em regime permanente para diversos valores de ρ. Para essa simulac¸a˜o, foi utilizado o modelo 4 de [38] com N = 12, α = 10, 10 me´dias de Monte Carlo, δ = 10−6, κ = 10−9, tanto para o caso na˜o-normalizado quanto para o caso normalizado. A Figura 5.13 mostra a evoluc¸a˜o do algoritmo ℓ0-sign-LMS, enquanto a Figura 5.14 mostra a evoluc¸a˜o do algoritmo ℓ0-sign-NLMS, sendo poss´ıvel perceber que, para ambos os casos, o modelo proposto consegue prever o MSE e o MSD em regime permanente. Curioso notar que o erro em regime permanente na˜o apresenta variac¸a˜o com a magnitude de ρ para a func¸a˜o de transfereˆncia utilizada. Pelas simulac¸o˜es apresentadas neste cap´ıtulo, podemos observarque o modelo proposto consegue prever com razoa´vel acura´cia as me´tricas de desempenho. Vale 43 1000 2000 3000 4000 −38 −36 −34 −32 −30 −28 1000 2000 3000 4000 −50 −40 −30 Nu´mero de Iterac¸o˜es Nu´mero de Iterac¸o˜es (a) (b) M SE (d B) σ 2 ν Figura 5.5: (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-LMS com σ2ν variando. Emp´ırico (em azul) e teo´rico (em vermelho).(b) Comportamento de σ2ν ao longo das iterac¸o˜es. notar tambe´m que o modelo e´, em geral, mais acurado para o caso na˜o-normalizado e apresenta melhor desempenho para valores pequenos de β e κ. 44 2000 4000 6000 8000 100001200014000 −40 −30 2000 4000 6000 8000 100001200014000 −50 −40 −30 Nu´mero de Iterac¸o˜es Nu´mero de Iterac¸o˜es (a) (b) M SE (d B) σ 2 ν Figura 5.6: (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-NLMS com σ2ν variando. Emp´ırico (em azul) e teo´rico (em vermelho).(b) Comportamento de σ2ν ao longo das iterac¸o˜es. 45 1000 2000 3000 4000 5000 6000 7000 −30 −20 −10 960 980 1000 1020 1040 −30 −28 Nu´mero de Iterac¸o˜es Nu´mero de Iterac¸o˜es (a) (b) M SE (d B) M SE (d B) Figura 5.7: (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-LMS para κ = 10−10, κ = 10−7. Emp´ırico (em azul, com 10000 me´dias de Monte Carlo) e teo´rico (em verme- lho).(b) “Zoom” na regia˜o de interesse demarcada por um retaˆngulo em (a). 46 0.5 1 1.5 2 2.5 3 3.5 x 104 −50 −40 −30 −20 −10 1.45 1.5 1.55 1.6 1.65 x 104 −50 −45 −40 Nu´mero de Iterac¸o˜es Nu´mero de Iterac¸o˜es (a) (b) κ = 10−10 κ = 10−7 M SE (d B) M SE (d B) Figura 5.8: (a) Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-NLMS para κ = 10−10, κ = 10−7. Emp´ırico (em azul, com 2500 me´dias de Monte Carlo) e teo´rico (em vermelho).(b) “Zoom” na regia˜o de interesse demarcada por um retaˆngulo em (a). 47 2 4 6 8 10 x 10−4 −50 −40 2 4 6 8 10 x 10−4 −55 −50 −45 β β (a) (b) M SE (d B) M SD (d B) Figura 5.9: Desempenho do algoritmo ℓ0-sign-LMS em regime permanente para diferentes valores de β. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). 48 2 4 6 8 10 x 10−4 −58 −56 2 4 6 8 10 x 10−4 −70 −65 −60 β β (a) (b) M SE (d B) M SD (d B) Figura 5.10: Desempenho do algoritmo ℓ0-sign-NLMS em regime permanente para diferentes valores de β. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). 49 2 4 6 8 10 x 10−6 −38 −36 −34 −32 −30 −28 2 4 6 8 10 x 10−6 −40 −30 κ κ (a) (b) M SE (d B) M SD (d B) Figura 5.11: Desempenho do algoritmo ℓ0-sign-LMS em regime permanente para diferentes valores de κ. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). 50 2 4 6 8 10 x 10−6 −50 −40 −30 2 4 6 8 10 x 10−6 −60 −40 −20 κ κ (a) (b) M SE (d B) M SD (d B) Figura 5.12: Desempenho do algoritmo ℓ0-sign-NLMS em regime permanente para diferentes valores de κ. Emp´ırico (em azul) e teo´rico (em vermelho). (a) MSE (dB); (b) MSD (dB). 51 0 5 10 15 20 −40 −35 −30 −25 −20 −15 ρ σ ν2 = 10 −2 σ ν2 = 10 −3 σ ν2 = 10 −4 M SE (d B) Figura 5.13: Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-LMS em regime permanente para diferentes valores de ρ e para σ2ν = 10−2, σ2ν = 10−3 e σ2ν = 10−4. 52 0 5 10 15 20 −40 −35 −30 −25 −20 −15 ρ σ ν2 = 10 −2 σ ν2 = 10 −3 σ ν2 = 10 −4 M SE (d B) Figura 5.14: Evoluc¸a˜o do MSE para o algoritmo ℓ0-sign-NLMS em regime perma- nente para diferentes valores de ρ e para σ2ν = 10−2, σ2ν = 10−3 e σ2ν = 10−4. 53 Cap´ıtulo 6 Conclusa˜o Com o objetivo de desenvolver um modelo capaz de prever o comportmento dos algoritmos ℓ0-sign-LMS e ℓ0-sign-NLMS, no Cap´ıtulo 2 foi feita uma breve re- visa˜o sobre filtragem adaptativa, mostrando-se uma configurac¸a˜o usada para identi- ficac¸a˜o de sistemas e os algoritmos que precederam os algoritmos em ana´lise. Ja´ no Cap´ıtulo 3 foi feita uma revisa˜o sobre sistemas esparsos e algoritmos que tentavam explorar essa caracter´ıstica, dentre eles algoritmos proporcionais e os da famı´lia ℓ0. No Cap´ıtulo 4, foi desenvolvido um modelo para prever o comportamento dos algoritmos ℓ0-sign-LMS e ℓ0-sign-NLMS por meio do ca´lculo recursivo da matriz de autocorrelac¸a˜o dos desvios, levando em considerac¸a˜o duas das principais me´tricas de desempenho utilizadas em processamento de sinais, o MSE e o MSD. Uma vez proposto o modelo, no Cap´ıtulo 5 e´ feita uma comparac¸a˜o entre os modelos teo´rico e pra´tico por meio de simulac¸o˜es. Com base nas simulac¸o˜es apresentadas no Cap´ıtulo 5, poˆde-se observar que o modelo teo´rico mostrou-se capaz de prever o comportamento dos algoritmos es- tudados ao longo deste trabalho de maneira satisfato´ria, prevendo a evoluc¸a˜o das me´tricas de desmpenho adequadamente tanto para o caso na˜o-normalizado (ℓ0-sign- LMS) quanto para o caso normalizado (ℓ0-sign-NLMS), sem apresentar restric¸o˜es quanto ao sinal de entrada ser branco e a` variaˆncia do ru´ıdo ser constante. Pore´m, observamos uma limitac¸a˜o, para o caso normalizado, quanto ao valor de β, o qual deve ser suficientemente pequeno, mas que vai de acordo com as observac¸o˜es feitas em [39, 40]. 54 Refereˆncias Bibliogra´ficas [1] S. Al-Sayed, A. M. Zoubir, and A. H. Sayed, “Robust adaptation in impulsive noise,” IEEE Transactions on Signal Processing, vol. 64, pp. 2851–2865, June 2016. [2] P. Stoica, G. Liu, J. Li, and E. G. Larsson, “Nonparametric spectral analysis of gapped data via an adaptive filtering approach,” Circuits, Systems and Signal Processing, vol. 20, pp. 485–496, Sept 2001. [3] B. Dickinson, “Adaptive filters: Structures, algorithms, and applications,” IEEE Transactions on Acoustics, Speech, and Signal Processing, vol. 33, pp. 1345–1345, Oct 1985. [4] N. V. Thakor and Y. S. Zhu, “Applications of adaptive filtering to ecg analysis: noise cancellation and arrhythmia detection,” IEEE Transactions on Biomedi- cal Engineering, vol. 38, pp. 785–794, Aug 1991. [5] M. L. Honig and D. G. Messerschmitt, Adaptive filters: structures, algorithms and applications, vol. 1. Springer, 1984. [6] S. S. Haykin, Adaptive filter theory. Pearson Education India, 2008. [7] D. T. M. Slock, “On the convergence behavior of the lms and the normalized lms algorithms,” IEEE Transactions on Signal Processing, vol. 41, pp. 2811–2825, Sep 1993. [8] A. H. Sayed, Adaptive filters. John Wiley & Sons, 2011. [9] G. Gui and L. Xu, “Regularization parameter selection method for sign lms with reweighted ℓ1-norm constraint algorithm,” arXiv preprint arXiv:1503.03608, Apr 2015. 55 [10] M. S. Mohammed and K. Ki-Seong, “Sign least mean squares-based decon- volution technique for ultrasonic testing,” Russian Journal of Nondestructive Testing, vol. 48, pp. 609–613, Oct 2012. [11] K. da S. Olinto, D. B. Haddad, and M. R. Petraglia, “Transient analysis of l0-lms and l0-nlms algorithms,” Signal Processing, vol. 127, pp. 217 – 226, Jan 2016. [12] R. K. Martin, W. A. Sethares, R. C. Williamson, and C. R. Johnson, “Ex- ploiting sparsity in adaptive filters,” IEEE Transactions on Signal Processing, vol. 50, pp. 1883–1894, Aug 2002. [13] J. Homer, “Detection guided nlms estimation of sparsely parametrized chan- nels,” IEEE Transactions on Circuits and Systems II: Analog and Digital Signal Processing, vol. 47, pp. 1437–1442, Dec 2000. [14] D. L. Duttweiler, “Proportionate normalized least-mean-squares adaptation in echo cancelers,” IEEETransactions on Speech and Audio Processing, vol. 8, pp. 508–518, Sep 2000. [15] D. B. Haddad and M. R. Petraglia, “Transient and steady-state mse analysis of the impnlms algorithm,” Digital Signal Processing, vol. 33, pp. 50 – 59, July 2014. [16] L. R. Vega, H. Rey, J. Benesty, and S. Tressens, “A family of robust algorithms exploiting sparsity in adaptive filters,” IEEE Transactions on Audio, Speech, and Language Processing, vol. 17, pp. 572–581, May 2009. [17] Y. Gu, J. Jin, and S. Mei, “l0 norm constraint lms algorithm for sparse system identification,” IEEE Signal Processing Letters, vol. 16, pp. 774–777, Sept 2009. [18] Y. Yu, H. Zhao, and B. Chen, “Sparse normalized subband adaptive filter algorithm with l0-norm constraint,” Journal of the Franklin Institute, vol. 353, pp. 5121 – 5136, Sept 2016. [19] G. Su, J. Jin, Y. Gu, and J. Wang, “Performance analysis of ℓ0 norm constraint least mean square algorithm,” IEEE Transactions on Signal Processing, vol. 60, pp. 2223–2235, May 2012. 56 [20] N. Kalouptsidis, G. Mileounis, B. Babadi, and V. Tarokh, “Adaptive algorithms for sparse system identification,” Signal Processing, vol. 91, pp. 1910 – 1919, Feb 2011. [21] M. Fukumoto, S. Saiki, et al., “An improved mu-law proportionate nlms algo- rithm,” in 2008 IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 3797–3800, IEEE, March 2008. [22] S. L. Gay, “An efficient, fast converging adaptive filter for network echo cancel- lation,” in Signals, Systems & Computers, 1998. Conference Record of the Thirty-Second Asilomar Conference on, vol. 1, pp. 394–398, IEEE, Nov 1998. [23] H. Deng and M. Doroslovacki, “Proportionate adaptive algorithms for network echo cancellation,” IEEE Transactions on Signal Processing, vol. 54, pp. 1794– 1803, Apr 2006. [24] S. C. Douglas and W. Pan, “Exact expectation analysis of the lms adaptive filter,” IEEE Transactions on Signal Processing, vol. 43, pp. 2863–2871, Dec 1995. [25] T. Y. Al-Naffouri and A. H. Sayed, “Transient analysis of adaptive filters with error nonlinearities,” IEEE Transactions on Signal Processing, vol. 51, pp. 653– 663, March 2003. [26] P. S. R. Diniz, “Adaptive filtering: algorithms and practical implementation,” The international series in Engineering and Computer Scienc, 2008. [27] J. Rickard and J. Zeidler, “Second-order output statistics of the adaptive line enhancer,” IEEE Transactions on Acoustics, Speech, and Signal Processing, vol. 27, pp. 31–39, Feb 1979. [28] B. Widrow and S. D. Stearns, “Adaptive signal processing,” Printice Hall, New Jersey, 1985. [29] C. Samson and V. Reddy, “Fixed point error analysis of the normalized ladder algorithm,” IEEE Transactions on Acoustics, Speech, and Signal Processing, vol. 31, pp. 1177–1191, Oct 1983. 57 [30] S. Werner, M. L. De Campos, and P. S. Diniz, “Partial-update nlms algorithms with data-selective updating,” IEEE Transactions on Signal Processing, vol. 52, pp. 938–949, April 2004. [31] K. T. Wagner and M. I. Doroslovacki, “Towards analytical convergence analysis of proportionate-type nlms algorithms,” in Acoustics, Speech and Signal Proces- sing, 2008. ICASSP 2008. IEEE International Conference on, pp. 3825–3828, IEEE, March 2008. [32] N. J. Bershad, E. Eweda, and J. C. Bermudez, “Stochastic analysis of the lms and nlms algorithms for cyclostationary white gaussian inputs,” IEEE Tran- sactions on Signal Processing, vol. 62, pp. 2238–2249, May 2014. [33] R. Price, “A useful theorem for nonlinear devices having gaussian inputs,” IRE Transactions on Information Theory, vol. 4, pp. 69–72, June 1958. [34] E. Eweda, “Analysis and design of a signed regressor lms algorithm for statio- nary and nonstationary adaptive filtering with correlated gaussian data,” IEEE Transactions on Circuits and Systems, vol. 37, pp. 1367–1374, Nov 1990. [35] E. M. Lobato, O. J. Tobias, and R. Seara, “Stochastic model for the nlms algo- rithm with correlated gaussian data,” in 2006 IEEE International Conference on Acoustics Speech and Signal Processing Proceedings, vol. 3, pp. III–III, IEEE, Jul 2006. [36] J. E. Kolodziej, O. J. Tobias, and R. Seara, “Stochastic analysis of the modified dnlms algorithm for gaussian data,” in 2006 International Telecommunications Symposium, pp. 929–934, Sept 2006. [37] E. M. Lobato, O. J. Tobias, and R. Seara, “Stochastic modeling of the transform-domain ε-lms algorithm,” IEEE Transactions on Signal Processing, vol. 56, pp. 1840–1852, May 2008. [38] I. TSG, “15, digital network echo cancellers (recommendation),” tech. rep., Tech. Rep. G. 168, ITU-T, 2004. 58 [39] E. V. Papoulis and T. Stathaki, “A normalized robust mixed-norm adaptive algorithm for system identification,” IEEE Signal Processing Letters, vol. 11, pp. 56–59, Jan 2004. [40] V. Mathews and S. Cho, “Improved convergence analysis of stochastic gradient adaptive filters using the sign algorithm,” IEEE Transactions on Acoustics, Speech, and Signal Processing, vol. 35, pp. 450–454, Apr 1987. 59
Compartilhar