Baixe o app para aproveitar ainda mais
Prévia do material em texto
ELE-31 Princ´ıpios de Telecomunicac¸o˜es Prof. Manish Sharma September 9, 2015 3 Transmissa˜o de Sinais, Filtros O objetivo deste cap´ıtulo e´ que, ao final dele, possamos modelar e analisar as alterac¸o˜es sobre os sinais provocadas por: • transmissa˜o do sinal atrave´s de um canal; • manipulac¸o˜es propositais do sistema (filtragem); atrave´s da resposta ao impulso de um sistema, no tempo e em frequeˆncia. Apresentamos tambe´m o conceito de densidade espectral de espectral e como esta se comporta atrave´s de um sistema. 3.1 Resposta de sistemas LTI Linear Time Invariantes) • Um sistema e´ uma caixa preta com – x(t) = sinal de entrada ; – y(t) = sinal de sa´ıda. • A grandeza destes sinais depende do contexto • Um sistema e´ definido pela relac¸a˜o entre entrada e sa´ıda, definida genericamente como a aplicac¸a˜o do operador F a` entrada. Sistema F[] x(t) y(t) Figure 1: Sistema 1 3.1.1 Resposta ao Impulso e Integral por Superposic¸a˜o • Se o sistema na˜o possui nenhuma energia armazenada, a relac¸a˜o entrada/sa´ıda pode ser escrita como: y(t) = F[x(t)] (1) onde F e´ um operador que relaciona a entrada com a sa´ıda. • Para um sistema ser LTI, ele deve ser Linear e TI (time invariant- invariante no tempo.) • A parte da linearidade exige que, se x(t) = ∑ k akxk(t)c, com ak, constantes, enta˜o: y(t) = ∑ k akF[xk(t)] (2) • A parte de invariabilidade no tempo exige que: F[x(t− td)] = y(t− td) (3) isto e´, um deslocamento no tempo na entrada causa somente o mesmo deslocamento na sa´ıda. • Sistemas com elementos discretos combinados (resistor, capacitor, indutor) geram equac¸o˜es do tipo: an dny(t) dtn + · · ·+ a1 dy(t) dt + a0y(t) = bm dmx(t) dtm + · · ·+ b1 dx(t) dt + b0x(t) (4) com constantes que dependem dos valores dos elementos discretos. • o valor de n depende do nu´mero de elementos que armazenam energia • E´ dif´ıcil de obter uma expressa˜o direta para y(t) em func¸a˜o da entrada sem recorrer ao fato de que este sistema e´ LTI. • Uma relac¸a˜o expl´ıcita entre entrada e sa´ıda vem da resposta ao impulso h(t), definida como: h(t) , F[x(t) = δ(t)] (5) • Como qualquer sinal cont´ınuo x(t) pode ser escrito como x(t) = x(t) ∗ δ(t), temos que, para qualquer x(t) cont´ınuo, a sa´ıda pode ser escrita como: y(t) = F[x(t)] = F[x(t) ∗ δ(t)] = F[ ∫ ∞ −∞ x(λ)δ(t− λ)]dλ Usando a propriedade da linearidade e sendo x(λ) constantes, = ∫ ∞ −∞ x(λ)F[δ(t− λ)]]dλ Usando a propriedade de invariaˆncia no tempo, = ∫ ∞ −∞ x(λ)h(t− λ)dλ = ∫ ∞ −∞ h(λ)x(t− λ)dλ = x(t) ∗ h(t) (6) • A u´ltima integral e´ a integral por superposic¸a˜o • Para analisarmos um sistema precisamos enta˜o de h(t) 2 • Dado um sistema, e´ fisicamente imposs´ıvel gerar um impulso como δ(t) e´ definido. Determinac¸a˜o de h(t) pode ser feita utilizando uma entrada x(t) = u(t), o que gera uma sa´ıda g(t): g(t) , F[x(t) = u(t)]⇒ h(t) = dg(t) dt F (7) pois d dt [v(t) ∗ w(t)] = v(t) ∗ dw(t) dt (8) • Exemplo: Resposta de um sistema de ordem um: – Entrada e´ tensa˜o x(t), sa´ıda e´ tensa˜o y(t). – Qual e´ a sa´ıda quando a entrada e´ um pulso retangular com amplitude A e largura τ? – Equac¸a˜o do sistema (tensa˜o): RC dy(t) dt + y(t) = x(t) (9) – Quando a entrada e´ um degrau u(t), a sa´ıda e´ encontrada como sendo g(t) = ( 1− exp ( − t RC )) u(t). – Logo, a resposta ao impulso e´ h(t) = dg(t) dt = 1 RC exp ( − t RC ) (10) – A resposta do sistema para qualquer entrada x(t) pode agora ser obtida via convoluc¸a˜o. – Para o pulso retangular em questa˜o: a sa´ıda e´ definida por treˆs equac¸o˜es: y(t) = 0, t < 0 A ( 1− exp ( − t RC )) , 0 < t < τ A ( 1− exp ( − τ RC )) · exp ( − t− τ RC ) , t > τ (11) R C x(t) y(t) 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 0 0.5 1 x( t) 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 0 0.5 1 g (t ) 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 0 0.5 1 h (t ) 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2 0 0.5 1 t y( t) Figure 2: Sistema de ordem um do exemplo. 3 3.1.2 Func¸a˜o de Transfereˆncia e Resposta ao Impulso • Na presenc¸a de um sistema, a ana´lise temporal dos sinais pode ficar mais complicada. • Ana´lise em frequeˆncia fornece geralmente perspectiva melhor • Ana´lise pode ser feita via func¸a˜o de transfereˆncia, definida como : H(f) , ∫ ∞ −∞ h(t)exp(−j2pift)dt (12) isto e´, a TF da resposta ao impulso no tempo, quando existir. • Se h(t) for real enta˜o H(f) tera´ simetria Hermitiana • Para interpretar H(f), vamos supor que a entrada e´ x(t) = Axexp(jφx)exp(j2pif0t), para −∞ < t < ∞ que e´ um fasor com fase φx e frequeˆncia f0. Assim: y(t) = x(t) ∗ h(t) = ∫ ∞ −∞ h(λ)Axexp(jφx)exp(j2pif0(t− λ))dλ = Axexp(jφx)exp(j2pif0t) ∫ ∞ −∞ h(λ)exp(−j2pif0λ)dλ = Axexp(jφx)exp(j2pif0t)H(f0) (13) • Escrevendo H(f0) = |H(f0)|exp(j · arg[H(f0)], ter´ıamos y(t) = Ayexp(jφy)exp(j2pif0t), onde Ay = Ax|H(f0)| e φy = φx + arg[H(f0). • Como AyAx = |H(f0)|, |H(f)| e´ o ganho em amplitude do sistema em func¸a˜o da frequeˆncia • Como φy − φx = arg[H(f0)], arg[H(f)], e´ o desvio de fase do sistema em func¸a˜o da frequeˆncia • Logo, H(f) e´ a resposta em frequeˆncia do sistema • Seja x(t)↔ X(f). Como y(t) = x(t) ∗ h(t), temos, pelo teorema da convoluc¸a˜o, que: Y (f) = X(f)H(f) (14) onde Y (f) e´ o espectro da sa´ıda, obtido como o produto do espectro de entrada X(f) com a func¸a˜o de transfereˆncia H(f). • Alternativamente, |Y (f)| = |X(f)||H(f)| e arg[Y (f)] = arg[X(f)] + arg[H(f)] • Se x(t) tem energia finita, podemos obter a energia de y(t) via: Ey = ∫ ∞ −∞ |Y (f)|2df = ∫ ∞ −∞ |H(f)|2|X(f)|2df (15) • Quando x(t) = δ(t), X(f) = 1, uma constante em todas as frequeˆncias. Neste caso, Y (f) = H(f) • Resumindo, temos as relac¸o˜es dadas pela figura 3: • Podemos obter H(f), sem envolver h(t) • Quando sabemos a equac¸a˜o diferencial relacionando a entrada e sa´ıda, temos F: H(f) = bm(j2pif) m + · · ·+ b1(j2pif) + b0 an(j2pif)n + · · ·+ a1(j2pif) + a0 (16) 4 h(t) x(t) y(t)=x(t)*h(t) X(f) H(f) Y(f)=X(f)∙H(f) domínio do tempo domínio de frequência Figure 3: Relac¸a˜o entre varia´veis. • Um outro caminho e´ calcular o estado estaciona´rio do sistema em resposta a um fasor, o que nos permitiria obter a relac¸a˜o entre amplitudes e fases entre sa´ıda e entrada. Por exemplo, se a entrada de um sistema for um fasor com fase e frequeˆncia conhecida, a sa´ıda sera´, apo´s um tempo muito grande, um fasor com fase e frequeˆncia mensura´vel. • Exemplo: Resposta em frequeˆncia de um sistema com ordem 1 – O mesmo sistema do exemplo anterior pode ser visto como duas impedaˆncias Zr e Zc em se´rie, a sa´ıda sendo a tensa˜o sobre Zc. – A sa´ıda y(t) tem relac¸a˜o estaciona´ria com a entrada dada pelo divisor de tensa˜o formado, que tem equac¸a˜o: y(t) = x(t)·ZcZr+Zc y(t) x(t) = Zr Zr + Zc = 1 j2pifC R+ 1j2pifC = 1 1 + j2pifCR = 1 1 + j ( f B ) = H(f) (17) onde B , 12piRC e´ o paraˆmetro do sistema – O ganho em amplitude e desvio de fase sa˜o: |H(f)| = 1√ 1 + (f/B)2 arg[H(f)] = −arctan(f/B) (18) – Este sistema e´ um filtro passa baixas com paraˆmetro B pois o ganho e´ praticamente unita´rio para f << B e muito baixo (<< 1) para f >> B – O paraˆmetro B e´ uma medida de banda de passagem, ou seja, quais frequeˆncias este sistema permite passar por ele. 5 Operac¸a˜o no tempo Expressa˜o no tempo Func¸a˜o de transfereˆncia Multiplicac¸a˜o por escalar y(t) = ±Kx(t) H(f) = ±K Derivada y(t) = dx(t)dt H(f) = (j2pif) Integrac¸a˜o y(t) = ∫ t −∞ x(t)dt H(f) = (j2pif) −1 Deslocamento no tempo y(t) = x(t− td) H(f) = exp(−j2piftd) Table 1: Relac¸o˜es entreoperac¸o˜es e Func¸o˜es de transfereˆncia – Se a entrada x(t) e´ um sinal com banda W , isto e´, o conteu´do espectral e´ desprez´ıvel para |f | > W , enta˜o ha´ treˆs cena´rios poss´ıveis: 1. W << B → H(f) ≈ 1 e arg[H(f)] ≈ 0. Assim, Y (f) = H(f) · X(f) ≈ X(f) e o sinal na˜o e´ distorcido. A sa´ıda tem o formato de x(t). 2. W ≈ B, enta˜o Y (f) = H(f) ·X(f) 6= X(f) e ha´ distorc¸a˜o. A sa´ıda tem na˜o tem o formato nem de x(t) ou de y(t) 3. W >> B . Dentro da banda B do sistema, X(f) ≈ X(0), isto e´, o espectro X(f) varia pouco dentro da banda B e pode ser aproximado pelo seu valor em f = 0. Assim, Y (f) = H(f) · X(f) ≈ H(f) · X(0). Nesta situac¸a˜o, X(0) pode ser aproximado por um impulso no tempo. Logo, y(t) , x(t) ∗ h(t) ≈ δ(t) ∗ h(t) = h(t). A sa´ıda tem o formato de h(t). 3.1.3 Ana´lise por diagrama de Blocos • Sistemas podem ser obtidos e/ou analisados por blocos menores representando equac¸o˜es mais simples: • E´ poss´ıvel combinar blocos para obter resposta do sistema • Por hipo´tese, juntar blocos na˜o altera as respostas dos mesmos, o que na˜o e´ sempre va´lido na pra´tica por causa das interac¸o˜es de impedaˆncia de entrada e sa´ıda com o comportamento do bloco. • Algumas combinac¸o˜es poss´ıveis: – Ligac¸a˜o em paralelo : H(f) = H1(f) +H2(f) – Ligac¸a˜o em se´rie: H(f) = H1(f) ·H2(f) – Realimentac¸a˜o (negativa): Y (f) = H1(f)[X(f)−H2(f)Y (f) Y (f) = X(f) [ H1(f) 1 +H1(f) ·H2(f) ] (19) Logo, H(f) = H1(f) 1 +H1(f) ·H2(f) 3.2 Distorc¸a˜o de Sinais durante Transmissa˜o • Um canal e´ um sistema de transmissa˜o que: – dissipa energia, causando atenuac¸a˜o; – Acumula energia, causando alterac¸a˜o no formato dos sinais que passam por ele • Assumindo que o canal e´ um sistema LTI (nem sempre verdade), quando na˜o havera´ distorc¸a˜o? 6 H1(f) H2(f) H1(f) H2(f) H1(f) H2(f) Ligação em Série Ligação em Paralelo Realimentação negativa + + + - Figure 4: Ligac¸o˜es poss´ıveis 3.2.1 Transmissa˜o sem Distorc¸a˜o • Dado x(t), y(t) e´ uma versa˜o na˜o distorcida de x(t) se: y(t) = K · x(t− td) (20) isto e´, se x(t) sofre somente um atraso no tempo e uma multiplicac¸a˜o por um escalar, ambos constantes. • Em frequeˆncia a relac¸a˜o anterior equivale a: Y (f) = K ·X(f) · exp(−j2piftd) (21) isto e´: – A resposta em amplitude e´ constante – O desvio de fase e´ linear em f e vale −2piftd ± 180o • E´ necessa´rio que o sistema H(f) tenha estas propriedades somente na faixa de frequeˆncia de interesse, pois fora dela o sinal de entrada na˜o existe • Sistemas que na˜o respeitam esta regra podem causar distorc¸a˜o, que podem ser classificadas em : – Distorc¸a˜o em amplitude: |H(f)| 6= K – Distorc¸a˜o em fase: arg[H(f)] 6= −2piftd ± 180o – Distorc¸a˜o na˜o linear, como por exemplo um diodo. Este tipo de distorc¸a˜o pode gerar conteu´do energe´tico em frequeˆncias que o sinal originalmente na˜o ocupa. 3.2.2 Distorc¸a˜o Linear • Inclui a distorc¸a˜o de amplitude e distorc¸a˜o de fase: • A distorc¸a˜o de amplitude e´ causada por: – Excesso de atenuac¸a˜o ou amplificac¸a˜o de algumas frequeˆncias – Resposta desproporcional 7 • Na maioria dos casos, e´ suficiente que a resposta em amplitude do sistema seja plana em amplitude na faixa de interesse • Exemplo: – x(t) = cos(2pif0t)− 1 3 cos(6pif0t) + 1 5 cos(10pif0t) – O resultado e´ uma onda aproximadamente quadrada – Atenuac¸a˜o em baixa frequeˆncia afeta termo em f0, resultando em uma onda quadrada que na˜o consegue manter o seu n´ıvel – Atenuac¸a˜o em alta frequeˆncia afeta termo em 5f0, resultando em uma onda que sobe lentamente. – A onda original e as duas verso˜es atenuadas esta˜o na figura 5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -1 -0.5 0 0.5 1 x (t ) -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -0.5 0 0.5 S em t er m o e m f 0 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -1 -0.5 0 0.5 1 t S em t er m o e m 5 f 0 Figure 5: Resultado de eliminac¸a˜o seletiva de termos da Se´rie de Fourier de uma onda aproximadamente quadrada • A distorc¸a˜o de fase acontece quando o desvio de fase na˜o e´ linear em func¸a˜o da frequeˆncia. • Para um sinal x(t) = cos(2pift), um atraso em td resultaria em y(t) = x(t − td) = cos[(2pif)(t − td)] = cos(2pift− 2piftd). Logo, o atraso de fase e´ φ(f) = −2piftd. • O valor de td pode variar em func¸a˜o de f . • Assim, se H(f) causa um desvio de fase, a func¸a˜o que relaciona td em func¸a˜o de f e arg[H(f)] e´: td(f) = arg[H(f)] 2pif (22) • Para que na˜o haja distorc¸a˜o, o atraso temporal em todas as frequeˆncias deve ser o mesmo, isto e´, td(f) deve ser constante. Caso isto seja verdade, o desvio de fase do sistema sera´ linear em f . • Ha´ uma grande diferenc¸a entre dizer que td(f) e´ constante e dizer que φ(f) e´ constante. No segundo caso, temos um atraso de fase constante, o que causa distorc¸a˜o. 8 • Exemplo: – Sinal : x(t) = cos(2pif0t)− 12cos(4pif0t) – Atraso de fase constante de pi/2, resultando em x′(t) = cos(2pif0t+ pi/2)− 12cos(4pif0t+ pi/2), como mostra a figura 6 – No sinal original, os picos na˜o coincidem. – No sinal distorcido, os picos coincidem. Logo, ha´ alterac¸a˜o de formato -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -1.5 -1 -0.5 0 0.5 1 1.5 x(t ) -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -2 -1 0 1 2 t x(t )' Figure 6: Resultado de adic¸a˜o de fase constante a cada um dos termos de um sinal perio´dico. Em azul o sinal resultante. • Em algumas situac¸o˜es, o atraso de fase pode ser linear em torno de um ponto central. Neste caso, para um canal com resposta em frequeˆncia plana, a equac¸a˜o da resposta e´ do tipo: H(f) = A · exp(−j2piftg + jφ0) (23) • Neste caso arg[H(f)] = −2piftg + φ0. • Para um sinal modulado transmitido to tipo: x(t) = x1(t)cos(2pifct)− x2(t)sin(2pifct) (24) a informac¸a˜o esta´ nas func¸o˜es x1(t) e x2(t), enquanto que o seno e o cosseno esta˜o portando a informac¸a˜o e sa˜o chamadas de portadoras. • Este sinal, ao passar pelo sistema com resposta acima, resultaria em: y(t) = Ax1(t− tg)cos(2pifc(t− tg) + φ0)−Ax2(t− tg)sin(2pifc(t− tg) + φ0) (25) onde o termo φ0 foi absorvido pelas portadoras. • Assim, a informac¸a˜o foi atrasada em tg, denominado atraso de grupo ou atraso de envolto´ria. 9 • A portadora foi atrasada em td = −φ02pifc , que e´ o atraso de fase • Para ser poss´ıvel recuperar a informac¸a˜o sem distorc¸a˜o, tg deve ser constante. • Pelas equac¸o˜es anteriores,: arg[H(f)] = −2piftg + φ0 dφ(f) df = −2pitg tg = − 1 2pi dφ(f) df (26) • O u´ltimo termo deve ser constante dentro da faixa de interesse, o que e´ uma restric¸a˜o menor do que a restric¸a˜o de que td deve ser constante • Para resolver o problema de distorc¸a˜o linear, podemos utilizar em algumas situac¸o˜es um equalizador • Um dos me´todos e´ utilizar um sistema com resposta em frequeˆncia igual a H(f)−1. Este me´todo e´ chamado Zero Forcing Equalizer • As vezes H(f) na˜o e´ conhecido ou varia no tempo, lentamente ou rapidamente. Neste caso podemos utilizar um equalizador adaptativo ou algum outro tipo de soluc¸a˜o. • Distorc¸o˜es na˜o lineares geram harmoˆnicos. Se estes estiverem na banda do sinal, eles interferira˜o de forma possivelmente irrevers´ıvel. 3.3 Perdas de transmissa˜o e Decibe´is Leitura para casa. 3.4 Filtros e Filtragem • Na pra´tica todo sistema de comunicac¸a˜o tem filtros para: – Isolar o sinal desejado – Eliminar interfereˆncias – Reduzir ru´ıdo ao mı´nimo – Outras atividades • Ha´ filtros reais, que podem ser implementados de forma causal e resultando em atraso finito, e ideais, que na˜o podem. • O entendimento de filtros ideais ajuda a entender filtros reais e as implicac¸o˜es de suas limitac¸o˜es. 3.4.1 Filtros Ideais •Na˜o causam distorc¸a˜o numa faixa de frequeˆncias • Tem ganho igual a zero nas outras faixas • Por exemplo, um filtro passa faixas (BPF - Band Pass Filter) teria a seguinte resposta em frequeˆncia: HBPF (f) = { Kexp(−j2piftd), fl ≤ |f | ≤ Fu 0, c.c (27) o que equivale ao formato das figura 7. • A banda passante e´ definida como B , fu − fl, medido por convenc¸a˜o somente nas frequeˆncias positivas. 10 fl f B fu |H(f)|=K arg[H(f)]=exp(-j2πftd) Figure 7: Resposta em frequeˆncia de um filtro BP ideal. • Um filtro passa baixas (LPF) tem fl = 0, resultando na resposta em frequeˆncia: HLPF (f) = { Kexp(−j2piftd), |f | ≤ B 0, c.c (28) • Um filtro passa altas (HPF) teria fu =∞, resultando na resposta em frequeˆncia: HHPF (f) = { Kexp(−j2piftd), |f | > fl 0, c.c (29) • Tambe´m podemos utilizar o filtro rejeitor de faixa (BRF - Band Reject Filter), que e´ definido como: HBRF (f) = { 0, fl ≤ |f | ≤ Fu Kexp(−j2piftd), c.c (30) • Nenhum destes filtros e´ fisicamente realiza´vel, isto e´, na˜o podem ser implementados com recursos finitos. • Por exemplo, um filtro LPF com resposta em frequeˆncia: H(f) = K · exp(−j2piftd)Π ( f 2B ) (31) teria como resposta ao impulso: h(t) = F−1{H(f)} = 2 ·B ·K · sinc[2B(t− td)]F (32) • Assim, h(t) 6= 0 para t < 0, o que o torna na˜o causal. O sistema teria que responder ao impulso antes dele acontecer. Na˜o poder´ıamos tornar o filtro causal aumentando o atraso td pois a durac¸a˜o de h(t) tambe´m e´ infinita. Logo, este filtro e´ fisicamente imposs´ıvel. 11 • Embora estes filtros seja impratica´veis, eles sa˜o u´teis para analisar filtros reais. Tambe´m servem como refereˆncia para desempenho de filtros reais. • Alguns filtros reais podem ser aproximados muito bem por estes filtros ideais. • Neste curso utilizaremos filtros ideais. 3.4.2 Sinais limitados no tempo ou em frequeˆncia • Um sinal v(t) e´ limitado em frequeˆncia se V (f) = 0 para |f | > W , para algum valor de W . • Um sinal v(t) e´ limitado no tempo se v(t) = 0 para t < t1, t > t2 e t1 < t2, isto e´, o sinal comec¸a em t1 e termina em t2. • Ao filtrar um sinal limitado no tempo utilizando um filtro ideal, o sinal resultante na˜o e´ limitado no tempo, pois ele e´ obtido pela convoluc¸a˜o de um sinal limitado no tempo com um sinal ilimitado no tempo (sinc) • Pela propriedade da dualidade, ao limitar um sinal idealmente no tempo, o sinal resultante sera´ ilimitado em frequeˆncia. • A conclusa˜o e´ que a limitac¸a˜o simultaˆnea de um sinal no tempo e em frequeˆncia e´ imposs´ıvel. • Por outro lado, conteu´do (energia) ale´m de um certo limite (de tempo ou frequeˆncia) pode ser neglig´ıvel. • Assim, um sinal pode ser aproximadamente limitado no tempo e em frequeˆncia ao mesmo tempo. 3.5 Filtros de Quadratura e Transformada de Hilbert • U´teis quando desejamos separar sinais pela fase. • Sera˜o utilizados na modulac¸a˜o AM • O filtro de quadratura: – adianta em 90o frequeˆncias negativas – adianta em −900 frequeˆncias positivas • Em frequeˆncia esta definic¸a˜o equivale a F: Hq(f) = −j · sgn(f) = { −j, f > 0 j, f < 0 (33) • No tempo, partindo da transformada de Fourier da func¸a˜o sinal1, a definic¸a˜o acima equivale a: Hq(f) = −j · sgn(f)↔ − 1 pit = hq(t) (34) • Quando y(t) = x(t) ∗ hq(t), dizemos que y(t) e´ a transformada de Hilbert (TH) de x(t), notac¸a˜o xˆ(t)2: xˆ(t) , x(t) ∗ 1 pit = 1 pi ∫ ∞ −∞ x(λ) t− λdλ (35) • Embora chamemos esta operac¸a˜o de transformada, o domı´nio de xˆ(t) continua sendo o tempo. 1sng(t)↔ 1 jpif 2Esta definic¸a˜o pode conter ou na˜o o sinal negativo, que utilizamos e adotamos por convenc¸a˜o. Caso o sinal na˜o esteja presente, o resultado sera´ o inverso. Entretanto, no escopo deste curso e na maioria dos livros de Telecomunicac¸o˜es, o sinal negativo sera´ utilizado. 12 • O ca´lculo desta integral e´ complicado, em particular quando t = λ. • hq(t) e´ na˜o causal. Logo, na˜o e´ realiza´vel. Pode ser aproximado. • Propriedades u´teis desta transformada: – x(t) e xˆ(t) tem a mesma amplitude em frequeˆncia pois | − j · sgn(f)| = 1 – Se xˆ(t) e´ a TH de x(t), enta˜o −x(t) e´ a TH de xˆ(t). F – x(t) e xˆ(t) sa˜o ortogonais, isto e´, lim T→∞ x(t)xˆ(t)dt = 0 (36) • Exemplo: TH de um cosseno: – Sinal x(t) = Acos(2pifct) X(f) = A 2 [δ(f − fc) + δ(f + fc)] Xˆ(f) = −jA 2 [δ(f − fc) + δ(f + fc)]sgn(f) = −jA 2 [δ(f − fc)− δ(f + fc)] (37) – Assim, xˆ(t) = Asin(2pifct). Este resultado pode ser utilizado para qualquer o ca´lculo da TH de qualquer sinal perio´dico. • Exemplo: TH de um pulso retangular. – x(t) = A[u(t)− u(t− τ)] – A integral pode ser calculada para treˆs regio˜es, como mostra a figura 8 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -0.5 0 0.5 1 1.5 x( ) , h( -( - t)) A B C t t 2t τ Figure 8: Sobreposic¸a˜o de x(λ)(azul) com h(t− λ)(preto) 13 – Para 0 < t < τ2 , a a´rea A cancela a a´rea B, e a TH se reduz ao ca´lculo da a´rea C: xˆ(t) = 1 pi ∫ ∞ −∞ x(λ) t− λdλ = ∫ τ 2t A pi 1 t− λdλ = −A pi ln[t− λ] ∣∣∣∣τ 2t = A pi ln [ t τ − t ] (38) – Para τ2 < t < τ , a situac¸a˜o e´ semelhante, resultando na mesma integral com limites de 0 a τ − 2t – Para t < 0 ou t > τ2 , na˜o ha´ cancelamento de a´reas, mas ha´ uma u´nica parte da integral: xˆ(t) = A pi ∫ τ 0 1 t− λdλ = A pi ln [∣∣∣∣ tt− τ ∣∣∣∣] (39) – O sinal resultante esta´ na figura 9. -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -1.5 -1 -0.5 0 0.5 1 1.5 t x(t );x^ (t) Figure 9: Resultado da transformada de Hilbert de x(t). – Os instante onde xˆ(t) vai para infinito sa˜o os extremos de distorc¸a˜o de fase. Isto pode ser interpretado como o instante em que os picos amplitude de todos os termos da Transformada de Fourier se combinam de forma construtiva no tempo, enquanto que no sinal original o que ocorre e´ a combinac¸a˜o de todas as ”‘bordas”’ dos termos da Transformada de Fourier para causar a descontinuidade no tempo. 3.6 Correlac¸a˜o e Densidade Espectral • Permitem analisar va´rios tipos de sinais, inclusive sinais aleato´rios 14 3.6.1 Correlac¸a˜o de sinais de poteˆncia • Sinais de poteˆncia na˜o precisam necessariamente serem reais ou perio´dicos, mas precisam ter 0 < Pv <∞, onde: Pv ,< |v(t)|2 >=< v(t) · v(t)∗ > (40) onde <> indica a me´dia e v(t)∗ e´ o complexo conjugado de v(t) • Propriedades da me´dia <>F: – < z(t)∗ >=< z(t) >∗ – < z(t− td) >=< z(t) >,∀td – < a1z1(t) + a2z2(t) >= a1 < z1(t) > +a1 < z1(t) > • Se v(t) e w(t) sa˜o sinais de poteˆncia, o produto escalar deles e´ < v(t) ·w∗(t) > e serve como uma medida de similaridade entre eles. • Esta medida vem da desigualdade de Schwarz, que diz: | < v(t) · w∗(t) > |2 ≤ Pv · Pw (41) • com igualdade se v(t) = aw(t), com a constante, i.e., sinais sa˜o proporcionais. • A correlac¸a˜o cruzada e´ definida como sendo: Rvw(τ) ,< v(t) · w∗(t− τ) >=< v(t+ τ) · w ∗ (t− τ) > (42) isto e´, o produto escalar de um sinal com o outro conjugado de outro sinal adiantado em τ → varia´vel independente. • E´ uma medida de semelhanc¸a entre v(t) e w∗(t− τ). • Versa˜o ”‘aproximada”’ do produto escalar. Temos tambe´m que Rvw(τ = 0) ,< v(t) · w∗(t) > • Tambe´m podemos definir a correlac¸a˜o cruzada para sinais aleato´rios de poteˆncia. Neste caso, ter´ıamos, para v(t) e w(t) aleato´rios: Rvw(τ) , E{v(t) · w(t− τ)∗} (43) onde E{v(t)} indica a esperanc¸a de v(t), para todas as realizac¸o˜es poss´ıveis.3 • Propriedades: – |Rvw(τ)|2 ≤ PvPw – Rvw(τ) = R ∗ vw(−τ) • A autocorrelac¸a˜o e´ a correlac¸a˜o de um sinal com ele mesmo, atrasado: Rv(τ) ,< v(t) · v∗(t− τ) >=< v(t+ τ) · v ∗ (t) > (44) • E´ uma medida de similaridade ou dependeˆncia estat´ıstica: se Rv(τ) e´ grande, v(t)e´ parecido com v(t−τ), caso contra´rio, na˜o e´. • Propriedades F: – Rv(0) = Pv – |Rv(τ)| ≤ Rv(0) 3Esta definic¸a˜o e´ va´lida quando v(t) e w(t) sa˜o estaciona´rios no sentido amplo, cujo entendimento na˜o e´ necessa´rio neste momento. 15 – Rv(−τ) = R∗v(τ) • As duas primeiras propriedades dizem que o ma´ximo da autocorrelac¸a˜o e´ na origem. A terceira nos diz que a autocorrelac¸a˜o tem simetria Hermitiana. • Se v(t) for real, Rv(τ) sera´ real com simetria par F • Se v(t) for perio´dico, Rv(τ) tambe´m sera´. F • Seja z(t) = v(t)± w(t). Enta˜o: Rz(τ) = Rv(τ) +Rw(τ)± [Rvw(τ) +Rwv(τ)]. • Se v(t) e w(t) sa˜o descorrelacionados para qualquer τ , enta˜o: Rvw = Rwv = 0,∀τ (45) e consequentemente Rz(τ) = Rv(τ) +Rw(τ) • Quando τ = 0 temos, para sinais descorrelacionados: Rz(0) = Rv(0) +Rw(0) Pz = Pv + Pw (46) isto e´, sinais descorrelacionados na˜o cancelam as suas poteˆncias. • Exemplo: correlac¸a˜o de fasores e senoides. – Para dois fasores com frequeˆncias f1 e f2, a correlac¸a˜o cruzada e´: < exp(j2pif1t)exp(j2pif2t) > = lim T→∞ 1 T ∫ T 2 −T2 exp([2pi(f1 − f2)]dt = lim T→∞ sinc[T (f1 − f2)] = { 1, f1 = f2 0, c.c. (47) – Com fasores v(t) = Cvexp(j2pifvt) e w(t) = Cwexp(j2pifwt), temos: Rvw(τ) =< [Cvexp(j2pifvt)][C ∗ wexp(−j2pifw(t− τ)) > = CvC ∗ wexp(j2piτfw) < exp(j2pifvt) · exp(j2pifwt) > = { 0, fv 6= fw CvC ∗ wexp(j2piτfw), fv = fw (48) i.e., fasores com frequeˆncias diferentes sa˜o descorrelacionados. – A autocorrelac¸a˜o e´ Rv(τ) = Rvv(τ), que vale: Rv(τ) = |Cv|2exp(j2pifvτ) (49) – Quando temos senoides, chegamos a: z(t) = Acos(2pif0t+ φ)→ Rz(τ) = A 2 2 cos(2pif0τ) (50) i.e., Rz(τ) e´ real, par, perio´dico, tem ma´ximo em τ = 0± 2mpif0 , m inteiro, e o ma´ximo vale Pz. – A fase φ na˜o aparece em Rz(τ). Logo, na˜o e´ poss´ıvel determinar z(t) a partir de Rz(τ) 16 3.6.2 Correlac¸a˜o de sinais de Energia • Definic¸o˜es anteriores na˜o servem para sinais de energia pois me´dias tenderiam a zero. • Pequenas modificac¸o˜es matema´ticas sa˜o necessa´rias. • Um sinal v(t) e´ de energia se 0 < Ev <∞, onde Ev e´: Ev , ∫ ∞ −∞ v(t)v∗(t)dt (51) • A correlac¸a˜o de dois sinais de energia e´: Rvw(τ) , ∫ ∞ −∞ v(t)w∗(t− τ)dt Rv(τ) , Rvv(τ) (52) • A integral acima possui as mesmas propriedades matema´ticas da me´dia temporal, gerando assim resultados semelhantes. • Para qualquer par de sinais: |Rvw(τ)|2 ≤ EvEw (53) • A correlac¸a˜o tambe´m e´ semelhante a uma convoluc¸a˜o, onde τ e´ a varia´vel independente e t e´ a varia´vel dummy utilizada. Assim: Rvw(τ) = v(τ) ∗ w∗(−τ) Rv(τ) = v(τ) ∗ v∗(−τ) (54) • Uma das consequeˆncias e´ que, se quisermos determinar por quanto um sinal v(t) foi atrasado, devemos ”‘filtra-lo”’ por um filtro cuja reposta ao impulso e´ o complexo conjugado revertido do sinal. Este filtro e´ chamado de filtro casado. • A TF permite relac¸o˜es adicionais: Rv(0) = ∫ ∞ −∞ v(t)v ∗ (t)dt = Ev = ∫ ∞ −∞ |V (f)|2dt Rvw(0) = ∫ ∞ −∞ v(t)w∗(t)dt = Ev = ∫ ∞ −∞ V (f)W ∗(f)df (55) • Combinado estes termos obtemos a desigualdade de Schwarz no domı´nio da frequeˆncia: |Rvw(0)|2 ≤ EvEw = Rv(0)Rw(0) ⇒ ∣∣∣∣∫ ∞∞ V (f)W ∗(f)df ∣∣∣∣2 ≤ ∫ ∞∞ |V (f)|2df + ∫ ∞ ∞ |W (f)|2df (56) e novamente com igualdade se os sinais forem proporcionais • Este me´todo permite o reconhecimento de padro˜es, como por exemplo o utilizado no GPS 3.6.3 Correlac¸o˜es e sistemas • Para um sistema h(t) com entrada x(t) e sa´ıda y(t), podemos ter interesse em Rxy(τ) e Ry(τ), a partir de Rx(τ). • Sabemos que y(t) = x(t) ∗ h(t). 17 • Assim: Ryx(τ) = ∫ ∞ −∞ y(t)x∗(t− τ)dt = ∫ ∞ −∞ [x(t) ∗ h(t)] · x∗(t− τ)dt = ∫ ∞ −∞ ∫ ∞ −∞ h(λ)x(t− λ) · x∗(t− τ)dλdt = ∫ ∞ −∞ h(λ) ∫ ∞ −∞ x(t− λ) · x∗(t− τ)dtdλ = ∫ ∞ −∞ h(λ)Rx(τ − λ)dλ = h(τ) ∗Rx(τ) (57) • Como Ry(τ) = ∫∞ −∞ y(t)y ∗(t− τ)dt, obtemos utilizando um caminho semelhante: Ry(τ) = ∫ ∞ −∞ ∫ ∞ −∞ y(t)h∗(λ)x ∗ (t− τ − λ)dλdt = ∫ ∞ −∞ h∗(λ) ∫ ∞ −∞ y(t)x ∗ (t− τ − λ)dtdλ = ∫ ∞ −∞ h∗(λ)Ryx(τ + λ)dλ = ∫ ∞ −∞ h∗(−λ)Ryx(τ − λ)dλ = h∗(−τ) ∗Ryx(τ) = Ry(τ) (58) • Substituindo o resultado anterior obtemos: Ry(τ) = h ∗(−τ) ∗ h(τ) ∗Rx(τ) (59) 3.6.4 Func¸a˜o de Densidade Espectral • Representam a distribuic¸a˜o de poteˆncia ou energia no domı´nio da frequeˆncia • Notac¸a˜o: Gv(f) para um sinal v(t) • A´rea sob Gv(f) e´ igual a poteˆncia/energia me´dia do sinal:∫ ∞ −∞ Gv(f)df = Rv(0) (60) • Dado o sistema anterior e H(f) = F{h(t)}, a relac¸a˜o entre densidades e´: Gy(f) = |H(f)|2Gx(f) (61) • Assim o valor |H(f)|2 indica o ganho em poteˆncia/energia do sinal. Fisicamente, ao amplificar um sinal em amplitude por |H(f)|, a sua poteˆncia sera´ amplificada por |H(f)|2 • Combinando as duas equac¸o˜es acima chegamos a : Ry(0) = ∫ ∞ −∞ |H(f)|2Gx(f)df (62) • A interpretac¸a˜o f´ısica e´: – Um sinal com Gx(f) qualquer; 18 – passando por um filtro passa faixas com ganho unita´rio muito estreito, com faixa ∆f ; – resultara´ na sa´ıda em na seguinte densidade espectral: Gy(f) { Gx(f), fc − ∆f2 < f < fc + ∆f2 0, c.c. (63) – Com ∆f muito pequeno, Gx(f) ≈ Gx(fc) dentro da banda de largura ∆f , e Ry(0) ≈ Gx(fc) ·∆f . – Como a unidade de Ry(0) deve ser poteˆncia ou energia e a unidade de ∆f deve ser Hertz, a unidade de Gx(fc) e de Gy(f) deve ser Watts/Hertz ou Joules/Hertz. – Este valor deve enta˜o ser real e na˜o negativo • Determinac¸a˜o de Gv(f) a partir de v(t) e´ feita pelo teorema de Wiener-Kinchine, que apresentamos sem demonstrac¸a˜o: Gv(f) = Fτ{Rv(τ)} , ∫ ∞ −∞ Rv(τ)exp(−j2pifτ)dτ (64) • A relac¸a˜o inversa e´: Rv(τ) = F−1{Gv(f)} , ∫ ∞ −∞ Gv(f)exp(j2pifτ)dτ (65) • Resultando no par: Rv(τ)↔ Gv(f) (66) • Se v(t) e´ um sinal de energia, as equac¸o˜es acima resultara˜o em: Gv(f) = |V (f)|2 (67) • Se v(t) e´ um sinal de poteˆncia perio´dico com se´rie de Fourier v(t) = ∞∑ n=−∞ c(nf0)exp(j2pinf0), enta˜o a sua densidade espectral de poteˆncia sera´: Gv(f) = ∞∑ n=−∞ |c(nf0)|2δ(f − nf0) (68) o que tem relac¸a˜o com o teorema de Parseval. • Para o caso particular onde v(t) = Acos(2pif0t+ φ), temos: Gv(f) = F {( A2 2 ) cos(2pif0τ) } = A 2 4 [δ(f − f0) + δ(f + f0) (69) 4 Exerc´ıcios Questo˜es 9,10,12,13,15. Problemas: 3.1.1 3.1.5 3.1.6 3.1.9 3.1.10 3.1.18 3.1.19 3.1.20 3.2.1 3.2.4 3.2.8 3.4.1 3.4.2 3.5.1 3.5.2 3.5.5 3.6.3 3.6.6 3.6.13 3.6.16 19
Compartilhar